Der GIGA POD - All-In-One Lösung für Supercomputing
GIGABYTE hat GIGA PODs bei führenden Cloud-Service-Providern implementiert und verfügt über das Know-how, Rechenzentren mit skalierbarer Infrastruktur zu unterstützen. Diese schlüsselfertigen Lösungen (oder Pods) bestehen aus acht Racks mit 32 GIGABYTE G593 Nodes für insgesamt 256 NVIDIA H100 Tensor Core GPUs, die 1 Exaflop (einer Quintillion Fließkommaoperationen pro Sekunde) FP8 KI-Leistung erreichen können. Auf dem GIGABYTE Stand steht ein G593-SD0 Server, der für Intel Xeon und NVIDIA H100 GPUs gebaut wurde, dieselbe Plattform, die GIGABYTE für seine jüngste Einreichung in MLPerf Benchmarks zum Testen von KI-Workloads verwendet hat.
Modularisierte KI- und HPC-Systeme - NVIDIA Grace und Grace-Hopper
Für das modularisierte Thema gibt es High-Density-Knoten mit Arm-basierten Prozessoren, die NVMe-Laufwerke und NVIDIA BlueField-3 DPUs unterstützen. Das 2U H263-V11 hat zwei Knoten für den NVIDIA Grace CPU Superchip und das H223-V10 ist für den NVIDIA Grace Hopper Superchip vorgesehen.
Skalierbare Rechenzentrumsinfrastruktur für alle Anwendungsfälle
GIGABYTEs G493-SB0 ist ein NVIDIA-zertifiziertes System für NVIDIA L4 Tensor Core und L40 GPUs und bietet Platz für acht PCIe Gen5 GPUs und Erweiterungssteckplätze für NVIDIA BlueField und ConnectX Netzwerktechnologien. In Zukunft wird es offiziell als NVIDIA OVX System bezeichnet. Darüber hinaus folgt das neue XH23-VG0 dem modularen Design des NVIDIA MGX. Es verfügt über einen einzelnen NVIDIA Grace Hopper Superchip mit FHFL-Erweiterungssteckplätzen für beschleunigte KI- und HPC-Anwendungen im großen Maßstab.
Enterprise Computing
Die Kunden von GIGABYTE erwarten kühne Designs, die auf spezifische Workloads und Märkte zugeschnitten sind. Der erste neue Enterprise-Server, der S183-SH0, ist ein schlanker 1U-Formfaktor Barebone mit dualen Intel Xeon-Prozessoren und 32x E1.S-Formfaktor-Solid-State-Laufwerken für eine schnelle, dichte Speicherkonfiguration. Ein weiterer E1.S-unterstützender Server ist der H253-Z10, ein Multi-Node-Server mit Frontzugang. Es gibt zwei G293-GPU-Server, die auf KI-Training oder KI-Inferenz-Workloads zugeschnitten sind. Der G293-Z43 ist ein Inferenzspezialist, der sechzehn Alveo™ V70-Beschleuniger mit vier GPU-Käfigen unterstützen kann, die über eine ausreichende Kühlung verfügen. Als preislich optimaler GPU-Server bietet GIGABYTE den G293-Z23 an, der CPUs mit höherer TDP und PCIe Gen4 und Gen5 GPUs wie die NVIDIA L40S GPU unterstützt.
NVIDIA H200 Tensor Core GPU
NVIDIA kündigte die NVIDIA H200 Tensor Core GPU mit verbesserter Speicherleistung an, die GIGABYTE mit kommenden Servermodellen unterstützen wird. Der NVIDIA H200 Grafikprozessor bringt generative KI und HPC mit bahnbrechender Leistung und Speicherkapazität auf den Punkt. Als erste GPU mit HBM3e sorgt der schnellere und größere Speicher der H200 GPU für die Beschleunigung von generativer KI und LLMs und fördert gleichzeitig das wissenschaftliche Rechnen für HPC-Workloads. Der NVIDIA HGX H200, die weltweit führende KI-Computing-Plattform, ist mit dem H200-Grafikprozessor ausgestattet, der für höchste Leistung sorgt. Ein achtfacher HGX H200 bietet über 32 Petaflops FP8 Deep-Learning-Rechenleistung und 1,1 TB aggregierten Speicher mit hoher Bandbreite für höchste Leistung bei generativen KI- und HPC-Anwendungen.
Weitere Informationen finden Sie in der vollständigen Liste der GIGABYTE DLC-Server, Immersion-Server und Immersion-Tanks.
Um eine Anfrage zu stellen: Contact Sales
Folgen Sie GIGABYTE auf Twitter: http://twitter.com/GIGABYTEServer
Folgen Sie Giga Computing auf LinkedIn: https://www.linkedin.com/company/giga-computing/
Folgen Sie Giga Computing auf Facebook: https ://www.facebook.com/gigabyteserver