Supermicro NVIDIA MGX™ Systems

Ultimative Bausteine für die Beschleunigung von Rechenzentren

Beschleunigung der Markteinführung von generativer KI und darüber hinaus

Konstruieren Sie maßgeschneiderte KI-Lösungen mit Supermicro NVIDIA MGX™ Systemen, die mit dem neuesten NVIDIA GH200 Grace Hopper™ Superchip und NVIDIA Grace™ CPU Superchip ausgestattet sind. Die neue modulare Architektur wurde entwickelt, um die KI-Infrastruktur und beschleunigtes Computing in kompakten 1U- und 2U-Formfaktoren zu standardisieren und gleichzeitig ultimative Flexibilität und Erweiterungsmöglichkeiten für die aktuellen und zukünftigen GPUs, DPUs und CPUs zu bieten.

Supermicros fortschrittliche Flüssigkühlungstechnologie ermöglicht energieeffiziente Konfigurationen mit hoher Dichte, wie z.B. ein 1U 2-Knoten-System mit zwei NVIDIA GH200 Grace Hopper Superchips, die jeweils aus einer einzelnen NVIDIA H100 Tensor Core GPU und einer NVIDIA Grace CPU bestehen und mit einem Hochgeschwindigkeits-Interconnect integriert sind. Supermicro liefert jeden Monat Tausende von KI-Clustern im Rackmaßstab aus Einrichtungen auf der ganzen Welt aus und gewährleistet so Plug-and-Play-Kompatibilität.

Verfügbarkeitsbenachrichtigung

Technische Spezifikationen

Die 1U NVIDIA MGX-Systeme von Supermicro verfügen über bis zu 2 NVIDIA GH200 Grace Hopper Superchips mit 2 NVIDIA H100 GPUs und 2 NVIDIA Grace CPUs. Jeder verfügt über 480 GB LPDDR5X-Speicher für die CPU und 96 GB HBM3- oder 144 GB HBM3e-Speicher für die GPU. Der speicherkohärente NVIDIA-C2C mit hoher Bandbreite und geringer Latenz verbindet CPU, GPU und Speicher mit 900 GB/s – siebenmal schneller als PCIe 5.0. Die modulare Architektur bietet mehrere PCIe 5.0 x16 FHFL-Steckplätze zur Aufnahme von DPUs für die Cloud- und Datenverwaltung sowie Erweiterbarkeit für zusätzliche GPUs, Netzwerke und Speicher.

Mit dem 1U-2-Knoten-Design mit 2 NVIDIA GH200 Grace Hopper Superchips können die bewährten Direct-to-Chip-Flüssigkeitskühlungslösungen von Supermicro die Betriebskosten um mehr als 40 % senken, gleichzeitig die Rechendichte erhöhen und die Rack-Scale-Bereitstellung für Large Language Model (LLM) vereinfachen. Cluster und HPC-Anwendungen.

Die 2U Supermicro NVIDIA MGX-Plattform unterstützt sowohl NVIDIA Grace- als auch x86-CPUs mit bis zu 4 Rechenzentrums-GPUs in voller Größe, wie z. B. NVIDIA H100 PCIe, H100 NVL oder L40S. Es bietet außerdem drei zusätzliche PCIe 5.0 x16-Steckplätze für I/O-Konnektivität und acht Hot-Swap-EDSFF-Speicherschächte.

Supermicro bietet NVIDIA-Netzwerke zur Sicherung und Beschleunigung von KI-Workloads auf der MGX-Plattform. Dazu gehört eine Kombination aus NVIDIA BlueField-3 DPUs, die 2x 200 Gbit/s Konnektivität zur Beschleunigung des Benutzer-zu-Cloud- und Datenspeicherzugriffs bieten, und ConnectX-7-Adaptern, die bis zu 400 Gbit/s InfiniBand- oder Ethernet-Konnektivität zwischen GPU-Servern bereitstellen.
​​​​​​​
Entwickler können diese neuen Systeme und NVIDIA-Softwareangebote schnell für jede Branchen-Workload nutzen. Zu diesen Angeboten gehört NVIDIA AI Enterprise, eine Software der Enterprise-Klasse, die die NVIDIA AI-Plattform antreibt und die Entwicklung und Bereitstellung produktionsreifer generativer KI, Computer Vision, Sprach-KI und mehr optimiert. Darüber hinaus bietet das NVIDIA HPC-Softwareentwicklungskit die wesentlichen Werkzeuge, die für die Weiterentwicklung des wissenschaftlichen Rechnens erforderlich sind.
Jeder Aspekt der Supermicro NVIDIA MGX-Systeme ist darauf ausgelegt, die Effizienz zu steigern, vom intelligenten thermischen Design bis zur Komponentenauswahl. NVIDIA Grace Superchip-CPUs verfügen über 144 Kerne und liefern bis zu doppelt so viel Leistung pro Watt im Vergleich zu heutigen x86-CPUs nach Industriestandard. Spezifische Supermicro NVIDIA MGX-Systeme können mit zwei Knoten in 1 HE konfiguriert werden, was insgesamt 288 Kernen auf zwei Grace-CPU-Superchips entspricht, um bahnbrechende Rechendichten und Energieeffizienz in Hyperscale- und Edge-Rechenzentren bereitzustellen.

1U Grace Hopper MGX Systems

CPU+GPU Coherent Memory System for AI and HPC Applications
  • Up to 2 NVIDIA GH200 Grace Hopper Superchips featuring 72-core ARM CPU and H100 Tensor Core GPU tightly coupled with coherent memory
  • Up to 96GB HBM3 and 480GB LPDDR5X integrated memory per Grace Hopper Superchip
  • NVLink® Chip-2-Chip (C2C) high-bandwidth and low-latency interconnect
  • Up to 3 PCIe 5.0 x16 slots supporting NVIDIA BlueField®-3, NVIDIA ConnectX®-7 or additional GPUs
  • 8 hot-swap E1.S and 2 M.2 slots
  • Air Cooling and liquid cooling options
Download Datasheet

1U Grace Hopper MGX-Systemkonfigurationen im Überblick

Konstruieren Sie neue Lösungen für beschleunigte Infrastrukturen, die es Wissenschaftlern und Ingenieuren ermöglichen, sich auf die Lösung der wichtigsten Probleme der Welt mit größeren Datensätzen, komplexeren Modellen und neuen generativen KI-Workloads zu konzentrieren. Im gleichen 1U-Gehäuse liefern Supermicros duale NVIDIA GH200 Grace Hopper Superchip-Systeme die höchste Leistung für jede Anwendung auf der CUDA-Plattform mit erheblichen Geschwindigkeitssteigerungen für KI-Workloads mit hohem Speicherbedarf. Zusätzlich zum Hosting von bis zu 2 Onboard-H100-GPUs im 1U-Formfaktor ermöglichen die modularen Einschübe PCIe-Erweiterungen in voller Größe für aktuelle und zukünftige beschleunigte Rechenkomponenten, High-Speed-Scale-Out und Clustering.
SKU
Form Factor
​​​​​​​
CPU
​​​​​​​
GPU
​​​​​​​
Memory
​​​​​​​
Drives
Networking
​​​​​​​
Interconnect
​​​​​​​
Cooling
Power
​​​​​​​
ARS-111GL-NHR
1U system with single NVIDIA Grace Hopper Superchip (air-cooled)
72-core Grace Arm Neoverse V2 CPU + H100 Tensor Core GPU in a single chip
NVIDIA H100 Tensor Core GPU with 96GB of HBM3 or 144GB of HBM3e (coming soon)
Up to 480GB of integrated LPDDR5X with ECC
(Up to 480GB + 144GB of fast-access memory)
8x Hot-swap E1.S drives and 2x M.2 NVMe drives
3x PCIe 5.0 x16 slots supporting NVIDIA BlueField-3 or ConnectX-7
NVLink-C2C with 900GB/s for CPU-GPU interconnect
Air-cooling
2x 2000W Redundant Titanium Level power supplies
ARS-111GL-NHR-LCC
1U system with single NVIDIA Grace Hopper Superchip (liquid-cooled)
72-core Grace Arm Neoverse V2 CPU + H100 Tensor Core GPU in a single chip
NVIDIA H100 Tensor Core GPU with 96GB of HBM3 or 144GB of HBM3e (coming soon)
Up to 480GB of integrated LPDDR5X memory with ECC (Up to 480GB + 144GB of fast-access memory)
8x Hot-swap E1.S drives and 2x M.2 NVMe drives
3x PCIe 5.0 x16 slots supporting NVIDIA BlueField-3 or ConnectX-7
NVLink-C2C with 900GB/s for CPU-GPU interconnect
Liquid-cooling
2x 2000W Redundant Titanium Level power supplies
ARS-111GL-DNHR-LCC
1U 2-node system with NVIDIA Grace Hopper Superchip per node (liquid-cooled)
2x 72-core Grace Arm Neoverse V2 CPU + H100 Tensor Core GPU in a single chip (1 per node)
NVIDIA H100 Tensor Core GPU with 96GB of HBM3 or 144GB of HBM3e per node (coming soon)
Up to 480GB of LPDDR5X per node (Up to 480GB + 144GB of fast-access memory per node)
8x Hot-swap E1.S drives and 2x M.2 NVMe drives
2x PCIe 5.0 x16 slots per node supporting NVIDIA BlueField-3 or ConnectX-7
NVLink-C2C with 900GB/s for CPU-GPU interconnect
Liquid-cooling
2x 2700W Redundant Titanium Level power supplies

Grace and x86 MGX Systems

Modular Building Block Platform Supporting today’s and Future GPUs, CPUs, and DPUs
  • NVIDIA Grace™ CPU Superchip (144-core) or 4th Gen Intel® Xeon® Scalable processor
  • Up to 480GB integrated LPDDR5X DRAM memory with ECC and up to 1TB/s of bandwidth (with Grace CPU Superchip) or up to 2TB 4800MT/s ECC DDR5 DRAM (with Intel CPU)
  • Up to 4 NVIDIA double-width PCIe GPUs, including H100 PCIe, H100 NVL, L40S, and more
  • Up to 8 Hot-Swap E1.S and 2 M.2 NVMe slots
  • Up to 3 PCIe 5.0 x16 slots supporting NVIDIA BlueField-3 or NVIDIA ConnectX-7
Download Datasheet

Grace- und x86-MGX-Systemkonfigurationen auf einen Blick

Supermicro NVIDIA MGX™ 1U/2U-Systeme mit Grace™ CPU Superchip und x86-CPUs sind vollständig für die Unterstützung von bis zu 4 GPUs über PCIe optimiert, ohne dass dabei E/A-Netzwerke oder die Wärmeentwicklung beeinträchtigt werden. Die ultimative Bausteinarchitektur ermöglicht es Ihnen, diese Systeme für eine Vielzahl von beschleunigten Arbeitslasten und Bereichen zu optimieren, einschließlich KI-Training und Inferenz, HPC, Datenanalyse, Visualisierung/Omniverse™ und Hyperscale-Cloud-Anwendungen.
SKU
Form Factor
​​​​​​​
CPU
​​​​​​​
GPU
​​​​​​​
Memory
​​​​​​​
Drives
​​​​​​​
Networking
​​​​​​​
Interconnect
​​​​​​​
Cooling
Power
​​​​​​​
ARS-121L-DNR
1U 2-node system with NVIDIA Grace CPU Superchip per node
144-core Grace Arm Neoverse V2 CPU in a single chip per node (total of 288 cores in one system)
Please contact our sales for possible configurations
Up to 480GB of integrated LPDDR5X memory with ECC and up to 1TB/s of bandwidth per node
Up to 4x hot-swap E1.S drives and 2x M.2 NVMe drives per node
2x PCIe 5.0 x16 slots per node supporting NVIDIA BlueField-3 or ConnectX-7 (e.g., 1 GPU and 1 BlueField-3)
NVLink™-C2C with 900GB/s for CPU-CPU interconnect (within node)
Air-cooling
2x 2700W Redundant Titanium Level power supplies
ARS-221GL-NR
2U GPU system with single NVIDIA Grace CPU Superchip
144-core Grace Arm Neoverse V2 CPU in a single chip
Up to 4 double-width GPUs including NVIDIA H100 PCIe, H100 NVL, L40S
Up to 480GB of integrated LPDDR5X memory with ECC and up to 1TB/s of bandwidth per node
Up to 8x hot-swap E1.S drives and 2x M.2 NVMe drives
3x PCIe 5.0 x16 slots supporting NVIDIA BlueField-3 or ConnectX-7 (in addition to 4x PCIe 5.0 x16 slots for GPUs)
NVLink Bridge GPU-GPU interconnect supported (e.g., H100 NVL)
Air-cooling
3x 2000W Redundant Titanium Level power supplies
SYS-221GE-NR
2U GPU system with dual x86 CPUs
​​​​​​​
4th Gen Intel Xeon Scalable Processors (Up to 56-core per socket)
Up to 4 double-width GPUs including NVIDIA H100 PCIe, H100 NVL, L40S
Up to 2TB, 32x DIMM slots, ECC DDR5-4800
​​​​​​​
Up to 8x hot-swap E1.S drives and 2x M.2 NVMe drives
3x PCIe 5.0 x16 slots supporting NVIDIA BlueField-3 or ConnectX-7 (in addition to 4x PCIe 5.0 x16 slots for GPUs)
NVLink™ Bridge GPU-GPU interconnect supported (e.g., H100 NVL)
Air-cooling
3x 2000W Redundant Titanium Level power supplies