Der nächste Meilenstein der KI steht bereit

In enger Zusammenarbeit bieten NVIDIA und Supermicro die leistungsfähigsten und effizientesten NVIDIA-Zertifizierten Systeme an. Diese Systeme sind für kleine Unternehmen bis hin zu großen KI-Trainingsclustern ausgelegt und nutzen die neuen NVIDIA H100 Tensor Core GPUs. Mit einer 9-fach höheren Trainingsleistung als die vorherige Generation können die Trainingszeiten von einer Woche auf nur 20 Stunden verkürzt werden. Supermicro-Systeme mit den neuen H100 PCI-E und HGX H100 GPUs sowie der neu angekündigten L40 GPU bieten PCI-E Gen5-Konnektivität, NVLink und NVLink Network der vierten Generation für Scale-Out, CNX-Karten, GPUDirect RDMA und Storage mit NVIDIA Magnum IO und NVIDIA AI Enterprise Software.

Supermicro hat neue Server speziell für die NVIDIA H100 Tensor Core-Grafikprozessoren entwickelt. Diese reichen von einem 8U-Rackmount-System für High-Performance-Computing (HPC) und leistungshungrige Anwendungen bis hin zu einer Power-Workstation im Tower-Format. Diese Server sind mit Nvidias H100 PCIe- bzw. H100 SXM-GPUs ausgestattet und ausgewählte Systeme der aktuellen Generation sind mit den Nvidia-H100-GPUs zertifiziert, darunter der GPU-Server SYS-420GP-TNR und die Workstation SYS-740GP-TNRT.

Produktions-KI mit NVIDIA H100 und NVIDIA AI Enterprise

Entwicklung und Bereitstellung von KI für Unternehmen mit unübertroffener Leistung, Sicherheit und Skalierbarkeit

Die Cloud-basierte End-to-End-Suite NVIDIA AI Enterprise ist nun Teil des Lieferumfangs und speziell für die KI-Nutzung in Unternehmen optimiert. Die Kombination von KI- und Datenanalyse-Software mit einem darauf abgestimmten Grafikprozessor soll in der KI-Entwicklung eine höhere Leistung, Sicherheit und Skalierbarkeit bieten. Das H100-Paket für Mainstream-Server enthält ein Fünf-Jahres-Abonnement mit Unternehmenssupport für die NVIDIA AI Enterprise-Softwaresuite, was die Einführung von KI mit höchster Leistung vereinfacht und Unternehmen Zugriff auf die benötigten KI-Frameworks und -Tools gibt, um H100-beschleunigte KI-Workflows wie KI-Chatbots, Empfehlungs-Engines und Vision-KI zu erstellen.

DIe Neuen SUPERMICRO H100 Systeme

Next-Gen 8U Universal GPU System

Geeignet für die größten KI-Trainingsmodelle und HPC von heute, mit überragender Wärmekapazität bei reduzierter Akustik, mehr I/O und großem Speicher
  • GPU: NVIDIA HGX H100 8-GPU (Hopper)
  • GPU Featureset: Mit 80 Milliarden Transistoren ist der H100 der weltweit fortschrittlichste Chip, der je gebaut wurde, und bietet eine bis zu 9-mal schnellere Leistung für KI-Training.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 24 Hot-Swap NVMe U.2

Next-Gen 4U/5U Universal GPU System

Optimiert für AI Inference Workloads und Anwendungsfälle. Modulares Design für ultimative Flexibilität.
  • GPU: NVIDIA HGX H100 4-GPU
  • GPU Featureset : H100 HGX kann die KI-Inferenz um das bis zu 30-fache im Vergleich zur vorherigen Generation beschleunigen.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 8 Hot-Swap NVMe U.2 verbunden zu PCI-E Switch oder 10 Hot-Swap 2.5” SATA/SAS

NEXT-GEN 4U 10GPU PCI-E GEN 5 SYSTEM

Flexibles Design für KI und grafikintensive Workloads, unterstützt bis zu 10 NVIDIA GPUs.
  • GPU: Bis zu 10 double-width PCI-E GPUs pro Node
  • GPU Featureset: Die NVIDIA L40 PCI-E-GPUs in diesem System sind ideal für Medien- und Grafik-Workloads geeignet.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 24 Hot-Swap Bays

NEXT-GEN 4U 4GPU SYSTEM

Optimiert für 3D-Metaverse-Zusammenarbeit, Datenwissenschaftler und Content-Ersteller. Verfügbar in den Formfaktoren Rackmount und Workstation
  • GPU: NVIDIA PCI-E H100 4-GPU
  • GPU Featureset: NVIDIA H100 Grafikprozessoren sind die weltweit ersten Beschleuniger mit vertraulichen Berechnungsfunktionen, die das Vertrauen in eine sichere Zusammenarbeit stärken.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 8 Hot-Swap 3.5” drive bays, bis zu 8 NVMe drives, 2x M.2 (SATA or NVMe)

Next-Gen 8U Universal GPU System
​​​​​​​(Demnächst erhältlich)

Geeignet für die größten KI-Trainingsmodelle und HPC von heute, mit überragender Wärmekapazität bei reduzierter Akustik, mehr I/O und großem Speicher
  • GPU: NVIDIA HGX H100 8-GPU ( Hopper)
  • GPU Featureset: Mit 80 Milliarden Transistoren ist der H100 der weltweit fortschrittlichste Chip, der je gebaut wurde, und bietet eine bis zu 9-mal schnellere Leistung für KI-Training.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 24 Hot-Swap NVMe U.2

Next-Gen 4U/5U Universal GPU System
​​​​​​​(Demnächst Erhältlich)

Optimiert für AI Inference Workloads und Anwendungsfälle. Modulares Design für ultimative Flexibilität.
  • GPU: NVIDIA HGX H100 4-GPU
  • GPU Featureset : H100 HGX kann die KI-Inferenz um das bis zu 30-fache im Vergleich zur vorherigen Generation beschleunigen.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 8 Hot-Swap NVMe U.2 verbunden zu PCI-E Switch oder 10 Hot-Swap 2.5” SATA/SAS

 
Next-Gen 4U 10GPU PCI-E Gen 5 System
​​​​​​​(Demnächst erhältlich)
 

Flexibles Design für KI und grafikintensive Workloads, unterstützt bis zu 10 NVIDIA GPUs.
  • GPU: Bis zu 10 double-width PCI-E GPUs pro Node
  • GPU Featureset: Die NVIDIA L40 PCI-E-GPUs in diesem System sind ideal für Medien- und Grafik-Workloads geeignet.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 24 Hot-Swap Bays

 
Next-Gen 4U 4GPU System
​​​​​​​(Demnächst Erhältlich)
 

Optimiert für 3D-Metaverse-Zusammenarbeit, Datenwissenschaftler und Content-Ersteller. Verfügbar in den Formfaktoren Rackmount und Workstation
  • GPU: NVIDIA PCI-E H100 4-GPU
  • GPU Featureset: NVIDIA H100 Grafikprozessoren sind die weltweit ersten Beschleuniger mit vertraulichen Berechnungsfunktionen, die das Vertrauen in eine sichere Zusammenarbeit stärken.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 8 Hot-Swap 3.5” drive bays, bis zu 8 NVMe drives, 2x M.2 (SATA or NVMe)