Der nächste Meilenstein der KI steht bereit

In enger Zusammenarbeit bieten NVIDIA und Supermicro die leistungsfähigsten und effizientesten NVIDIA-Zertifizierten Systeme an. Die Systeme richten sich speziell an kleine Unternehmen bis hin zu riesigen, vereinheitlichten KI-Trainingsclustern mit den neuen NVIDIA H100 Tensor Core GPUs. Eine 9x höhere Trainingsleistung als die vorherige Generation, wodurch sich die Trainingszeit von einer Woche auf nur 20 Stunden verkürzt. Supermicro Systeme mit den neuen H100 PCI-E und HGX H100 GPUs sowie der neu angekündigten L40 GPU bieten PCI-E Gen5 Konnektivität, NVLink und NVLink Network der vierten Generation für Scale-Out, die neuen CNX Karten, die GPUDirect RDMA und Storage mit NVIDIA Magnum IO und NVIDIA AI Enterprise Software ermöglichen.

Supermicro´s neue für die NVIDIA H100 Tensor Core-Grafikprozessoren optimierte Server sind bereits mit einer Bandbreite vom 8U-Rackmount-System für High-Performance-Computing (HPC) und leistungshungrige Anwendungen bis hin zu einer Power-Workstation im Tower-Format angekündigt. Ausgestattet sind die Server mit Nvidias H100 PCIe– bzw. H100 SXM-GPUs. Zudem werden ausgewählte Systeme der aktuellen Generation mit den Nvidia-H100-GPUs zertifiziert. Dazu gehören unter anderem die GPU-Server SYS-420GP-TNR, sowie die Workstation SYS-740GP-TNRT.


Zum Lieferumfang gehört neu jeweils auch die Cloud-basierte End-to-End-Suite NVIDIA AI Enterprise, die für die KI-Nutzung in Unternehmen optimiert ist. Die Kombination KI- und Datenanalyse-Software mit einem darauf abgestimmten Grafikprozessor soll speziell in der KI-Entwicklung ein Plus an Leistung, Sicherheit und Skalierbarkeit bieten. 

DIe Neuen SUPERMICRO H100 Systeme

Next-Gen 8U Universal GPU System
​​​​​​​(Demnächst erhältlich)

Geeignet für die größten KI-Trainingsmodelle und HPC von heute, mit überragender Wärmekapazität bei reduzierter Akustik, mehr I/O und großem Speicher
  • GPU: NVIDIA HGX H100 8-GPU ( Hopper)
  • GPU Featureset: Mit 80 Milliarden Transistoren ist der H100 der weltweit fortschrittlichste Chip, der je gebaut wurde, und bietet eine bis zu 9-mal schnellere Leistung für KI-Training.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 24 Hot-Swap NVMe U.2

Next-Gen 4U/5U Universal GPU System
​​​​​​​(Demnächst Erhältlich)

Optimiert für AI Inference Workloads und Anwendungsfälle. Modulares Design für ultimative Flexibilität.
  • GPU: NVIDIA HGX H100 4-GPU
  • GPU Featureset : H100 HGX kann die KI-Inferenz um das bis zu 30-fache im Vergleich zur vorherigen Generation beschleunigen.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: Bis zu 8 Hot-Swap NVMe U.2 verbunden zu PCI-E Switch oder 10 Hot-Swap 2.5” SATA/SAS

Next-Gen 4U 10GPU PCI-E Gen 5 System
​​​​​​​(Demnächst erhältlich)

Flexibles Design für KI und grafikintensive Workloads, unterstützt bis zu 10 NVIDIA GPUs.
  • GPU: Bis zu 10 double-width PCI-E GPUs pro Node
  • GPU Featureset: Die NVIDIA L40 PCI-E-GPUs in diesem System sind ideal für Medien- und Grafik-Workloads geeignet.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 24 Hot-Swap Bays

Next-Gen 4U 4GPU System
​​​​​​​(Demnächst Erhältlich)

Optimiert für 3D-Metaverse-Zusammenarbeit, Datenwissenschaftler und Content-Ersteller. Verfügbar in den Formfaktoren Rackmount und Workstation
  • GPU: NVIDIA PCI-E H100 4-GPU
  • GPU Featureset: NVIDIA H100 Grafikprozessoren sind die weltweit ersten Beschleuniger mit vertraulichen Berechnungsfunktionen, die das Vertrauen in eine sichere Zusammenarbeit stärken.
  • CPU: Dual Processors
  • Memory: ECC DDR5 bis zu 4800MT/s
  • Drives: 8 Hot-Swap 3.5” drive bays, bis zu 8 NVMe drives, 2x M.2 (SATA or NVMe)