COMPUTEX 2025
Supermicro revolutioniert KI-Rechenzentren

Supermicro revolutioniert KI-Rechenzentren
Die COMPUTEX 2025 stand ganz im Zeichen der nächsten Generation von KI-Infrastruktur – und Supermicro hat mit spektakulären Ankündigungen die Richtung vorgegeben. Gemeinsam mit NVIDIA-CEO Jensen Huang präsentierte Supermicro-CEO Charles Liang bahnbrechende Lösungen, die KI-Rechenzentren schneller, effizienter und skalierbarer machen als je zuvor.
Einer der größten Engpässe im KI-Zeitalter ist die Kühlung leistungsstarker GPU-Cluster. Supermicros Direct Liquid Cooling (DLC) 2.0 setzt hier neue Maßstäbe:
- 40% weniger Strom- und Wasserverbrauch im Vergleich zu herkömmlichen Systemen.
- Keine Kühlkompressoren nötig – arbeitet mit natürlichem Kühlwasser bis 45°C.
- Extrem leise (50 dB) – so leise wie ein Wohnzimmer.
- 20% geringere Gesamtkosten (TCO) dank reduzierter Infrastrukturausgaben.
- Neues Kühlmittel "PG DLC2": 1.000-fach höhere elektrische Isolierung bei besserer Wärmeübertragung.
Warum das wichtig ist:
KI-Modelle wie NVIDIAs Blackwell B200/B300 benötigen immer mehr Rechenleistung – und damit auch effizientere Kühlung. DLC 2.0 ermöglicht es, mehr GPUs auf engstem Raum zu betreiben, ohne Energie zu verschwenden.
Supermicro geht noch einen Schritt weiter und stellt ein vollständiges Baukastensystem für KI-Rechenzentren vor. Die DCBBS-Lösung umfasst:
- Server & Racks: Vollständig optimiert für NVIDIA Blackwell (B200/B300) und Grace-Hopper-CPUs.
- Storage: KI-optimierte Flash-Speicher mit direkter GPU-Anbindung.
- Netzwerk: Hochgeschwindigkeits-Switches (400G) und NVIDIA-CX8-Adapter für nahtlose Kommunikation.
- Kühlung: Integrierte DLC 2.0-Systeme.
- Energieversorgung: Skalierbare Stromverteilung und Backup-Lösungen.
Vorteile:
- Schnellere Bereitstellung: Von der Planung bis zur Inbetriebnahme in wenigen Monaten (statt Jahren).
- Plug-and-Play: Vorkonfigurierte Komponenten reduzieren Integrationsaufwand.
- Skalierbar: Supermicro kann 5.000 Racks pro Monat produzieren – ideal für hyperskalierte KI-Fabriken.
Jensen Huang betonte in der Keynote, dass KI-Rechenzentren zu "AI Factories" werden – Orte, die nicht nur Daten speichern, sondern intelligente Dienste generieren. Supermicro ist hier ein zentraler Partner:
- Erstlieferant für NVIDIA Blackwell-Systeme:
- B200 HGX (bereits seit März 2025 verfügbar).
- B300 HGX (in Kürze erhältlich).
- Optimiert für "Agentic AI": Die nächste KI-Generation benötigt massiv Rechenleistung – Supermicros Lösungen bieten die nötige Skalierbarkeit.
- CX8-Netzwerkchips: Beschleunigen Datenübertragung zwischen GPUs und Storage.
Supermicro setzt weiter auf nachhaltige Rechenzentren:
- DLC 2.0 spart bis zu 40% Energie.
- Weniger Wasserverbrauch durch optimierte Kühlkreisläufe.
- Geringere CO₂-Emissionen bei höherer Leistung.
Mit DLC 2.0 und DCBBS stellt Supermicro die Weichen für die nächste Welle der KI-Entwicklung. Die enge Zusammenarbeit mit NVIDIA sorgt dafür, dass Unternehmen schneller und kosteneffizienter skalieren können – ob im eigenen Rechenzentrum oder in der Cloud.
➡️ Interessiert an den neuen Lösungen?
Mehr Infos: supermicro.com/dcbbs