COMPUTEX 2025
Supermicro revolutioniert KI-Rechenzentren

Supermicro revolutioniert KI-Rechenzentren
NVIDIA's latest innovation: NVIDIA Isaac GR00T (Generalist Robot 00 Technology).
This revolutionary development framework enables the creation of foundation models for humanoid robots and accelerates research and development in the robotics industry.
WHAT IS ISAAC GR00T?
GR00T is a platform for generalized robotics based on artificial intelligence. It includes:
- Foundation models for cognition and control
- Simulation frameworks (NVIDIA Omniverse & Cosmos)
- Data pipelines for synthetic training environments
- Jetson AGX Thor as a powerful edge computing solution
GR00T enables robots to learn complex tasks such as grasping, manipulation and adaptive movements in dynamic environments - a decisive step towards autonomous, adaptive robots.
Einer der größten Engpässe im KI-Zeitalter ist die Kühlung leistungsstarker GPU-Cluster. Supermicros Direct Liquid Cooling (DLC) 2.0 setzt hier neue Maßstäbe:
- 40% weniger Strom- und Wasserverbrauch im Vergleich zu herkömmlichen Systemen.
- Keine Kühlkompressoren nötig - arbeitet mit natürlichem Kühlwasser bis 45°C.
- Extrem leise (50 dB) - so leise wie ein Wohnzimmer.
- 20% geringere Gesamtkosten (TCO) dank reduzierter Infrastrukturausgaben.
- Neues Kühlmittel "PG DLC2": 1.000-fach höhere elektrische Isolierung bei besserer Wärmeübertragung.
Warum das wichtig ist:
KI-Modelle wie NVIDIAs Blackwell B200/B300 benötigen immer mehr Rechenleistung - und damit auch effizientere Kühlung. DLC 2.0 ermöglicht es, mehr GPUs auf engstem Raum zu betreiben, ohne Energie zu verschwenden.
Supermicro geht noch einen Schritt weiter und stellt ein vollständiges Baukastensystem für KI-Rechenzentren vor. Die DCBBS-Lösung umfasst:
- Server & Racks: Vollständig optimiert für NVIDIA Blackwell (B200/B300) und Grace-Hopper-CPUs.
- Storage: KI-optimierte Flash-Speicher mit direkter GPU-Anbindung.
- Netzwerk: Hochgeschwindigkeits-Switches (400G) und NVIDIA-CX8-Adapter für nahtlose Kommunikation.
- Kühlung: Integrierte DLC 2.0-Systeme.
- Energieversorgung: Skalierbare Stromverteilung und Backup-Lösungen.
Vorteile:
- Schnellere Bereitstellung: Von der Planung bis zur Inbetriebnahme in wenigen Monaten (statt Jahren).
- Plug-and-Play: Vorkonfigurierte Komponenten reduzieren Integrationsaufwand.
- Skalierbar: Supermicro kann 5.000 Racks pro Monat produzieren - ideal für hyperskalierte KI-Fabriken.
Jensen Huang betonte in der Keynote, dass KI-Rechenzentren zu "AI Factories" werden - Orte, die nicht nur Daten speichern, sondern intelligente Dienste generieren. Supermicro ist hier ein zentraler Partner:
- Erstlieferant für NVIDIA Blackwell-Systeme:
- B200 HGX (bereits seit März 2025 verfügbar).
- B300 HGX (in Kürze erhältlich).
- Optimiert für "Agentic AI": Die nächste KI-Generation benötigt massiv Rechenleistung - Supermicros Lösungen bieten die nötige Skalierbarkeit.
- CX8-Netzwerkchips: Beschleunigen Datenübertragung zwischen GPUs und Storage.
Supermicro setzt weiter auf nachhaltige Rechenzentren:
- DLC 2.0 spart bis zu 40% Energie.
- Weniger Wasserverbrauch durch optimierte Kühlkreisläufe.
- Geringere CO₂-Emissionen bei höherer Leistung.
Mit DLC 2.0 und DCBBS stellt Supermicro die Weichen für die nächste Welle der KI-Entwicklung. Die enge Zusammenarbeit mit NVIDIA sorgt dafür, dass Unternehmen schneller und kosteneffizienter skalieren können - ob im eigenen Rechenzentrum oder in der Cloud.
➡️ Interessiert an den neuen Lösungen?
Mehr Infos: supermicro.com/dcbbs