DEN MASSSTAB FÜR KI-INFRASTRUKTUR SETZEN

Unternehmen, die eine KI-Transformation durchlaufen, benötigen eine Plattform für die KI-Infrastruktur, die die traditionellen Ansätze verbessert, die in der Vergangenheit langsame Compute-Architekturen beinhalteten und die durch Analyse-, Trainings- und Inferenz-Workloads getrennt waren. Der vorausgegangene Ansatz führte zu einer Steigerung der Komplexität, trieb die Kosten in die Höhe und schränkte die Skalierbarkeit ein.

​​​​​​​
Die DGX H100 ist ein KI-Kraftpaket, das mit dem bahnbrechenden NVIDIA H100 Tensor Core Grafikprozessor ausgestattet ist. 
​​​​​​​Es revolutioniert das Unternehmensrechenzentrum mit einer Infrastruktur, die KI- und Data-Science-Workloads vereinheitlicht.

DAS PORTFOLIO WELTWEIT FÜHRENDER, ZWECKGEFERTIGTER KI-SYSTEME

DGX A100

NVIDIA DGX Servers

KI-Training, -Inferenz und -Analysen.
Eine Reihe von Serverlösungen, die Ihnen dabei helfen, die komplexesten KI-Herausforderungen zu bewältigen.
DGX POD

NVIDIA DGX POD™

Skalierte KI-Infrastrukturlösung.
Infrastrukturentwürfe nach Industriestandard für KI-Unternehmen.
DGX SuperPOD

NVIDIA DGX SUPERPOD™

Skalierte KI-Infrastrukturlösung.
Branchenführende Full-Cycle-Infrastruktur - der schnellste Weg zu KI-Innovationen im großen Maßstab.

VORTEILE

Optimirte Zusatzsoftware Image

Dank optimierter KI-Software, einschließlich eines KI-optimierten Basisbetriebssystems, können Sie die Bereitstellung vereinfachen und innerhalb von Stunden statt Monaten produktiver arbeiten.

MEHR ERFAHREN
Ki Bereich Image

DGX ist der Kernbaustein einer Reihe von Supercomputern der TOP500 und wurde von vielen führenden Unternehmen übernommen.

MEHR INFOS
Ki Cluster Image

Die Architektur hat sich für die Skalierbarkeit mit mehreren Knoten bewährt und wurde mit Branchenführern in den Bereichen Speicherung, Berechnung und Vernetzung entwickelt.

MEHR INFOS
Ki Expericence Image

NVIDIA DGXperts ist ein globales Team mit über 14.000  AI-fluent professionals KI-Profis, die sich im Laufe der letzten zehn Jahre eine Fülle an Erfahrung angeeignet haben, um Ihnen dabei zu helfen, den Wert Ihrer DGX-Investition zu maximieren.

MEHR INFOS

Spielverändernde Leistung: NVIDIA A100 Tensor Core GPU

Spielverändernde Leistung auf Basis des NVIDIA A100 Grafikprozessors, der das weltweit erste KI-System mit
5 PFLOPS liefert, das mühelos Analyse-, Trainings- und Inferenz-Workloads gleichzeitig ausführen kann.
Der NVIDIA DGX A100 verfügt über acht NVIDIA A100 Tensor Core GPUs, die Anwendern eine unübertroffene Beschleunigung bieten, und ist vollständig für NVIDIA CUDA-X™ Software und den End-to-End NVIDIA Data Center Solution Stack optimiert.

Die NVIDIA A100 Grafikprozessoren bieten eine neue Präzision, TF32, die wie FP32 funktioniert und im Vergleich zur Vorgängergeneration eine 20-fach höhere FLOPS-Leistung für KI bietet - und das Beste daran ist, dass keine Code-Änderungen erforderlich sind, um diesen Geschwindigkeitszuwachs zu erzielen. Und bei Verwendung von NVIDIAs automatischer Mixed-Precision bietet der A100 einen zusätzlichen 2-fachen Leistungsschub mit nur einer zusätzlichen Code-Zeile bei FP16-Präzision. Der A100-Grafikprozessor verfügt außerdem über eine klassenführende Speicherbandbreite von 1,6 Terabyte pro Sekunde (TB/s), eine Steigerung von mehr als 70 % gegenüber der letzten Generation. Darüber hinaus verfügt die A100 GPU über deutlich mehr On-Chip-Speicher, darunter einen 40 MB großen Level-2-Cache, der fast 7-mal größer ist als bei der Vorgängergeneration und die Rechenleistung maximiert. Der DGX A100 führt außerdem die nächste Generation von NVIDIA NVLink™ ein, die die direkte Bandbreite von GPU zu GPU auf 600 Gigabyte pro Sekunde (GB/s) verdoppelt, was fast 10x höher ist als PCIe Gen 4, sowie einen neuen NVIDIA NVSwitch, der 2X schneller ist als die letzte Generation.
​​​​​​​
Diese beispiellose Leistung liefert die schnellste Time-to-Solution für Trainings-, Inferenz- und Analyse-Workloads und ermöglicht es Anwendern, Herausforderungen zu meistern, die vorher nicht möglich oder praktikabel waren.
Vergleichsimage

Unerreichte Flexibilität: Neue Multi Instance GPU (MIG) Innovation

Unerreichte Flexibilität mit der Multi-Instance GPU (MIG)-Innovation, die eine 7-fache Inferenzleistung pro GPU ermöglicht und die Möglichkeit bietet, Ressourcen zuzuweisen, die für bestimmte Workloads richtig dimensioniert sind.
MIG partitioniert eine einzelne NVIDIA A100 GPU in bis zu sieben unabhängige GPU-Instanzen. Diese laufen gleichzeitig, jede mit ihrem eigenen Speicher, Cache und Streaming-Multiprozessoren. Dadurch kann der A100-Grafikprozessor garantierte Quality-of-Service (QoS) bei bis zu 7-fach höherer Auslastung im Vergleich zu früheren Grafikprozessoren bieten.
Nvidia Flexibility Image
MIG partitioniert eine einzelne NVIDIA A100 GPU in bis zu sieben unabhängige GPU-Instanzen. Diese laufen gleichzeitig, jede mit ihrem eigenen Speicher, Cache und Streaming-Multiprozessoren. Dadurch kann der A100-Grafikprozessor garantierte Quality-of-Service (QoS) bei bis zu 7-fach höherer Auslastung im Vergleich zu früheren Grafikprozessoren bieten.
MIG Compartmentalizes Image
Mit dem DGX A100 können Sie bis zu 56 MIG-Slices nutzen, um Probleme mit unflexiblen Infrastrukturen zu lösen und die Zuweisung von Rechenleistung für die einzelnen Workloads genau zu bestimmen. Sie müssen nicht mehr darum kämpfen, die Zeit auf einer Box auf mehrere konkurrierende Projekte aufzuteilen. Mit MIG auf DGX A100 haben Sie genug Rechenleistung, um Ihr gesamtes Data-Science-Team zu unterstützen.
Bert-Large Inference Image

Niedrige Gesamtbetriebskosten: Universelle KI-Plattform

Unvergleichliche TCO/ROI-Kennzahlen mit der gesamten Leistung eines modernen KI-Rechenzentrums zu 1/10 der Kosten, 1/25 des Platzes und 1/20 der Leistung. ​​​​​​​
KI Rechenzentrum Image
Heutiges KI Rechenzentrum
  • 25 Rack für Training & Inferenz
  • 630 kW
  • $11M
DGX A100 Rechenzentrum Image
DGX A100 Rechenzentrum
  • 1 Rack (5 x DGX A100s)
  • 28 kW
  • $1M
Traditionelle KI-Infrastrukturen bestehen in der Regel aus drei separaten spezialisierten Clustern: Training (GPU-basiert), Inferenz (oft CPU-basiert) und Analyse (CPU-basiert). Diese unflexiblen Infrastruktursilos waren nie für das Tempo von KI gedacht. Die meisten Rechenzentren, die sich mit KI-Workloads befassen, werden wahrscheinlich feststellen, dass diese Ressourcen zu einem bestimmten Zeitpunkt entweder über- oder unterausgelastet sind. Das DGX A100-Rechenzentrum mit MIG bietet Ihnen ein einziges System, das sich flexibel an Ihre Workload-Anforderungen anpassen lässt.
Traditional Infrastructure Image
DGX A100 Infrastructure Image
In vielen Rechenzentren steigt und fällt der Bedarf an Rechenressourcen, was zu Servern führt, die meist nicht ausgelastet sind. Am Ende muss die IT-Abteilung überschüssige Kapazitäten kaufen, um sich vor gelegentlichen Spitzen zu schützen. Mit dem DGX A100 können Sie jetzt die Ressourcen für jeden Job richtig dimensionieren und die Auslastung steigern, was die TCO senkt.

Mit DGX A100-Rechenzentren können Sie sich leicht an sich ändernde Geschäftsanforderungen anpassen, indem Sie eine einzige elastische Infrastruktur bereitstellen, die viel effizienter ist.
DGX A100 Comparision Image

Warum nvidia dgx ?

Fast jedes Unternehmen erkennt die Bedeutung von KI für eine echte Business-Transformation. In einer aktuellen Studie befürchten 84 % der befragten Führungskräfte, dass sie ihre Wachstumsziele nicht erreichen werden, wenn sie KI nicht skalieren.  Allerdings gaben auch fast 76 % an, dass sie Probleme mit der Skalierung von KI in ihrem Unternehmen haben. Viele Unternehmen werden durch die Komplexität und die Kosten für die Bereitstellung der richtigen Infrastruktur behindert. Die meisten Unternehmen besteht eine der größten KI-Herausforderungen darin, Experten für die KI-Infrastruktur zu finden und IT-erprobte Plattformen zu implementieren, die eine vorhersehbare und skalierbare Leistung liefern. Immer mehr Unternehmen entscheiden sich daher für die hochoptimierten DGX-Systeme von NVIDIA, um ihre Infrastrukturen zu betreiben und ihre On-Prem-KI-Initiativen zu ermöglichen.
Nvidia Ai Know-How Image
Zugang zu NVIDIA AI Know-How
NVIDIA DGX Systeme werden mit direktem Zugang zu NVIDIA KI-Experten geliefert, die auf unserer hauseigenen Infrastruktur, NVIDIA SATURNV, geschult werden. Sie verfügen über die umfangreichste Erfolgsbilanz bei praxiserprobten Implementierungen, sodass Kunden die schnellste Zeit bis zur Lösung erhalten.
vollständing Optimiert Image
Vollständig optimiert, praxiserprobt
NVIDIA DGX Systeme sind KI-Supercomputer mit einer Full-Stack-Lösung, die Innovationen und Optimierungen über Hardware und Software hinweg integriert. Tausende von Kunden haben bis heute DGX-Systeme eingesetzt, darunter neun der Top-10-Regierungsinstitutionen und acht der Top-10-Universitäten in den USA.
KI image
Unterstützt durch das größte Testgelände für KI
NVIDIA DGX SATURNV ist die massive KI-Infrastruktur, in der die wichtigste Arbeit von NVIDIA geleistet wird. Mit Tausenden von DGX-KI-Systemen findet NVIDIA ständig Möglichkeiten für Verbesserungen und Erweiterungen, die anschließend an DGX-Kunden ausgerollt werden.
Vertrauenswürdige Infrastruktur-Lösungen Image
Vertrauenswürdige Infrastruktur-Lösungen
Nur NVIDIA DGX bietet das umfangreichste Portfolio an Infrastrukturlösungen, die auf den vertrauenswürdigsten Namen in den Bereichen Rechenzentrumsspeicher und Netzwerk aufbauen, so dass Kunden mit dem Wachstum ihres Unternehmens skalieren können.
Einsatz von KI Image
Der einfachste und schnellste Weg zum Einsatz von KI
NVIDIA und seine Partner bieten eine vollständige Palette von Optionen an, von DGX-as-a-Service über DGX-Colocation-Lösungen bis hin zu vollwertigen DGX-PODs, die vor Ort eingesetzt werden, damit Unternehmen KI einfacher, schneller und kostengünstiger einsetzen können.