NVIDIA DGX™ A100

Erstes KI-System auf neuer NVIDIA A100 GPU aufgebaut
  • 8x NVIDIA A100 Tensor Core GPUs, which deliver unmatched acceleration
  • Tensor Float 32 (TF32) for 20x higher FLOPS
  • 8x NVIDIA A100 80 GB GPUs
  • Available with up to 640 gigabytes (GB) of total GPU memory
  • 8x SinglePort Mellanox ConnectX-6 VPI 200Gb/s HDR InfiniBand
Anfrage

DIE HERAUSFORDERUNG DER SKALIERUNG VON ENTERPRISE AI

Jedes Unternehmen muss sich mithilfe von künstlicher Intelligenz (KI) transformieren, nicht nur um zu überleben, sondern um in schwierigen Zeiten zu gedeihen. Das Unternehmen benötigt jedoch eine Plattform für die KI-Infrastruktur, die die traditionellen Ansätze verbessert, die in der Vergangenheit langsame Rechenarchitekturen beinhalteten, die durch Analyse-, Trainings- und Inferenz-Workloads getrennt waren. Der alte Ansatz führte zu Komplexität, trieb die Kosten in die Höhe, schränkte die Skalierbarkeit ein und war nicht bereit für moderne KI. Unternehmen, Entwickler, Datenwissenschaftler und Forscher brauchen eine neue Plattform, die alle KI-Workloads vereinheitlicht, die Infrastruktur vereinfacht und den ROI beschleunigt.

DAS UNIVERSELLE SYSTEM FÜR ALLE KI-WORKLOADS

NVIDIA DGX™ A100 ist das universelle System für alle KI-Workloads - von Analysen über Training bis hin zu Inferenzen. Der DGX A100 setzt neue Maßstäbe für die Rechendichte: Er packt 5 petaFLOPS KI-Leistung in einen 6U-Formfaktor und ersetzt die bisherige Recheninfrastruktur durch ein einziges, einheitliches System. Der DGX A100 bietet außerdem die beispiellose Fähigkeit, Rechenleistung feinkörnig zuzuweisen, indem die Multi-Instance-GPU (MIG)-Funktion der NVIDIA A100 Tensor Core GPU genutzt wird, die es Administratoren ermöglicht, Ressourcen zuzuweisen, die für bestimmte Workloads richtig dimensioniert sind.
Der DGX A100 ist mit bis zu 640 Gigabyte (GB) GPU-Gesamtspeicher erhältlich, was die Leistung bei umfangreichen Trainingsjobs bis zum Dreifachen steigert und die Größe von MIG-Instanzen verdoppelt. So kann der DGX A100 sowohl die größten und komplexesten als auch die einfachsten und kleinsten Jobs bewältigen. Der DGX A100 läuft mit dem DGX Software-Stack und optimierter Software von NGC. Die Kombination aus dichter Rechenleistung und vollständiger Workload-Flexibilität macht den DGX A100 zu einer idealen Wahl sowohl für Einzelknoten-Implementierungen als auch für groß angelegte Slurm- und Kubernetes-Cluster, die mit NVIDIA DeepOps bereitgestellt werden.

IT DEPLOYMENT SERVICES VERFÜGBAR

Möchten Sie die Zeit bis zu Erkenntnissen verkürzen und den ROI von KI beschleunigen? Lassen Sie unser professionelles IT-Team das weltweit erste 5 petaFLOPS KI-System, NVIDIA® DGX™ A100, nahtlos und ohne Unterbrechung mit 24/7-Support in Ihre Infrastruktur beschleunigen, bereitstellen und integrieren.
Erhalten Sie die Ergebnisse und Resultate, die Sie benötigen:
  • Standortanalyse, Bereitschaft, Vortest und Inszenierung
  • Zugriff auf engagierte Ingenieure, Lösungsarchitekten und Support-Techniker
  • Einsatzplanung, Terminplanung und Projektmanagement
  • Versand, Logistikmanagement und Bestandsbereitstellung
  • Vor-Ort-Installation, Vor-Ort- oder Fernkonfiguration der Software
  • Nach dem Einsatz Check-up, Support, Ticketing und Wartung
  • Lebenszyklusmanagement einschließlich Design, Upgrades, Wiederherstellung, Reparatur und Entsorgung
  • Rack- und Stack- sowie Integrationsservices und Bereitstellung an mehreren Standorten
  • Maßgeschneiderte Break-Fix- und Managed-Service-Verträge

NVIDIA A100 Tensor Core GPU

  • 8X NVIDIA A100 GPUS WITH UP TO 640 GB TOTAL GPU MEMORY
    12 NVLinks/GPU, 600 GB/s GPU-to-GPU Bi-directonal Bandwidth
  • 6X NVIDIA NVSWITCHES
    4.8 TB/s Bi-directional Bandwidth, 2X More than Previous Generation NVSwitch
  • 10X MELLANOX CONNECTX-6 200 Gb/s NETWORK INTERFACE
    500 GB/s Peak Bi-directional Bandwidth
  • DUAL 64-CORE AMD CPUs AND 2 TB SYSTEM MEMORY
    3.2X More Cores to Power the Most Intensive AI Jobs
  • 30 TB GEN4 NVME SSD
    50 GB/s Peak Bandwidth, 2X Faster than Gen3 NVME SSDs

Technology Inside NVIDIA DGX A100

​​​​​​Multi-Instanz-GPU (MIG)
Die acht A100-GPUs im DGX A100 können in bis zu 56 GPU-Instanzen konfiguriert werden, die jeweils vollständig isoliert mit eigenem Speicher, Cache und Rechenkernen mit hoher Bandbreite ausgestattet sind.
​​​​​​NVLink & NVSwitch
Die dritte Generation von NVIDIA® NVLink™ verdoppelt die direkte GPU-zu-GPU-Bandbreite auf 600 GB/s, was fast 10-mal höher ist als bei PCIe Gen4 und NVIDIA NVSwitch™ der nächsten Generation, der 2-mal schneller ist als die vorherige Generation.
​​​​​​Infiniband
Die neuen Mellanox ConnectX-6 VPI HDR InfiniBand/Ethernet-Adapter laufen mit 200 Gigabit pro Sekunde (Gb/s), um eine Hochgeschwindigkeits-Fabric für große KI-Workloads zu schaffen.
​​​​​​Optimierter Software-Stack
Integrierter DGX-Software-Stack, einschließlich eines auf KI abgestimmten Basisbetriebssystems, aller erforderlichen Systemsoftware und GPU-beschleunigten Anwendungen, vortrainierten Modellen und mehr.
Integrierte Sicherheit
Die robusteste Sicherheit für KI-Implementierungen mit einem mehrschichtigen Ansatz, der sich über den Baseboard Management Controller (BMC), das CPU-Board, das GPU-Board, selbstverschlüsselte Laufwerke und den sicheren Bootvorgang erstreckt.

WESENTLICHER BAUSTEIN DES KI RECHENZENTRUMS

Das universelle System für jede KI-Arbeitslast

Ein universeller Baustein, um jeden Workload jederzeit ausführen zu können -
​​​​​​​von Analysen über KI-Training bis hin zu Inferenzen.

Integrierter Zugang zu KI-Expertise

Beschleunigen Sie die KI-Transformation mit NVIDIA DGXperts,
​​​​​​​um den Wert Ihrer DGX-Investition zu maximieren.

Spielverändernde Leistung für Innovatoren

Bietet beispiellose Beschleunigung mit acht A100-GPUs und ist vollständig für NVIDIA CUDA-X™-Software und den End-to-End-NVIDIA-Lösungsstapel für Rechenzentren optimiert.

Unerreichte Skalierbarkeit des Rechenzentrums

Bauen Sie eine KI-Infrastruktur der Spitzenklasse auf, die skalierbar ist, um mit der Nachfrage Schritt zu halten.

GPUs

NVIDIA DGX A100 640GB

  • 8x NVIDIA A100 80 GB GPUs
GPU Memory

640 total

CPU
Dual AMD Rome 7742, 128 cores total, 2.25 GHz (base), 3.4 GHz (max boost)
NVIDIA NVSwitches
6
System Power Usage
6.5kW max
System Memory

2 TB

Networking

8x Single-Port Mellanox ConnectX-6 VPI
200Gb/s HDR InfiniBand
2x Dual-Port Mellanox ConnectX-6 VPI
10/25/50/100/200 Gb/s Ethernet

Storage

OS: 2x 1.92 TB M.2 NVME drives
Internal Storage: 30 TB (8x 3.84 TB) U.2 NVMe drives

Software

Ubuntu Linux OS
Also supports: Red Hat Enterprise Linux CentOS

System Weight

271.5 lbs (123.16 kgs) max

System Dimensions
  • Height: 10.4 in (264.0 mm)
  • Width: 19.0 in (482.3 mm) max
  • Length: 35.3 in (897.1 mm) max
Packing System Weight
​​​​​​​359.7 lbs (163.16 kgs) max