Entwickelt für die Leistung und Effizienz, die für moderne KI-Rechenzentren erforderlich sind

NVIDIA Grace™ wurde für eine neue Art von Rechenzentren entwickelt - Rechenzentren, die Datenberge verarbeiten, um Intelligenz zu erzeugen. Diese Rechenzentren führen eine Vielzahl von Workloads aus, von KI-Training über High-Performance Computing (HPC) bis hin zu Datenanalysen, digitalen Zwillingen und Hyperscale-Cloud-Anwendungen. NVIDIA Grace bietet die 2-fache Leistung pro Watt, die 2-fache Packaging-Dichte und die höchste Speicherbandbreite im Vergleich zu modernen DIMM-basierten Servern, um die anspruchsvollsten Anforderungen des Rechenzentrums zu erfüllen.

Werfen Sie einen genaueren Blick auf die NVIDIA Grace-Series

NVIDIA Grace Superchip-CPU

Die NVIDIA Grace Superchip-CPU nutzt die NVLink-C2C-Technologie, um 144 Arm® Neoverse V2-Recheneinheiten und eine Speicherbandbreite von 1 TB/s bereitzustellen.


Mehr erfahren
Grace Superchip CPU
Grace Superchip CPU

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip kombiniert die Grace- und Hopper-Architekturen mithilfe von NVIDIA® NVLink®-C2C, um ein kohärentes CPU- und GPU-Speichermodell für beschleunigte KI- und High-Performance Computing(HPC)-Anwendungen bereitzustellen.


Mehr erfahren

Entdecken Sie Grace-Referenzdesigns für
​​​​​​​moderne Rechenzentrums-Workloads

Die Komplexität und Größe von KI-Modellen nimmt rasant zu. Sie verbessern Deep-Recommender-Systeme mit Dutzenden von Terabyte an Daten, verbessern die Konversations-KI mit Hunderten von Milliarden von Parametern und ermöglichen neue wissenschaftliche Entdeckungen. Die Skalierung dieser gewaltigen Modelle erfordert neue Architekturen mit schnellem Zugriff auf einen großen Speicherpool und eine enge Kopplung von CPU und GPU. Die NVIDIA Grace™-CPU bietet die hohe Leistung, Energieeffizienz und Konnektivität mit hoher Bandbreite, die in verschiedenen Konfigurationen für unterschiedliche Rechenzentrumsanforderungen genutzt werden kann.

Systementwürfe für digitale Zwillinge, künstliche Intelligenz und Hochleistungscomputer.

NVIDIA OVX™

for digital twins and NVIDIA Omniverse™.
NVIDIA Grace CPU Superchip
NVIDIA GPUs
NVIDIA BlueField®-3

NVIDIA HGX™

for HPC.
NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
OEM-defined input/output (IO)

NVIDIA HGX

for AI training, inference, and HPC.
NVIDIA Grace Hopper Superchip CPU + GPU
NVIDIA BlueField-3
OEM-defined IO / fourth-generation NVLink

Erfahren Sie mehr über die neuesten technischen Innovationen

Beschleunigung von CPU-zu-GPU-Verbindungen mit NVLink-C2C

Die Lösung der größten KI- und HPC-Probleme erfordert Speicher mit hoher Kapazität und hoher Bandbreite (HBM). Die vierte Generation des NVIDIA NVLink-C2C bietet 900 Gigabyte pro Sekunde (GB/s) bidirektionale Bandbreite zwischen der NVIDIA Grace CPU und den NVIDIA GPUs. Die Verbindung bietet einen einheitlichen, cache-kohärenten Speicheradressraum, der System- und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert. Diese kohärente Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten Probleme von morgen.

Nutzen Sie CPU-Speicher mit hoher Bandbreite mit LPDDR5X

NVIDIA Grace ist die erste Server-CPU, die LPDDR5X-Speicher mit Zuverlässigkeit der Serverklasse durch Mechanismen wie Error-Correcting Code (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und gleichzeitig eine 2-fache Speicherbandbreite und eine bis zu 10-fache Energieeffizienz im Vergleich zu heutigem Serverspeicher bietet. Die LPDDR5X-Lösung in Verbindung mit dem großen Hochleistungs-Last-Level-Cache von NVIDIA Grace liefert die erforderliche Bandbreite für große Modelle und reduziert gleichzeitig den Stromverbrauch des Systems, um die Leistung für Workloads der nächsten Generation zu maximieren.

Mehr Leistung und Effizienz mit Arm Neoverse V2-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs weiter zunehmen, können Arbeitslasten immer noch durch serielle Aufgaben auf der CPU begrenzt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemdesigns, um eine maximale Beschleunigung der Arbeitslasten zu ermöglichen. Die NVIDIA Grace CPU integriert Arm Neoverse V2 Kerne mit der NVIDIA Scalable Coherency Fabric, um hohe Leistung in einem stromsparenden Design zu liefern und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Mehr generative KI mit HBM3- und HBM3e-GPU-Speicher

Generative KI ist speicher- und rechenintensiv. Der NVIDIA GH200 Grace Hopper Superchip nutzt 96 GB HBM3-Speicher und bietet damit die 2,5-fache GPU-Speicherbandbreite des NVIDIA A100 Tensor Core GPU. Der GH200 nutzt 141 GB HBM3e-Speichertechnologie, um die 3fache Bandbreite des A100 zu erreichen. Der Hochbreitenspeicher in Grace Hopper ist über NVLink-C2C mit dem CPU-Speicher verbunden, um der GPU über 600 GB Schnellzugriffsspeicher zur Verfügung zu stellen und so die Speicherkapazität und Bandbreite zu bieten, die für die komplexesten beschleunigten Rechen- und generativen KI-Arbeitslasten der Welt erforderlich sind.