Entwickelt für die Leistung und Effizienz, die für moderne KI-Rechenzentren erforderlich sind

Die stetig wachsende Komplexität von KI-Modellen und ihren Anforderungen hat die Bedeutung von beschleunigtem Computing und Energieeffizienz im Rechenzentrum enorm gesteigert. In diesem Kontext markiert die NVIDIA Grace™-CPU einen Meilenstein. Als wegweisende Arm®-CPU setzt sie neue Maßstäbe, indem sie unerreichte Leistung und Effizienz ohne Kompromisse bietet. Die Flexibilität der Grace-CPU ist bemerkenswert: Sie kann nahtlos mit einer GPU verbunden werden, um beschleunigtes Computing zu optimieren, oder eigenständig als leistungsstarke und effiziente CPU agieren.

Die Vielseitigkeit der NVIDIA-Grace-CPU erstreckt sich über verschiedene Konfigurationen, die den unterschiedlichen Anforderungen moderner Rechenzentren gerecht werden. Von hochleistungsfähigen Servern bis hin zu rechenintensiven Anwendungen bietet sie eine solide Grundlage für die Rechenzentren der nächsten Generation. Mit ihrer Fähigkeit, sich an verschiedene Einsatzszenarien anzupassen, ermöglicht die Grace-CPU eine optimale Nutzung von Ressourcen und trägt so wesentlich zur Effizienzsteigerung und Leistungsverbesserung bei.

Werfen Sie einen Blick auf das Grace Lineup

Grace Superchip CPU

NVIDIA GB200 NVL72

Der NVIDIA GB200 Grace Blackwell Superchip kombiniert zwei NVIDIA Blackwell Tensor Core GPUs und eine Grace CPU und kann auf den GB200 NVL72, ein riesiges, über NVIDIA® NVLink® verbundenes 72-GPU-System, skaliert werden, um 30-mal schnellere Echtzeitinferenz für große Sprachmodelle zu liefern.


Mehr erfahren
Pressemitteilung lesen

NVIDIA Grace Superchip-CPU

Die NVIDIA Grace Superchip-CPU nutzt die NVLink-C2C-Technologie, um 144 Arm® Neoverse V2-Recheneinheiten und eine Speicherbandbreite von 1 TB/s bereitzustellen.


Mehr erfahren
Grace Superchip CPU
Grace Superchip CPU

NVIDIA Grace Hopper Superchip

NVIDIA Grace Hopper™ Superchip kombiniert die Grace- und Hopper-Architekturen mithilfe von NVIDIA® NVLink®-C2C, um ein kohärentes CPU- und GPU-Speichermodell für beschleunigte KI- und High-Performance Computing(HPC)-Anwendungen bereitzustellen.


Mehr erfahren

Entdecken Sie Grace-Referenzdesigns für
​​​​​​​moderne Rechenzentrums-Workloads

Die Komplexität und Größe von KI-Modellen nimmt rasant zu. Sie verbessern Deep-Recommender-Systeme mit Dutzenden von Terabyte an Daten, verbessern die Konversations-KI mit Hunderten von Milliarden von Parametern und ermöglichen neue wissenschaftliche Entdeckungen. Die Skalierung dieser gewaltigen Modelle erfordert neue Architekturen mit schnellem Zugriff auf einen großen Speicherpool und eine enge Kopplung von CPU und GPU. Die NVIDIA Grace™-CPU bietet die hohe Leistung, Energieeffizienz und Konnektivität mit hoher Bandbreite, die in verschiedenen Konfigurationen für unterschiedliche Rechenzentrumsanforderungen genutzt werden kann.

Systementwürfe für digitale Zwillinge, künstliche Intelligenz und Hochleistungscomputer.

NVIDIA OVX™

for digital twins and NVIDIA Omniverse™.
NVIDIA Grace CPU Superchip
NVIDIA GPUs
NVIDIA BlueField®-3

NVIDIA HGX™

for HPC.
NVIDIA Grace CPU Superchip
NVIDIA BlueField-3
OEM-defined input/output (IO)

NVIDIA HGX

for AI training, inference, and HPC.
NVIDIA Grace Hopper Superchip CPU + GPU
NVIDIA BlueField-3
OEM-defined IO / fourth-generation NVLink

Erfahren Sie mehr über die neuesten technischen Innovationen

Beschleunigung von CPU-zu-GPU-Verbindungen mit NVLink-C2C

Die Lösung der größten KI- und HPC-Probleme erfordert Speicher mit hoher Kapazität und hoher Bandbreite (HBM). Die vierte Generation des NVIDIA NVLink-C2C bietet 900 Gigabyte pro Sekunde (GB/s) bidirektionale Bandbreite zwischen der NVIDIA Grace CPU und den NVIDIA GPUs. Die Verbindung bietet einen einheitlichen, cache-kohärenten Speicheradressraum, der System- und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert. Diese kohärente Verbindung mit hoher Bandbreite zwischen CPU und GPUs ist der Schlüssel zur Beschleunigung der komplexesten Probleme von morgen.

Nutzen Sie CPU-Speicher mit hoher Bandbreite mit LPDDR5X

NVIDIA Grace ist die erste Server-CPU, die LPDDR5X-Speicher mit der Zuverlässigkeit der Serverklasse durch Mechanismen wie Fehlerkorrekturcode (ECC) nutzt, um den Anforderungen des Rechenzentrums gerecht zu werden, und dabei eine zweimal höhere Speicherbandbreite und eine bis zu zehnmal bessere Energieeffizienz im Vergleich zu aktuell verfügbaren Serverspeichern bietet. Die NVIDIA Grace-CPU integriert ARM Neoverse V2-Recheneinheiten in eine von NVIDIA entwickelte Scalable Coherency Fabric, um eine hohe Leistung in einem vorteilhaften Design zu liefern und so Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Mehr Leistung und Effizienz mit Arm Neoverse V2-Kernen

Auch wenn die parallelen Rechenkapazitäten von GPUs immer weiter fortschreiten, können Workloads nach wie vor durch serielle Aufgaben, die auf der CPU ausgeführt werden, eingeschränkt werden. Eine schnelle und effiziente CPU ist eine entscheidende Komponente des Systemaufbaus, um eine optimale Beschleunigung der Workloads zu ermöglichen. Die NVIDIA Grace-CPU integriert Arm Neoverse V2-Cores, um eine hohe Leistung in einem stromsparenden System zu erzielen und Wissenschaftlern und Forschern die Arbeit zu erleichtern.

Mehr generative KI mit HBM3- und HBM3e-GPU-Speicher

Generative KI ist speicher- und rechenintensiv. Der NVIDIA GB200-Superchip verwendet 380 GB HBM-Speicher und bietet damit mehr als die 4,5-fache Bandbreite des GPU-Speichers im Vergleich zum NVIDIA H100 Tensor Core-Grafikprozessor. Der Speicher mit hoher Bandbreite von Grace Blackwell wird über NVLink-C2C mit dem CPU-Speicher kombiniert, um fast 800 GB Speicher mit Schnellzugriff für die GPU bereitzustellen. Dies liefert die Speicherkapazität und Bandbreite, die für die weltweit komplexesten Workloads im Bereich der generativen KI und des beschleunigten Computings erforderlich sind.