NVIDIA H200 Tensor Core GPU

The world’s most powerful GPU for
​​​​​​​supercharging AI and HPC workloads.

In einer Ära, in der Daten die Währung der Innovation sind, steht NVIDIA weiterhin an vorderster Front, um die Grenzen des KI-Computings zu verschieben. Der NVIDIA HGX™ H200, markiert einen bedeutenden Meilenstein auf diesem Weg. Basierend auf der herausragenden NVIDIA Hopper™-Architektur und ausgestattet mit der revolutionären NVIDIA H200 Tensor Core GPU, bringt diese Plattform das KI-Computing auf ein nie dagewesenes Niveau.

Was macht den HGX™ H200 so besonders? Es ist die Integration von HBM3e-Speicher - ein Quantensprung in der Speichertechnologie. Mit einer Kapazität von 141 GB und einer atemberaubenden Bandbreite von 4,8 Terabyte pro Sekunde setzt der H200 neue Maßstäbe für die Effizienz und Geschwindigkeit der Datenverarbeitung. Im Vergleich zu seinem Vorgänger, dem NVIDIA A100, bietet der H200 fast doppelt so viel Kapazität und 2,4-mal mehr Bandbreite. Dies bedeutet eine exponentielle Steigerung der Leistungsfähigkeit, die die Tür für noch komplexere KI-Modelle und Hochleistungs-Computing-Workloads öffnet.

H200-basierte Systeme sind zur Auslieferung im zweiten Quartal 2024 angekündigt. Diese Plattform verspricht nicht nur eine verbesserte Leistung bei der Generierung von KI-Modellen, sondern wird auch das wissenschaftliche Rechnen für HPC-Workloads revolutionieren.

In unserem neuesten Blogbeitrag werfen wir einen genaueren Blick auf die Innovationen hinter dem NVIDIA HGX™ H200 und untersuchen, wie sie die Zukunft des KI-Computings formen. Schließen Sie sich uns an, während wir die nächsten Schritte auf dem Weg zu einer intelligenten Zukunft erkunden und die Möglichkeiten ausloten, die der HGX™ H200 bietet.

​​​​​​​Pressemitteilung lesen
Mehr erfahren

HIGHLIGHTS

Erleben Sie Leistung auf dem nächsten Level

Llama2 70B Inference

1.9X Faster

GPT-3 175B Inference

1.6X Faster

High-Performance Computing

110X Faster

Specifications 

NVIDIA H200 Tensor Core GPU

Form Factor
FP64
FP64 Tensor Core
FP32
TF32 Tensor Core
BFLOAT16 Tensor Core
FP16 Tensor Core
FP8 Tensor Core
INT8 Tensor Core
GPU Memory
GPU Memory Bandwidth
Decoders
​​​​​​​
Max Thermal Design Power (TDP)
Multi-Instance GPUs
Form Factor
Interconnect
​​​​​​​
Server Options
NVIDIA AI Enterprise
H200 SXM¹
34 TFLOPS
67 TFLOPS
67 TFLOPS
989 TFLOPS²
1,979 TFLOPS²
1,979 TFLOPS²
3,958 TFLOPS²
3,958 TFLOPS²
141GB
4.8TB/s
7 NVDEC
7 JPEG
Up to 700W (configurable)
Up to 7 MIGs @16.5GB each
SXM
NVIDIA NVLink®: 900GB/s
PCIe Gen5: 128GB/s
NVIDIA HGX™ H200 partner and NVIDIA-Certified Systems™ with 4 or 8 GPUs
Add-on
1 Preliminary specifications. May be subject to change.
2 With sparsity.
Datenblatt ansehen

Los geht's

Benachrichtigen Sie mich, wenn dieses Produkt verfügbar ist.


Benachrichtigen