BESCHLEUNIGTE RECHENLEISTUNG, VIRTUALISIERT

KI, Deep Learning und Datenwissenschaft erfordern beispiellose Rechenleistung. Mit dem Virtual Compute Server von NVIDIA (vCS) können Rechenzentren die Servervirtualisierung mit aktuellen NVIDIA-Grafikprozessoren für Rechenzentren beschleunigen, etwa den NVIDIA A100 und A30 Tensor Core-GPUs, sodass auch die rechenintensivsten Workloads, wie z. B. künstliche IntelligenzDeep Learning und Datenwissenschaften, auf einer virtuellen Maschine (VM) mit NVIDIA vGPU-Technologie ausgeführt werden können. Dies ist nicht etwa ein kleiner Schritt für die Virtualisierung, sondern ein großer Sprung.


Dokument anzeigen: vCS-Lösungsübersicht (PDF 280 KB)

Merkmale

GPU-Sharing (fraktioniert) ist nur mit der NVIDIA vGPU-Technologie möglich. Sie ermöglicht es mehreren VMs, einen Grafikprozessor gemeinsam zu nutzen und die Auslastung für leichtere Workloads zu maximieren, für die eine Grafikprozessorbeschleunigung erforderlich ist.

Bei der GPU-Aggregation kann eine VM auf mehrere Grafikprozessoren zugreifen, was häufig für rechenintensive Workloads erforderlich ist. vCS unterstützt sowohl Multi-vGPU als auch Peer-to-Peer-Computing. Bei Multi-vGPU sind die Grafikprozessoren nicht direkt verbunden. Bei Peer-to-Peer sind sie zum Erzielen einer höheren Bandbreite durch NVLink verbunden.

vCS unterstützt die Überwachung auf App-, Gast- und Hostebene. Darüber hinaus bieten proaktive Verwaltungsfunktionen die Möglichkeit, eine Live-Migration durchzuführen, Schwellenwerte zu unterbrechen und wieder aufzunehmen und zu erstellen. Diese Schwellenwerte zeigen die Verbrauchstrends, die sich auf die Nutzererfahrung auswirken. Das alles ist in der vGPU Management SDK möglich.

NVIDIA GPU Cloud (NGC) ist ein Hub für grafikprozessoroptimierte Software, die Workflows für Deep Learning, maschinelles Lernen und HPC vereinfacht und jetzt virtualisierte Umgebungen mit NVIDIA vCS unterstützt.

MEHR INFOS

NVIDIA® NVLink™ ist eine schnelle, direkte GPU-zu-GPU-Verbindung, die eine höhere Bandbreite, mehr Verbindungen und eine verbesserte Skalierbarkeit für Systemkonfigurationen mit mehreren Grafikprozessoren bietet – jetzt virtuell unterstützt mit NVIDIA-Technologie für virtuelle Grafikprozessoren (vGPU).

MEHR INFOS

Der Fehlerkorrekturcode (ECC) und Page Retirement bieten eine höhere Zuverlässigkeit für Rechenanwendungen, die für Datenbeschädigungen anfällig sind. Sie sind besonders wichtig in umfangreichen Cluster-Computing-Umgebungen, in denen Grafikprozessoren sehr umfangreiche Datensätze verarbeiten und/oder Anwendungen über einen längeren Zeitraum ausführen.

MEHR INFOS

Multi-Instance-Grafikprozessoren (MIG) stellen eine revolutionäre Technologie dar, mit der die Möglichkeiten des Rechenzentrums erweitert werden können, sodass jeder NVIDIA A100 Tensor Core-Grafikprozessor in bis zu sieben vollständig isolierte Instanzen aufgeteilt und auf Hardware-Level mit eigenem Speicher, Cache und Rechenkernen mit hoher Bandbreite gesichert werden kann. Mit der vCS-Software kann eine VM auf jeder dieser MIG-Instanzen ausgeführt werden, sodass Organisationen die Vorteile von Management, Überwachung und betrieblichen Vorteilen der Hypervisor-basierten Servervirtualisierung nutzen können.

GPUDirect® Mit RDMA (Remote Direct Speicher Access) können Netzwerkgeräte direkt auf den Grafikprozessorspeicher zugreifen, wobei der Hostspeicher der CPU umgangen, die Kommunikationslatenz von Grafikprozessoren verringert und die CPU vollständig abgeladen wurde.

MEHR INFOS

FÜR MAXIMALE EFFIZIENZ SKALIERT

NVIDIA Virtual GPUs bieten Ihnen nahezu Bare-Metal-Leistung in einer virtualisierten Umgebung, maximale Auslastung, Verwaltung und Überwachung in einer Hypervisor-basierten Virtualisierungsumgebung für GPU-beschleunigte KI.

Leistungsskalierung für Deep-Learning-Training mit vCS auf NVIDIA A100 Tensor-Core-GPUs

Entwickler, Datenwissenschaftler, Forscher und Studenten benötigen enorme Rechenleistung für Deep-Learning-Training. Unsere A100 Tensor-Core-GPU beschleunigt die Arbeit, wodurch schneller mehr erreicht werden kann. NVIDIA-Software, der Virtual Compute Server, bietet nahezu die gleiche Leistung wie Bare Metal, selbst wenn sie auf große Deep-Learning-Trainingsmodelle skaliert wird, die mehrere GPUs verwenden.

Durchsatzleistung bei Deep-Learning-Inferenz mit MIG auf NVIDIA A100 Tensor-Core-GPUs mit vCS

Multi-Instance GPU (MIG) ist eine Technologie, die nur auf der NVIDIA A100 Tensor-Core-GPU zu finden ist und die A100-GPU in bis zu sieben Instanzen partitioniert, die jeweils vollständig mit eigenem Speicher mit hoher Bandbreite sowie eigenem Cache und eigenen Rechenkernen isoliert sind. MIG kann mit Virtual Compute Server verwendet werden und bietet eine VM pro MIG-Instanz.  Die Leistung ist gleichbleibend, ob nun ein Inferenz-Workload über mehrere MIG-Instanzen auf Bare Metal ausgeführt oder mit vCS virtualisiert wird.

RESSOURCEN FÜR IT-MANAGER

Erfahren Sie, wie NVIDIA Virtual Compute Server die Leistung maximiert und das IT-Management vereinfacht.

Nutzungsoptimierung

Schöpfen Sie wertvolle GPU-Ressourcen voll aus, indem Sie GPUs nahtlos für einfachere Workloads wie Inferenz aufteilen oder mehrere virtuelle GPUs für rechenintensivere Workloads wie Deep-Learning-Training bereitstellen.

Verwaltbarkeit und Überwachung

Sichern Sie die Verfügbarkeit und Einsatzbereitschaft der Systeme, die Datenwissenschaftler und Forscher benötigen. Überwachen Sie die GPU-Leistung auf Gast-, Host- und Anwendungsebene. Sie können sogar Verwaltungstools wie Anhalten/Fortsetzen und Live-Migration nutzen. Erfahren Sie mehr über die betrieblichen Vorteile der GPU-Virtualisierung.

GRAFIKPROZESSOREMPFEHLUNGEN für Rechennetzwerke

NVIDIA H100 PCIe
NVIDIA H100 SXM
NVIDIA A100 PCIe
NVIDIA A100 SXM
Arbeitsspeicher
80 GB
80 GB
80 GB HBM2e
80 GB HBM2e
Arbeitsspeicher Bandbreite
2 TB/s
3 TB/s
1,935 GB/s
2,039 GB/s
FP 32
​​​​​​​48 TFLOPS
​​​​​​​60 TFLOPS
​​​​​​​19,5 TFLOPS
19,5 TFLOPS
Tensor Float 32 (TF32)
​​​​​​​800 TFLOPS*
​​​​​​​1,000 TFLOPS*
​​​​​​​156 TFLOPS
312 TFLOPS*
FP64
24 TFLOPS
30 TFLOPS
9,7 TFLOPS
9,7 TFLOPS
FP64 Tensor Core
​​​​​​​48 TFLOPS
​​​​​​​60 TFLOPS
​​​​​​​19,5 TFLOPS
​​​​​​​19,5 TFLOPS
BFLOAT16 Tensor Core
​​​​​​​1,600 TFLOPS*
​​​​​​​2,000 TFLOPS*
​​​​​​​312 TFLOPS
624 TFLOPS*
FP16 Tensor Core
​​​​​​​1,600 TFLOPS*
​​​​​​​2,000 TFLOPS*
​​​​​​​312 TFLOPS
624 TFLOPS*
INT8 Tensor Core
​​​​​​​4,000 TFLOPS*
​​​​​​​3,200 TFLOPS*
​​​​​​​624 TOPS
1248 TOPS*
Form Factor
PCIe
dual-slot
air-cooled
SXM
PCIe
dual-slot Luftkühlung oder
​​​​​​​single-slot Flüssigkeitskühlung
​​​​​​​SXM
Interconnect
NVLink:
600GB/s PCIe
Gen5: 128GB/s
NVLink:
900GB/s PCIe
Gen5: 128GB/s
NVIDIA® NVLink® Bridge für 2 GPUs: 600GB/s **
​​​​​​​PCIe Gen4: 64GB/s
​​​​​​​NVLink: 600GB/s
PCIe Gen4: 64GB/s
Server Options
Partner and
NVIDIA-
Certified
Systems with
1–8 GPUs
NVIDIA HGX™
H100 partner and
NVIDIA-Certified
Systems™ with
4 or 8 GPUs
NVIDIA DGX™
H100 with 8 GPUs
Partner and NVIDIA Certified Systems™ with 1-8 GPUs
​​​​​​​NVIDIA HGX™ A100- Partner and
​​​​​​​NVIDIA Certified Systems with 4,8, or 16 GPUs
​​​​​​​NVIDIA DGX™ A100 with 8 GPUs
Max Thermal Design Power (TDP)
350 W
700 W
300 W
​​​​​​​400 W***
MIG Support
Bis zu 7 MIGs @ 10GB
Bis zu 7 MIGs @ 10GB
Bis zu 7 MIGs @ 10GB
​​​​​​​Up to 7 MIGs @ 10GB
NVIDIA A16
NVIDIA A40
NVIDIA A30
NVIDIA A10
NVIDIA A2
Arbeitsspeicher
4x 16 GB GDDR6
48 GB GDDR6 with ECC
24GB HBM2
24 GB GDDR6
16GB GDDR6
Arbeitsspeicher Bandbreite
4x 200 GB/s
696 GB/s
933 GB/s
600 GB/s
200GB/s
FP 32
18 (4x 4.5) TFLOPS
37.4 TFLOPS
10.3 TFLOPS
31.2 TFLOPS
4.5 TFLOPS
Tensor Float 32 (TF32)
36 (4x 9) TFLOPS
149.6 TFLOPS
165 TFLOPS
125 TFLOPS
18 TFLOPS*
FP64
4x 135.6 (542,4) GFLOPS
584.6 GFLOPS
5.2 TFLOPS
976.3 GFLOPS
70.80 GFLOPS
FP64 Tensor Core
​​​​​​​-
​​​​​​​-
​​​​​​​10.3 TFLOPS
​​​​​​​10.3 TFLOPS
​​​​​​​-
BFLOAT16 Tensor Core
-
299.4 TFLOPS
330 TFLOPS
250 TFLOPS
36 TFLOPS*
FP16 Tensor Core
71.6 (4x 17.9) TFLOPS
299.4 TFLOPS
330 TFLOPS
250 TFLOPS
250 TFLOPS
INT8 Tensor Core
598.6
598.6
661TOPS*
661TOPS*
72TOPS*
Form Factor
​​​​​​​Full height, full length (FHFL) Dual Slot
​​​​​​​4.4" (H) x 10.5" (L) dual slot
​​​​​​​2-slot, full height, full length (FHFL)
1-slot FHFL
1-slot, Low-Profile PCIe
Interconnect
​​​​​​​-
​​​​​​​NVIDIA® NVLink® 112.5 GB/s
​​​​​​​(bidirectional)3 PCIe Gen4: 64GB/s
​​​​​​​PCIe Gen4: 64GB/s Third-gen NVIDIA® NVLINK® 200GB/s
​​​​​​​PCIe Gen4: 64 GB/s
PCIe Gen4 x8
Max Thermal Design Power (TDP)
​​​​​​​250 W
​​​​​​​300 W
​​​​​​​165 W
​​​​​​​150 W
​​​​​​​40-60W (Configurable)
MIG Support
​​​​​​​NO
​​​​​​​-
​​​​​​​4 MIGs @ 6GB each
2 MIGs @ 12GB each
​​​​​​​1 MIGs @ 24GB
​​​​​​​-
​​​​​​​-
vGPU software support
​​​​​​​NVIDIA Virtual PC (vPC),
NVIDIA Virtual Applications (vApps),
NVIDIA RTX Virtual Workstation (vWS),
NVIDIA AI Enterprise,
​​​​​​​NVIDIA Virtual Compute Server (vCS)
​​​​​​​-
​​​​​​​NVIDIA AI Enterprise NVIDIA Virtual Compute Server
​​​​​​​NVIDIA vPC/vApps, NVIDIA RTX™ vWS, NVIDIA AI Enterprise
NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS)
* Mit Sparsamkeit.
** SXM4-GPUs über HGX A100-Serverkarten; PCIe-GPUs über NVLink Bridge für bis zu zwei GPUs.
*** 400W TDP für Standardkonfiguration. HGX A100-80GB CTS (Custom Thermal Solution) SKU kann TDPs bis zu 500W unterstützen.

PARTNER BEI DER VIRTUALISIERUNG