Vereinigung von Networking und Rechenleistung

Nie dagewesene GPU-Leistung
Die NVIDIA Ampere-Architektur bietet für eine breite Palette rechenintensiver Workloads den größten Generationensprung aller Zeiten, um die Unternehmens- und Peripherie-Infrastruktur weiter zu sichern und zu beschleunigen.
.jpg)
Verbesserte Sicherheit
Die NVIDIA BlueField-2-DPU bietet innovative Beschleunigung, Sicherheit und Effizienz für jeden Host. BlueField-2 kombiniert die Leistung von NVIDIA ConnectX®-6 Dx mit programmierbaren Arm®-Kernen und Hardwareentlastungen für softwaredefinierte Speicher-, Netzwerk-, Sicherheits- und Verwaltungsworkloads.

Schnellere Datengeschwindigkeiten
NVIDIA konvergierte Beschleuniger bieten einen integrierten PCIe-Gen4-Switch. Dadurch können Daten zwischen GPU und DPU übertragen werden, ohne das Server-PCIe-System zu durchlaufen. Selbst in Systemen mit PCIe Gen3 auf dem Host erfolgt die Kommunikation mit voller PCIe-Gen4-Geschwindigkeit. Dies ermöglicht bei GPU-beschleunigten Workloads, einschließlich KI-basierter Sicherheit, 5G-Telekommunikation und anderen Edge-Anwendungen, ein neues Maß an Effizienz und Sicherheit für Rechenzentren.
Vollständiges Inferenz-Portfolio
NVIDIA-Certified Systems for Inference
Nvidia A100
Der schnellste Grafikprozessor der Welt mit dem schnellsten Speicher der Welt
- Schnellstes Rechnen
- FP64 Präzision
- 40GB oder 80GB HBM-Speicher
- 1,3x schnellere Speicherbandbreite und weltweit die erste mit >2TB/s
- Bis zu 7MIG Instanzen
NVIDIA A30
Vielseitige Rechenbeschleunigung für Mainstream-Unternehmensserver
- Mainstream-Rechenleistung
- FP64 Präzision
- 24 GB HBM-Speicher
- NVLink
- Bis zu 4 MIG-Instanzen

NVIDIA A2
Vielseitige Einstiegs-GPU bringt NVIDIA AI auf jeden Server
- AI-Inferenz, IVA, Edge
- Passt auf jeden Server: Niedrige Leistung (40-60W) und niedriges Profil
- Ampere ³rd Gen Tensor Cores, ²nd Gen RT Cores
- Einstiegspreis
Die NVIDIA Ampere Architektur bietet den größten Leistungssprung aller Zeiten für eine breite Palette rechenintensiver Workloads, während BlueField-2 die Leistung des NVIDIA ConnectX®-6 Dx mit programmierbaren Arm® Cores und Hardware-Offloads für softwaredefinierte Speicher-, Netzwerk-, Sicherheits- und Management-Workloads kombiniert. Die konvergenten NVIDIA-Beschleuniger verfügen über einen integrierten PCIe Gen4 Switch, über den Daten zwischen der GPU und der DPU übertragen werden können, ohne den Server zu durchlaufen. Dies ermöglicht ein neues Maß an Rechenzentrumseffizienz und Sicherheit für netzwerkintensive, GPU-beschleunigte Workloads.
Technische Details
Feature | A100X | A30X |
---|---|---|
GPU Memory | 80GB HBM2e | 24 GB HBM2e |
Memory Bandwidth | 1800 GB/s | 900 GB/s |
MIG instances | 7 instances @ 10GB each 3 instances @ 20GB each 2 instances @ 40GB each | 900 GB/s |
Interconnect | PCIe Gen4 (x16 Physical, x8 Electrical) | PCIe Gen4 (x16 Physical, x8 Electrical) |
NVLINK Bridge | 3x | 1x |
Form Factor | 2 Slot FHFL | 2 Slot FHFL |
Max Power | 300 W | 230 W |
Schnelleres 5G

KI-basierte Cybersicherheit

Beschleunigen von AI-on-5G in der Edge

Ausgewogenes, optimiertes Design

● 100GbE, Dual Port QSFP56, PCIe 4.0x8, Ethernet und InfiniBand, PAM4/NRZ, ConnectX-6 Dx Innen
● 8 ARM A72 CPUs Subsystem - über 2,0GHz
● 8 MB L2-Cache, 6 MB L3-Cache in 4 Kacheln, vollständig kohärente Verbindung mit niedriger Latenz
● Integrierter PCIe-Switch, 16x Gen4.0, PCIe Root Complex oder End Point Modi
● Einzelner DDR4-Kanal
NVIDIA Converged Accelerators erweitern die Möglichkeiten der CUDA® und NVIDIA DOCA™ Programmierbibliotheken für Workload-Beschleunigung und Offloading. CUDA-Anwendungen können auf dem x86-Host oder auf dem Arm-Prozessor der DPU für isolierte KI- und Inferencing-Anwendungen ausgeführt werden.
Entdecken Sie die konvergierten Beschleuniger von NVIDIA
im Rechenzentrum bei maximaler Sicherheit und Leistung.

A30X
A100X
Die Vielseitigkeit, die kompakte Größe und der niedrige Stromverbrauch der A2 übertreffen die Anforderungen für Edge-Implementierungen im großen Maßstab, so dass vorhandene CPU-Server der Einstiegsklasse sofort für Inferenzen aufgerüstet werden können. Mit A2 Grafikprozessoren beschleunigte Server bieten eine bis zu 20-fach höhere Inferenzleistung im Vergleich zu CPUs und 1,3-fach effizientere IVA-Implementierungen als frühere GPU-Generationen - und das alles zu einem Einstiegspreis.
NVIDIA-zertifizierte Systeme™ mit den NVIDIA A2, A30 und A100 Tensor-Core-GPUs und NVIDIA AI - einschließlich des NVIDIA Triton™ Inference Server, einer Open-Source-Software für die Inferenzverarbeitung - bieten eine bahnbrechende Inferenzleistung für Edge, Rechenzentrum und Cloud. Sie sorgen dafür, dass KI-fähige Anwendungen mit weniger Servern und weniger Energie auskommen, was zu einfacheren Implementierungen und schnelleren Erkenntnissen bei deutlich geringeren Kosten führt.
Bis zu 7-mal mehr Inferenzleistung

NLP: BERT-Large (Sequenzlänge: 384, SQuAD: v1.1) | TensorRT 8.2, Präzision: INT8, BS:1 (GPU) | OpenVINO 2021.4, Präzision: INT8, BS:1 (CPU)
Text-to-Speech: Tacotron2 + Waveglow End-to-End Pipeline (Eingangslänge: 128) | PyTorch 1.9, Präzision: FP16, BS:1 (GPU) | PyTorch 1.9, Präzision: FP32, BS:1 (CPU)
Computer Vision: EfficientDet-D0 (COCO, 512x512) | TensorRT 8.2, Präzision: INT8, BS:8 (GPU) | OpenVINO 2021.4, Präzision: INT8, BS:8 (CPU)
Höhere IVA-Leistung für die Intelligente Edge
IVA-Leistung (normalisiert)

Für jeden Server optimiert
Geringerer Stromverbrauch und konfigurierbare TDP

Technische Details VON A2
Peak FP32 | 4.5 TF |
TF32 Tensor Core | 9 TF | 18 TF¹ |
BFLOAT16 Tensor Core | 18 TF | 36 TF¹ |
Peak INT8 Tensor Core | 36 TOPS | 72 TOPS¹ |
Peak INT4 Tensor Core | 72 TOPS | 144 TOPS¹ |
RT Cores | 10 |
Media engines | 1 video encoder 2 video decoders (includes AV1 decode) |
GPU memory | 16GB GDDR6 |
GPU memory bandwidth | 200GB/s |
Interconnect | 200GB/s |
Form factor | 1-slot, low-profile PCIe |
Max thermal design power (TDP) | 40–60W (configurable) |
Virtual GPU (vGPU) software support² | NVIDIA Virtual PC (vPC), NVIDIA Virtual Applications (vApps), NVIDIA RTX Virtual Workstation (vWS), NVIDIA AI Enterprise, NVIDIA Virtual Compute Server (vCS) |