NETWORKING UND RECHENLEISTUNG VEREINT

Konvergierte Beschleuniger von NVIDIA EGX sind Teil der NVIDIA EGX™ KI-Plattform
und verbinden die starke Leistung der NVIDIA Ampere-Architektur​​​​​​​ mit den verbesserten Sicherheits- und Latenzverringerungsfunktionen der NVIDIA® BlueField®-2 Datenverarbeitungseinheit (DPU). Mit den konvergierten Beschleunigern von EGX können Unternehmen schnellere, effizientereund sicherere KI-Systeme in Rechenzentren und in der Peripherie erstellen.

Nie dagewesene GPU-Leistung

Die NVIDIA Ampere-Architektur bietet für eine breite Palette rechenintensiver Workloads den größten Generationensprung aller Zeiten, um die Unternehmens- und Peripherie-Infrastruktur weiter zu sichern und zu beschleunigen.

Sicherheit ohne Kompromisse

NVIDIA BlueField-2 bietet innovative Beschleunigung, Sicherheit und Effizienz für jeden Host. BlueField-2 kombiniert die Leistung von NVIDIA ConnectX®-6 Dx mit programmierbaren Arm-Kernen und Hardwareentlastungen für softwaredefinierte Speicher-, Netzwerk-, Sicherheits- und Verwaltungsworkloads.

Schnellere Datengeschwindigkeiten

NVIDIA konvergierte Beschleuniger bieten einen integrierten PCIe-Gen4-Switch. Dadurch können Daten zwischen GPU und DPU übertragen werden, ohne den Server-PCIe-Bus zu durchlaufen. Selbst in Systemen mit PCIe Gen3 erfolgt die Kommunikation mit voller PCIe-Gen4-Geschwindigkeit. Dies ermöglicht bei GPU-beschleunigten Workloads, einschließlich KI, Datenanalysen, 5G-Telekommunikation und anderen Edge-Anwendungen, ein neues Maß an Effizienz und Sicherheit für Rechenzentren.

KONVERGIERTER BESCHLEUNIGER H100 CNX VON NVIDIA

Beispiellose Leistung für GPU-gestützte, IO-intensive Workloads.

KONVERGIERTER BESCHLEUNIGER H100 CNX
​​​​​​​VON NVIDIA

NVIDIA H100 CNX kombiniert die Leistung des NVIDIA H100 mit den fortschrittlichen Netzwerkfunktionen der NVIDIA ConnectX®-7 Smart Network Interface Card (SmartNIC) in einer einzigen, einzigartigen Plattform. Diese Konvergenz bietet beispiellose Leistung für GPU-gestützte Input/Output(IO)-intensive Workloads, z. B. verteiltes KI-Training im Unternehmens-Rechenzentrum und 5G-Verarbeitung am Edge.
Whitepaper

BESSERE I/O-LEISTUNG

NVIDIA H100 und ConnectX-7 werden über einen integrierten PCIe-Gen5-Switch verbunden, der einen dedizierten Hochgeschwindigkeitspfad für Datenübertragungen zwischen GPU und Netzwerk bietet. Dadurch werden Engpässe bei Daten, die den Host durchlaufen, beseitigt und eine niedrige, vorhersehbare Latenz ermöglicht, die für zeitkritische Anwendungen wie die 5G-Signalverarbeitung wichtig ist.

AUSGEWOGENES, OPTIMIERTES DESIGN

Die Integration einer GPU und einer SmartNIC in ein einzelnes Gerät erzeugt von Natur aus eine ausgewogene Architektur. In Systemen, in denen mehrere GPUs und DPUs gewünscht sind, erzwingt eine konvergierte Beschleunigerkarte das optimale Eins-zu-Eins-Verhältnis von GPU zu NIC.  Das Design vermeidet außerdem Konflikte auf dem PCIe-Bus des Servers, sodass die Leistung mit zusätzlichen Geräten linear skaliert wird.

KOSTENEINSPARUNGEN

Da GPU und SmartNIC direkt miteinander verbunden sind, können Kunden Mainstream-PCIe Gen4- oder sogar Gen3-Server nutzen, um ein Leistungsniveau zu erzielen, das nur mit High-End- oder speziell entwickelten Systemen möglich ist.  Die Verwendung einer einzelnen Karte spart außerdem Strom, Platz und PCIe-Gerätesteckplätze und ermöglicht weitere Kosteneinsparungen, da eine höhere Anzahl an Beschleunigern pro Server eingesetzt werden kann.

BEREIT ZUR ANWENDUNG

Zentrale Software-Beschleunigungsbibliotheken wie die NVIDIA Collective Communications Library (NCCL) und Unified Communication X (UCX®) nutzen automatisch den leistungsstärksten Pfad für Datenübertragungen an GPUs. Dadurch können bestehende beschleunigte Anwendungen mit mehreren Knoten die Vorteile von H100 CNX ohne Modifikationen nutzen, was zu sofortigen Verbesserungen führt.

H100 CNX – TECHNISCHE DATEN

Technische Daten
GPU-Speicher
80 GB HBM2e
Speicherbandbreite
> 2,0 Tb/s
MIG-Instanzen
7 Instanzen mit je 10 GB
3 Instanzen mit je 20 GB
2 Instanzen mit je 40 GB
Konnektivität
PCIe Gen5 128 GB/s
NVLINK-Brücke
2-Wege
Netzwerk
1x 400 Gb/s, 2x 200 Gb/s Ports, Ethernet oder InfiniBand
Formfaktor
FHFL-Dual-Slot (Full Height, Full Length)
Max. Leistung
350 W

EIN LEISTUNGSFÄHIGERES, SICHERERES UNTERNEHMEN

AUSGEWOGENES, OPTIMIERTES DESIGN

Die Integration von GPU, DPU und PCIe-Switch in ein einzelnes Gerät erzeugt von Natur aus eine ausgewogene Architektur. In Systemen, in denen mehrere GPUs und DPUs gewünscht sind, vermeidet eine konvergierte Beschleunigerkarte Konflikte auf dem PCIe-Bus des Servers, sodass die Leistung mit zusätzlichen Geräten linear skaliert. Außerdem ist die Leistung durch konvergierte Karten deutlich besser vorhersehbar. Diese Komponenten auf eine physischen Karte auszulagern, verbessert zudem den Platzbedarf und die Energieeffizienz. Konvergierte Karten vereinfachen die Bereitstellung und die fortwährende Wartung erheblich, insbesondere bei der Installation in massenorientierten Servern in großem Maßstab.

Leistungsstärkstes Networking

Mit NVIDIA konvergierten Beschleunigern profitieren Unternehmen bei der Erstellung einer skalierbaren Infrastruktur für moderne Anwendungen von den Netzwerkfähigkeiten der DPU. Moderne Workloads und Rechenzentrumsdesigns führen bei CPU-Recheneinheiten traditionell zu einem deutlichen Overhead für Netzwerkaufgaben. Doch NVIDIA SmartNIC, eine Kernkomponente der NVIDIA DPU, bietet Netzwerksicherheits-Entlastungs-Funktionen, darunter Transport Layer Security (TLS) und Internet Protocol Security (IPSec), was die CPU entlastet. SmartNIC kann auch den Netzwerkverkehr überprüfen und böswillige Aktivitäten blockieren und bietet dadurch erhöhte Sicherheit. Mit der NVIDIA DPU-Technologie können konvergierte NVIDIA-Grafikprozessoren zudem schneller und effizienter mit virtuellen Netzwerken umgehen. 

KI in der Edge über 5G beschleunigen

NVIDIA AI-on-5G besteht aus der hyperkonvergierten NVIDIA EGX™ Computing-Plattform, dem NVIDIA Aerial™ SDK für softwaredefinierte virtuelle 5G-Funknetze (vRANs) und KI-Anwendungen für Unternehmen, einschließlich SDKs wie NVIDIA Isaac™ und NVIDIA Metropolis™. Diese Lösung kann lokal bereitgestellt und von Unternehmen verwaltet oder von Hyperscalern wie Google Cloud verwaltet werden, was die Bereitstellung von KI-Anwendungen über 5G-Edge-Netzwerke vereinfacht.

MEHR ERFAHREN

Verbesserte Sicherheit

Durch die Konvergenz der GPU und DPU von NVIDIA entsteht eine sicherere KI-Verarbeitungs-Engine, bei der Daten, die in der Edge generiert werden, vollständig verschlüsselt über das Netzwerk gesendet werden können, ohne den Server-PCIe-Bus zu durchlaufen. So wird sichergestellt, dass sie durchgängig geschützt sind. Mit dem NVIDIA DOCA SDK können Sie ganz einfach Sicherheits- und Netzwerkdienste für die BlueField-2-DPU erstellen und DPU-Hardwarebeschleuniger und CPU-Programmierbarkeit nutzen, um die Anwendungsleistung und -sicherheit zu verbessern. 

MEHR ERFAHREN

Das Portfolio konvergierter Beschleuniger von NVIDIA

Dieses Gerät ermöglicht die Ausführung von datenintensiven Workloads in der Edge und
​​​​​​​im Rechenzentrum bei maximaler Sicherheit und Leistung.

BlueField-2 & A100 Tensor-Core-GPU im zusammenspiel

Die BlueField-2 A100 vereint die Leistung der NVIDIA A100 Tensor-Core-GPU mit der BlueField-2 DPU. A100 bietet beispiellose Beschleunigung und Flexibilität für die leistungsstärksten Rechenzentren der Welt. Mit Multi-Instance-GPU (MIG) kann jede A100 in bis zu sieben GPU-Instanzen aufgeteilt werden, wodurch GPU-Beschleunigung im passenden Maßstab für optimale Auslastung bereitsteht und von allen Nutzern und Anwendungen genutzt werden kann.  
Die BlueField-2 A100 ist auf KI-Trainings-, Datenanalyse- und 5G-Telekommunikations-Workloads in Rechenzentren ausgelegt, die insbesondere bei großen Workloads mit mehreren Knoten von der Hochgeschwindigkeits-kommunikation zwischen Grafikprozessor und Netzwerk mit garantierter Bandbreite profitieren können.