NVIDIA AI Enterprise ist eine durchgängige, Cloud-native Suite von KI- und Datenanalysesoftware, die von NVIDIA für die Ausführung auf VMware vSphere mit NVIDIA-Certified Systems™ optimiert, zertifiziert und unterstützt wird. Sie umfasst wichtige NVIDIA-Technologien für die schnelle Bereitstellung, Verwaltung und Skalierung von KI-Workloads in der modernen Hybrid Cloud.

Optimiert für KI

Bewährte Open-Source-Frameworks und -Tools optimieren die Entwicklung und den Einsatz von KI. Unternehmen können sich auf die Wertschöpfung durch KI konzentrieren.

Zertifiziert für die Ausführung
​​​​​​​an jedem Ort

NVIDIA AI Enterprise ist für den Betrieb auf GPU-beschleunigten Mainstream-Systemen, reinen CPU-Servern oder in der öffentlichen Cloud (NVIDIA-Certified Systems™) zertifiziert. Mit NVIDIA AI Enterprise können KI-Projekte in das zunehmend hybride Rechenzentrum von heute portiert werden.

Enterprise-Class-Unterstützung
​​​​​​​für NVIDIA AI

Geschäftskritische KI-Projekte bleiben mit dem NVIDIA Enterprise Support auf Kurs. Dieser ist weltweit verfügbar und unterstützt sowohl IT-Teams bei der Implementierung und Verwaltung von KI als auch Entwicklerteams bei der Erstellung von KI-Anwendungen.

Schnellere Umsetzung von KI-basierten Geschäftswerten

Herausragende Entwicklungswerkzeuge, Frameworks und vorgefertigte Modelle für KI-Experten sowie eine zuverlässige Verwaltung und Orchestrierung für IT-Experten gewährleisten eine starke Leistung, hohe Verfügbarkeit und Sicherheit.

VMWARE oder RED HAT + NVIDIA KI-FÄHIGE PLATTFORM

NVIDIA AI Enterprise Schichtmodell

NVIDIA AI Enterprise

End-to-End-Plattform für Produktions-KI
NVIDIA AI Enterprise Schichtmodell

NVIDIA EGX-Plattform

Entdecken Sie die Plattform, die das Rechenzentrum vereinheitlicht und
​​​​​​​beschleunigtes Computing für jedes Unternehmen ermöglicht.
MEHR ERFAHREN

NVIDIA KI Workflow-Lösungen

NVIDIA KI-Workflows umfassen NVIDIA KI-Frameworks und vortrainierte Modelle sowie Ressourcen wie Helm-Diagramme und Dokumentation, um Ihnen den Einstieg in die Entwicklung von KI-Lösungen zu erleichtern. Reduzieren Sie die Entwicklungszeit, senken Sie die Kosten, verbessern Sie die Genauigkeit und Leistung und haben Sie mehr Vertrauen in die KI-Ergebnisse mit den Workflows von NVIDIA AI Enterprise, unterstützt von NVIDIA KI-Experten.

Intelligente virtuelle Assistenten

Engagierte Contact Center Assistance 24/7.
Bieten Sie intelligente virtuelle Unterstützung zu jeder Tages- und Nachtzeit bei geringeren Betriebskosten, während Sie gleichzeitig Zeit für Ihre menschlichen Contact Center-Agenten freimachen. Erweitern Sie Ihren Kundensupport mit intelligenten virtuellen Assistenten, die personalisierte und präzise Antworten mit natürlich klingenden Stimmen liefern und Kunden mit unterschiedlichen Akzenten und Dialekten verstehen, unabhängig davon, ob sie in lauten Umgebungen oder mit schlechter Sprachqualität sprechen. Nutzen Sie Gesprächsprotokolle in Echtzeit, um rechtliche Anforderungen zu erfüllen, und führen Sie Offline-Analysen durch, um Ihre Produkte und Dienstleistungen weiter zu verbessern.

Audio-Transkription

Erstklassige, präzise Speech-to-Text.
Profitieren Sie von erstklassigen, präzisen Transkripten aus der automatischen Spracherkennung von NVIDIA, die auf GPU-optimierten Modellen basiert, die für jeden Bereich und jede Einsatzplattform vollständig anpassbar sind. Ermöglichen Sie ein besseres Verständnis, die Einbeziehung von Teilnehmern, kontextbezogene Erkenntnisse und Stimmungsanalysen auf der Grundlage modernster Echtzeitgenauigkeit. Nach Abschluss der Gespräche können Sie die Transkripte für die Offline-Marktsegmentierung verwenden, um Ihre Produkte zu verbessern, und für eine qualitativ hochwertige Gesprächsanalyse, um Ihre Contact Center-Agenten besser zu schulen und schneller einzubinden.

Digitaler Fingerabdruck
zur Erkennung von Anomalien

Erkennung von Cybersecurity-Bedrohungen
​​​​​​​in großem Maßstab.

Erzielen Sie eine 100-prozentige Datentransparenz und erstellen Sie eindeutige Fingerabdrücke von jedem Benutzer, Dienst, Konto und Gerät im gesamten Netzwerk, um anomales Verhalten zu erkennen. Intelligente Warnmeldungen mit umsetzbaren Informationen verkürzen die Zeit bis zur Erkennung von Wochen auf Minuten und ermöglichen es Sicherheitsanalysten, Bedrohungen schneller zu erkennen und darauf zu reagieren. Durch den Einsatz von unüberwachtem Lernen ermöglicht der digitale Fingerabdruck-Workflow die Erkennung von Bedrohungen in einem Umfang, der bisher nicht möglich war.

Enthält bewährte Software für die KI-Entwicklung

Beschleunigung der Datenaufbereitung

Mit NVIDIA RAPIDS™ können Unternehmen eine bis zu 70-mal schnellere Leistung und eine bis zu 20-mal höhere Kosteneffizienz als bei vergleichbaren reinen CPU-Konfigurationen erzielen.

Training im großen Maßstab

Mit dem NVIDIA TAO Toolkit erstellen Sie individuelle, produktionsreife KI-Modelle in wenigen Stunden statt Monaten durch Feinabstimmung der von NVIDIA vortrainierten Modelle - ohne KI-Expertise oder große Trainingsdatensätze.

Optimiert für Inferenz

Mit NVIDIA® TensorRT™ arbeiten Anwendungen bei der Inferenz bis zu 40-mal schneller als reine CPU-Plattformen. Mit TensorRT können Sie neuronale Netzwerkmodelle optimieren, die in allen wichtigen Frameworks trainiert wurden.

Bereitstellung in großen Maßstab 

Mit NVIDIA Triton™ Inference Server vereinfachen und optimieren Sie die Bereitstellung von KI-Modellen im großen Maßstab und in der Produktion.

VORTEILE

OPTIMIERT FÜR LEISTUNG

Erzielen Sie nahezu Bare-Metal-Leistung über mehrere Knoten hinweg, um große, komplexe Trainings- und maschinelle Lernlasten zu ermöglichen.

ZERTIFIZIERT FÜR RED HAT UND VMWARE VSPHERE

Verringern Sie das Bereitstellungsrisiko mit einer vollständigen Suite von NVIDIA KI-Software, die für VMware- und Red Hat-Rechenzentren zertifiziert ist.

NVIDIA-UNTERSTÜTZUNG FÜR UNTERNEHMEN

Sorgen Sie dafür, dass unternehmenskritische KI-Projekte mit dem Support von NVIDIA auf Unternehmensebene auf Kurs bleiben.

FLEXIBILITÄT DURCH RED HAT OPENSHIFT

Diese gemeinsame Lösung von NVIDIA und Red Hats gibt Datenwissenschaftlern die Flexibilität, ML-Tools in Containern zu verwenden, um ihre ML-Modellierungsergebnisse schnell zu erstellen, zu skalieren, zu replizieren und zu teilen.

KI BEREIT FÜR JEDE ARBEITSBELASTUNG

Mit NVIDIA RAPIDS™ erreichen Unternehmen eine bis zu 70-mal schnellere Leistung und eine bis zu 20-mal bessere Kosteneffizienz als bei vergleichbaren reinen CPU-Konfigurationen. So können Sie KI mit der Unterstützung von NVIDIA KI-Experten auf einer bestehenden Infrastruktur implementieren.

UNTERSTÜTZUNG FÜR NEUE NVIDIA-HARDWARE

Unterstützung für neue NVIDIA-Hardware, darunter die konvergenten NVIDIA A100X- und A30X-Beschleuniger, die schnellere, effizientere und sicherere KI-Systeme ermöglichen, sowie der NVIDIA A2-Grafikprozessor für platzbeschränkte Umgebungen.

NEUE AKTUALISIERTE NVIDIA KI CONTAINER

Das NVIDIA TAO Toolkit und der aktualisierte Triton Inference Server mit FIL optimieren die KI-Entwicklung und -Bereitstellung weiter. Das NVIDIA TAO Toolkit beschleunigt die KI-Entwicklung um das 10-fache, ohne dass KI-Fachwissen erforderlich ist, und der aktualisierte NVIDIA Triton Inference Server unterstützt jetzt ein FIL (Forest Inference Library) Backend, das die beste Inferenzleistung für neuronale Netze und baumbasierte Modelle auf GPUs bietet und eine vereinfachte Bereitstellung großer Baummodelle auf GPUs mit geringer Latenz und hoher Genauigkeit ermöglicht. NVIDIA® TensorRT™-basierte Anwendungen sind bei der Inferenz bis zu 40 Mal schneller als reine CPU-Plattformen. Mit TensorRT können Sie neuronale Netzwerkmodelle, die in allen wichtigen Frameworks trainiert wurden, optimieren.

EINSATZ VON KI IN DER CLOUD

Unterstützung für NVIDIA AI Enterprise basierte Virtual Machine Images (VMIs) zur Verwendung in der Infrastruktur von Cloud Service Providern (CSP). Kunden, die die NVIDIA AI Enterprise-Software erworben haben, können jetzt mit voller Unterstützung von NVIDIA auf speziellen NVIDIA GPU-beschleunigten Cloud-Instanzen in AWS, Azure oder GCP-Instanzen bereitstellen.

Entwickelt für Cloud, Rechenzentrum und Edge

Unternehmen haben die Flexibilität, ihre NVIDIA KI-fähigen Lösungen in der Cloud, im
Rechenzentrum und im Edge-Bereich zu betreiben und so eine echte "develop-once-and-deploy-anywhere"-Erfahrung zu machen.
NVIDIA AI Enterprise ist für die Ausführung auf GPU-beschleunigten öffentlichen Cloud-Instanzen wie AWS, Azure, Google Cloud und Oracle Cloud Infrastructure zertifiziert und ermöglicht eine schnelle Entwicklung und Bereitstellung. Damit können Unternehmen eine Anwendung effizient einmal erstellen und auf jeder zertifizierten CSP-Plattform bereitstellen, was eine Multi- oder Hybrid-Cloud-Strategie kosteneffizient und einfach zu übernehmen macht.
Die für Unternehmensplattformen wie VMware Cloud Foundation, Red Hat Enterprise Linux und HPE GreenLake optimierte und zertifizierte NVIDIA AI Enterprise Software-Suite umfasst Cloud-native Bereitstellungs- und Infrastruktur-Optimierungsfunktionen, um eine skalierbare, flexible Hybrid-Cloud-Infrastruktur zu ermöglichen, die die Erstellung, gemeinsame Nutzung und Bereitstellung von KI-Anwendungen vereinfacht.
Die Entwicklung von KI wird häufig in Container- und virtualisierten Umgebungen durchgeführt, um Portabilität, Effizienz und Skalierbarkeit zu erreichen. NVIDIA AI Enterprise ist für die Ausführung von KI-Workloads auf Mainstream-Container-Plattformen wie VMware Tanzu und Red Hat OpenShift zertifiziert, um eine Vielzahl von KI-Anwendungsfällen in Hybrid- oder Multi-Cloud-Umgebungen zu beschleunigen.
NVIDIA DGX Systeme bieten die weltweit führende Lösung für eine skalierbare KI-Infrastruktur für Unternehmen. Das DGX Software-Paket umfasst NVIDIA AI Enterprise für eine optimierte KI-Entwicklung und -Bereitstellung sowie Enterprise-Support.

Mit dem NVIDIA-Certified System Programm können Unternehmen leistungsoptimierte, unternehmenstaugliche Hardwarelösungen für ihre beschleunigten Datenverarbeitungsprozesse auswählen.

NVIDIA AI Enterprise wird auf NVIDIA-zertifizierten Systemen unterstützt.

Beschleunigen Sie Ihre KI-Entwicklung mit NVIDIA LaunchPad

Erhalten Sie sofortigen Zugang auf KI von NVIDIA mit kostenlosen praktischen Übungen -
​​​​​​​von KI-gesteuerten Chatbots mit Triton Inference Server, bis hin zur Bildklassifizierung mit TensorFlow und mehr.
Terminologie
HINWEIS
BEDEUTUNG
Unterstützungsdienste
Einschließlich technischer Unterstützung, Upgrade und Wartung.
Unbegrenzte Lizenz
Eine nicht auslaufende, permanente Softwarelizenz, die auf Dauer genutzt werden kann, ohne dass sie erneuert werden muss. Support-Services sind erforderlich und werden in Drei- oder Fünfjahresschritten angeboten. Support-Services für ein Jahr sind nur für Verlängerungen verfügbar.
Abonnement
Eine Softwarelizenz, die für einen bestimmten, in den Abonnementbedingungen festgelegten Zeitraum aktiv ist. Eine Subskription umfasst Supportleistungen für die Dauer der Subskriptionslaufzeit.
Lizenz-Server
Eine Anwendung, die die Lizenzierung verwaltet und auf einem physischen oder virtuellen Server installiert ist.
GPU
Grafikverarbeitungseinheit
CPU
Die Zentraleinheit (CPU) eines Computers ist der Teil des Computers, der Anweisungen abruft und ausführt.
CPU-Sockel-Lizenzierung
(1) Bei On-Premise-Implementierungen die Anzahl der physischen Prozessoren in der Computerumgebung, auf der NVIDIA AI Enterprise installiert ist, oder (2) in einer Cloud-Computing-Umgebung die Anzahl der virtuellen CPUs für die Computerinstanz, auf der NVIDIA AI Enterprise ausgeführt wird. NVIDIA benötigt eine Lizenz pro CPU-Sockel.
NVIDIA Virtual GPU Software Lizenzierte Produkte
PRODUKT
BESCHREIBUNG
Virtuelle NVIDIA-Anwendungen (vApps)l
Für Unternehmen, die virtuelle Anwendungen und Desktops von Citrix, RDSH oder andere App-Streaming- oder sitzungsbasierte Lösungen
verwenden.Entwickelt für Anwendungen auf PC-Ebene und serverbasierte Desktops.
NVIDIA Virtueller PC (vPC)
Für Benutzer, die einen virtuellen Desktop, sondern eine große PC-Windows-Anwendungen, Browsern und High-Definition-Video wollen.
NVIDIA RTX™ Virtuelle Arbeitsstation (vWS)
Für Benutzer, die in der Lage sein wollen, professionelle Remote-Grafikanwendungen mit voller Leistung auf jedem Gerät und überall zu nutzen
NVIDIA Virtual Compute Server (vCS)
Für rechenintensive Server-Workloads wie künstliche Intelligenz (AI), Deep Learning oder High-Performance Computing (HPC).
Unterstützte NVIDIA-GPUs, die für Rechenlasten optimiert sind
Nvidia A16 imageNvidia A16 imageNvidia A16 imageNvidia A30 image
GPU CARD
L40
H100
A100
A30
Streaming Multiprocessors
142
114
108
56
Tensor Cores
568
456
432
56
CUDA Cores
8.9
9.0
6912
3804
RayTracing Cores
142
-
108
64
Texture Mapping Unit
568
456
432
224
Render Output Unit
192
-
160
96
Base Clock (MHz)
735 MHz
1095 MHz
765 MHz
930 MHz
Boost Clock (MHz)
2490 MHz
1755 MHz
1410 MHz
1440 MHz
Memory Clock
2250 MHz 18 Gbps effective
1593 MHz 3.2 Gbps effective
1215 MHz
1215 MHz
Total Video Memory
48 GB HBM2e
80 GB HBM2e
80 GB HBM2e
24 GB GDDR6
Memory Interface
384 bit
5120 bit
5120 bit
384-bit
Total Memory Bandwidth
864.0 GB/s
2,039 GB/s
1,555 GB/s
933.1 GB/s
ECC Memory
Yes
Yes
Yes
Yes
Pixel Rate
478.1 GPixel/s
42.12 GPixel/s
225.6 GPixel/s
138.2 GPixel/s
Texture Rate
1,414 GTexel/s
800.3 GTexel/s
609.1 GTexel/s
322.6 GTexel/s
FP16 / FP32 / FP64
in TFLOPS
90.52 / 90.52  / 1,414 GFLOPS
204.9  / 51.22  / 25.61
77.97  / 19.49  / 9.746 (GFLOPS)
10.32 / 10.32 / 5.161
Fabrication Process
4 nm
4 nm
7 nm
7 nm
Transistor Count
76,300 million
80,000 million
54,200 million
54,200 million
Connectors
4x DisplayPort 1.4a
No outputs
No outputs
No outputs
Form Factor
Dual Slot
Dual Slot
Dual Slot
Dual Slot
Power Connectors
1x 16-pin
1x 16-pin
8-pin EPS
8-pin EPS
ZUM PRODUKT
L40H100A100A30
Unterstützte NVIDIA-GPUs, optimiert für gemischte Rechenlasten
Nvidia A16 imageNvidia A16 imageNvidia A40 imageNvidia A10 imageNvidia A2 image
GPU CARD
L40
A16
A40
A10
A2
Streaming Multiprocessors
142
10 x 4
84
72
10
Tensor Cores
568
40 x 4
336
288
40
CUDA Cores
8.9
1280 x 4
10,752
9216
2560
RayTracing Cores
142
10 x 4
84
72
10
Texture Mapping Unit
568
40 x 4
336
192
40
Render Output Unit
192
32 x 4
112
288
32
Base Clock (MHz)
735 MHz
885 MHz
1305 MHz
885 MHz
1440 MHz
Boost Clock (MHz)
2490 MHz
1695 MHz
1740 MHz
1695 MHz
1770 MHz
Memory Clock
2250 MHz 18 Gbps effective
1812 MHz
1812 MHz
1563 MHz
1563 MHz
Total Video Memory
48 GB HBM2e
16 GB GDDR6 x 4 (64 GB)
48 GB GDDR6
24 GB GDDR6
16 GB GDDR6
Memory Interface
384 bit
128-bit x 4
384-bit
384 bit
128 bit
Total Memory Bandwidth
864.0 GB/s
231.9 GB/s x 4
695.8 GB/s
600.2 GB/s
200.1 GB/s
ECC Memory
Yes
Yes
Yes
Yes
Yes
Pixel Rate
478.1 GPixel/s
54.24 x 4 GPixel/s
194.9 GPixel/s
162.7 GPixel/s
56.64 GPixel/s
Texture Rate
1,414 GTexel/s
67.80 x 4 GTexel/s
584.6 GTexel/s
488.2 GTexel/s
70.80 GTexel/s
FP16 / FP32 / FP64
in TFLOPS
90.52 / 90.52  / 1,414 GFLOPS
4.339 x 4  / 4.339 x 4  / 135.6 x 4 (GFLOPS)
37.42  / 37.42  / 1,169 (GFLOPS)
31.24 / 31.24 / 976.3
4.531  / 4.531​​​​​​​ / 70.80
Fabrication Process
4 nm
8 nm
8 nm
8 nm
8 nm
Transistor Count
76,300 million
-
28,300 million
28,300 million
-
Connectors
4x DisplayPort 1.4a
No outputs
3x DisplayPort
No outputs
No outputs
Form Factor
Dual Slot
Dual Slot
Dual Slot
Single Slot
Single Slot
Power Connectors
1x 16-pin
8-pin EPS
8-pin EPS
8-pin EPS
8-pin EPS
ZUM PRODUKT
L40A16A40A10A2
Allgemeine Informationen zur Beschaffung
ELIGIBILITÄT
NVIDIA vGPU PRODUKTION SUMMEN
Wartung
Zugriff auf alle Wartungsversionen, Fehlerbehebungen und Sicherheitspatches für flexible Upgrades in Übereinstimmung mit der NVIDIA VirtualGPU Software Lifecycle Policy.
Upgrades
Zugang zu allen neuen Hauptversionen mit Funktionserweiterungen, Ergänzungen und
neuer Hardware-Unterstützung
Langfristige Instandhaltung von Zweigstellen
Bis zu 3 Jahre ab allgemeiner Verfügbarkeit gemäß der NVIDIAVirtual GPU Software Lifecycle Policy
verfügbar
Direkte Unterstützung
Direkter Zugang zum NVIDIA-Support für die zeitnahe Lösung kundenspezifischer Probleme.
Verfügbarkeit der Unterstützung
Kundensupport während der normalen Geschäftszeiten verfügbar Cases 24 × 7 akzeptiert.
Zugang zur Wissensdatenbank

Web-Unterstützung
E-Mail-Unterstützung
Telefonische Unterstützung