DAS HERZSTÜCK VON KI UND HPC IM MODERNEN RECHENZENTRUM

Lösung der wichtigsten wissenschaftlichen, industriellen und geschäftlichen Herausforderungen der Welt mit KI und HPC. Visualisierung komplexer Inhalte, um innovative Produkte zu entwickeln, spannende Geschichten zu erzählen und die Städte der Zukunft neu zu erfinden. Gewinnung neuer Erkenntnisse aus riesigen Datensätzen. Die NVIDIA Ampere Architektur, die für das Zeitalter des Elastic Computing entwickelt wurde, meistert all diese Herausforderungen und bietet unübertroffene Beschleunigung in jedem Maßstab.

​​​​​​​NVIDIA GPU und konvergierte Beschleuniger von NVIDIA wurden speziell für die Bereitstellung in großem Maßstab entwickelt und bringen Netzwerke, Sicherheit und geringen Platzbedarf in die Cloud, das Rechenzentrum und die Edge.

BAHNBRECHENDE INNOVATIONEN

Die NVIDIA Ampere-Architektur umfasst 54 Milliarden Transistoren und ist der größte 7-Nanometer-(nm-)Chip,
​​​​​​​der je gebaut wurde. Zudem bietet er sechs bahnbrechende Innovationen.

TENSOR-RECHENEINHEITEN DER DRITTEN GENERATION

Mit der ersten Einführung bei der NVIDIA Volta™-Architektur hat die Technologie der NVIDIA Tensor-Recheneinheiten KI drastisch beschleunigt, wodurch die Trainingszeiten von mehreren Wochen auf wenige Stunden gesenkt und die Inferenz massiv beschleunigt wurde. Die NVIDIA Ampere-Architektur baut auf diesen Innovationen auf und ermöglicht neue Präzisionsniveaus – Tensor Float 32 (TF32) und Gleitkomma 64 (FP64) –, um die KI-Akzeptanz zu beschleunigen und zu vereinfachen sowie die Leistung von Tensor-Recheneinheiten auf HPC auszudehnen.

TF32 funktioniert genau wie FP32 und liefert bis zu 20-mal mehr Leistung für KI, ohne dass Code geändert werden muss. Mit NVIDIA Automatic Mixed Precision können Forscher dank automatischer Mixed-Precision und FP16 ihre Leistung zusätzlich verdoppeln und müssen dafür nur einige Codezeilen hinzufügen. Durch Unterstützung von bfloat16, INT8 und INT4 werden Tensor-Recheneinheiten von NVIDIA Tensor-Core-Grafikprozessoren mit Ampere-Architektur zu einem unglaublich vielseitigen Beschleuniger für KI-Training und Inferenz. Mit der Leistung von Tensor-Recheneinheiten für HPC ermöglichen A100- und A30-GPUs zudem Matrixoperationen in vollständiger, IEEE-zertifizierter FP64-Präzision. 

MEHR ERFAHREN ÜBER TENSOR-RECHENEINHEITEN

MEHR-INSTANZEN-GRAFIKPROZESSOR (MIG)

Jede KI- und HPC-Anwendung kann von Beschleunigung profitieren, aber nicht jede Anwendung benötigt die Leistung eines ganzen Grafikprozessors. Der Mehr-Instanzen-Grafikprozessor (MIG) ist eine Funktion, die auf A100- und A30-GPUs die gemeinsame Nutzung des Grafikprozessors durch mehrere Workloads ermöglicht. Mit MIG kann jede GPU in mehrere Grafikprozessorinstanzen aufgeteilt werden, die auf Hardwareebene sicher und vollständig isoliert ausgeführt werden und über eigene Speicher-, Cache- und Rechnereinheiten mit hoher Bandbreite verfügen. Entwickler können nun auf bahnbrechende Beschleunigung für alle großen und kleinen Anwendungen zugreifen und garantiert Servicequalität erhalten. Außerdem können IT-Administratoren eine passende Grafikprozessorbeschleunigung für die optimale Auslastung anbieten und den Zugriff auf alle Benutzer und Anwendungen sowohl in Bare-Metal als auch in virtualisierten Umgebungen erweitern.

MEHR ERFAHREN ÜBER MIG

NVLINK DER DRITTEN GENERATION

Für die Skalierung von Anwendungen auf mehreren Grafikprozessoren ist eine extrem schnelle Datenverlagerung erforderlich. Die dritte Generation von NVIDIA® NVLink® in der NVIDIA Ampere-Architektur verdoppelt die direkte Bandbreite zwischen Grafikprozessoren auf 600 Gigabyte pro Sekunde (GB/s). Diese ist somit fast 10-mal höher als bei PCIe Gen4. In Kombination mit NVIDIA NVSwitch™ der neuesten Generation können alle Grafikprozessoren auf dem Server mit voller NVLink-Geschwindigkeit miteinander kommunizieren und Daten extrem schnell übertragen.

NVIDIA DGX™ A100 und Server von anderen führenden Computerherstellern nutzen NVLink- und NVSwitch-Technologien über NVIDIA HGX™ A100-Baseboards für höhere Skalierbarkeit bei HPC- und KI-Workloads.

MEHR ERFAHREN ÜBER TENSOR-RECHENEINHEITEN

STRUKTURELLE GERINGE DICHTE

Moderne KI-Netzwerke sind groß und werden immer größer – mit Millionen und in einigen Fällen Milliarden von Parametern. Nicht alle dieser Parameter sind für genaue Vorhersagen und Inferenz erforderlich und einige können in Nullen konvertiert werden, sodass die Modelle eine „geringe Dichte“ aufweisen, ohne dass die Genauigkeit beeinträchtigt wird. Tensor-Recheneinheiten können bis zu 2-mal mehr Leistung bei Sparse-Modellen erzielen. Auch wenn das Sparse-Feature der KI-Inferenz dient, kann es auch verwendet werden, um die Leistung des Modelltrainings zu verbessern.

MEHR ERFAHREN

RT-RECHENEINHEITEN DER ZWEITEN GENERATION

Die RT-Recheneinheiten der zweiten Generation der NVIDIA Ampere-Architektur in NVIDIA A40- und A10-GPUs steigern die Geschwindigkeit von Workloads wie dem fotorealistischen Rendering von Filminhalten, der Beurteilung architektonischer Designs und dem virtuellen Prototyping von Produktdesigns enorm. RT-Recheneinheiten beschleunigen zudem das Rendering der Bewegungsunschärfe mit Raytracing, für schnellere Ergebnisse mit größerer visueller Genauigkeit, und können gleichzeitig Raytracing mit Schattierungen oder Denoising ausführen.

MEHR ERFAHREN ÜBER RAYTRACING

INTELLIGENTERER, SCHNELLERER SPEICHER

A100 erweitert Rechenzentren um massive Rechenkapazität. Um die volle Auslastung dieser Rechenkapazitäten zu gewährleisten, verfügt sie über eine sensationelle Speicherbandbreite von 2 Terabyte pro Sekunde (TB/s), eine Verdopplung gegenüber der Vorgängergeneration. Außerdem verfügt die A100 über deutlich größeren integrierten Speicher, darunter einen Level-2-Cache mit 40 Megabyte (MB) – das Siebenfache der vorherigen Generation –, um die Rechenleistung zu maximieren.

NVIDIA Data Center GPUs ermöglichen Forschern, reale Ergebnisse zu liefern und Lösungen in großem Umfang in der Produktion EInzusetzen

Professionelle NVIDIA® Grafikprozessoren ermöglichen alles - von beeindruckendem Industriedesign über fortschrittliche Spezialeffekte bis hin zu komplexer wissenschaftlicher Visualisierung - und gelten als die weltweit führende Plattform für visuelles Computing. Millionen von kreativen und technischen Fachleuten vertrauen bei der Beschleunigung ihrer Workflows auf NVIDIAs professionelle Grafikprozessoren. Nur sie verfügen über das fortschrittlichste Ökosystem aus Hardware, Software, Tools und ISV-Support, um die Herausforderungen von heute in die Erfolgsgeschichten von morgen zu verwandeln.

​​​​​​​NVIDIA-zertifizierte Systeme mit den NVIDIA A2, A30 und A100 Tensor-Core-GPUs und NVIDIA AI - einschließlich des NVIDIA Triton Inference Server, einer Open-Source-Software für Inferenzdienste - bieten eine bahnbrechende Inferenzleistung für Edge, Rechenzentrum und Cloud. Sie stellen sicher, dass KI-fähige Anwendungen mit weniger Servern und weniger Stromverbrauch bereitgestellt werden können, was zu einfacheren Implementierungen und schnelleren Erkenntnissen bei deutlich geringeren Kosten führt.

NVIDIA A2

Die NVIDIA A2 Tensor Core GPU bietet Inferenzen der Einstiegsklasse mit geringem Stromverbrauch, kleinem Platzbedarf und hoher Leistung für intelligente Videoanalyse (IVA) oder NVIDIA AI at the Edge. Mit einer flachen PCIe Gen4-Karte und einer niedrigen konfigurierbaren Thermal Design Power (TDP) von 40-60 Watt bringt die A2 vielseitige Inferenzbeschleunigung auf jeden Server.

Die Vielseitigkeit, die kompakte Größe und der niedrige Stromverbrauch der A2 übertreffen die Anforderungen für Edge-Implementierungen im großen Maßstab, so dass vorhandene CPU-Server der Einstiegsklasse sofort für Inferenzen aufgerüstet werden können. Mit A2-GPUs beschleunigte Server bieten eine bis zu 20-mal höhere Inferenzleistung im Vergleich zu CPUs und 1,3-mal effizientere IVA-Implementierungen als frühere GPU-Generationen - und das zu einem Einstiegspreis.

NVIDIA A30

Bringen Sie mit NVIDIA A30 Tensor Core GPUs beschleunigte Leistung für alle Unternehmens-Workloads. Mit den Tensor-Cores der NVIDIA Ampere-Architektur und den Multi-Instance-GPUs (MIG) bietet er sichere Geschwindigkeitssteigerungen bei verschiedenen Workloads, einschließlich KI-Inferenz im großen Maßstab und HPC-Anwendungen (High Performance Computing). Durch die Kombination von schneller Speicherbandbreite und geringem Stromverbrauch in einem PCIe-Formfaktor, der für Mainstream-Server optimiert ist, ermöglicht der A30 ein elastisches Rechenzentrum und bietet Unternehmen maximalen Nutzen.

Der NVIDIA A30 Tensor Core Grafikprozessor bietet eine vielseitige Plattform für Mainstream-Workloads in Unternehmen, wie KI-Inferenz, Training und HPC. Mit TF32- und FP64-Tensor-Core-Unterstützung sowie einem durchgängigen Software- und Hardware-Lösungsstack sorgt der A30 dafür, dass Mainstream-KI-Trainings- und HPC-Anwendungen schnell bewältigt werden können. Multi-instance GPU (MIG) gewährleistet die Servicequalität (QoS) mit sicheren, hardware-partitionierten GPUs in der richtigen Größe für alle diese Arbeitslasten für verschiedene Benutzer und nutzt die GPU-Rechenressourcen optimal.

NVIDIA A16

Beispiellose Benutzerfreundlichkeit und Dichte für grafikintensive VDI
Mit NVIDIA A16, dem idealen Grafikprozessor für VDI mit hoher Benutzerdichte und Grafikleistung, erreichen Sie eine neue Dimension der Remote-Arbeit. Die A16 basiert auf der neuesten NVIDIA Ampere-Architektur und wurde speziell für höchste Benutzerdichte entwickelt, mit bis zu 64 gleichzeitigen Benutzern pro Board in einem Dual-Slot-Formfaktor. In Kombination mit der NVIDIA Virtual PC (vPC) Software bietet sie die nötige Leistung, um jedes Projekt von überall aus in Angriff zu nehmen. Basierend auf der NVIDIA Ampere-Architektur bietet der A16 eine doppelt so hohe Benutzerdichte wie die Vorgängergeneration und gewährleistet gleichzeitig ein optimales Benutzererlebnis.

NVIDIA A100 - 80GB

leistungsstärksten elastischen Rechenzentren für KI-, Datenanalyse- und High-Performance-Computing (HPC)-Anwendungen. Als Motor der NVIDIA-Rechenzentrumsplattform bietet der A100 eine bis zu 20-fach höhere Leistung als die vorherige NVIDIA Volta-Generation. A100 kann effizient skaliert oder in sieben isolierte GPU-Instanzen partitioniert werden, wobei Multi-Instance GPU (MIG) eine einheitliche Plattform bietet, die es elastischen Rechenzentren ermöglicht, sich dynamisch an wechselnde Workload-Anforderungen anzupassen.

A100 ist Teil der kompletten NVIDIA-Rechenzentrumslösung, die Bausteine für Hardware, Netzwerke, Software, Bibliotheken und optimierte KI-Modelle und -Anwendungen von NGC umfasst. Als leistungsstärkste End-to-End-KI- und HPC-Plattform für Rechenzentren ermöglicht sie es Forschern, reale Ergebnisse zu liefern und Lösungen in großem Umfang in der Produktion einzusetzen, während die IT-Abteilung die Nutzung jeder verfügbaren A100-GPU optimieren kann.

KONVERGIERTE BESCHLEUNIGUNG AN DER PERIPHERIE

Die Kombination der NVIDIA Ampere-Architektur mit NVIDIA BlueField®-2 Datenverarbeitungseinheiten (DPU) in konvergierten Beschleunigern von NVIDIA bietet eine beispiellose Rechen- und Netzwerkbeschleunigung zur Verarbeitung der riesigen Datenmengen, die im Rechenzentrum und in der Edge generiert werden. BlueField-2 kombiniert die Leistung des NVIDIA  ConnectX®-6 Dx mit programmierbaren Arm-Kernen und Hardwareentlastungen für softwaredefinierte Speicher-, Netzwerk-, Sicherheits- und Verwaltungsworkloads. Mit konvergierten Beschleunigern von NVIDIA können Kunden datenintensive Edge- und Rechenzentrums-Workloads mit maximaler Sicherheit und Leistung ausführen.

SICHERE IMPLEMENTIERUNG

Sichere Implementierungen sind für den Geschäftsbetrieb von Unternehmen von entscheidender Bedeutung. Die NVIDIA Ampere-Architektur bietet optional sicheres Booten durch vertrauenswürdige Codeauthentifizierung und bewährten Rollback-Schutz, um sich vor böswilligen Malware-Angriffen zu schützen, Betriebsverluste zu verhindern und Workloads zu beschleunigen.

EINBLICK IN DIE NVIDIA AMPERE-ARCHITEKTUR

Entdecken Sie die neuesten Technologien der Architektur und die gesamte zugehörige Grafikprozessor-Reihe.