Explore Breakthroughs

in AI, Accelerated Computing, and Beyond from NVIDIA GTC
In der sich ständig wandelnden Welt der Technologie gibt es Veranstaltungen, die weit über den Horizont hinausragen und die Zukunft maßgeblich gestalten. Eine solche Veranstaltung ist die NVIDIA GPU Technology Conference (GTC), ein jährliches Ereignis, das Technologiebegeisterte, Forscher, Entwickler und Führungskräfte aus aller Welt zusammenbringt, um die neuesten Innovationen und Trends im Bereich der Grafikprozessoren (GPUs) zu erkunden.

Wir von sysGen sind am Start und berichten hier über die Highlights und was als Nächstes kommt. Bleiben Sie am Ball und verpassen Sie keine wichtige Information rund um den Einsatz von künstlicher Intelligenz (KI), beschleunigtes Computing und vieles mehr.
Die GTC-Keynote von Jensen Huang im SAP Center in San Jose, Kalifornien, bot einen faszinierenden Einblick in die Zukunft der künstlichen Intelligenz. Als langjähriger Partner von NVIDIA verfolgten wir von sysGen gespannt die Enthüllungen und Innovationen, die auf dieser Bühne präsentiert wurden. 

GTC Developer Conference

March 18-21, 2024
Keynote March 18
Erfahren Sie, was die neuesten Veränderungen in Forschung, Industrie und Wirtschaft vorantreibt - von kollaborativen virtuellen Welten und fortschrittlicher Grafik bis hin zu Data Science, Gesundheitswesen und anderen wichtigen Anwendungen.
GTC24 Keynote

GTC 2024 - HiGHLIGHTS

NVIDIA Blackwell


Die neueste Enthüllung von NVIDIA, Blackwell, verspricht eine wegweisende Entwicklung in der Welt der künstlichen Intelligenz. Mit der Größe von 208 Milliarden Transistoren, die auf einem einzigen Chip vereint sind, markiert Blackwell einen bedeutenden Fortschritt gegenüber früheren Generationen von GPUs. Diese "AI-Superchip" setzt einen neuen Maßstab für Leistung und Effizienz und wird zweifellos eine Schlüsselrolle in der bevorstehenden industriellen Revolution spielen. Angesichts der steigenden Nachfrage nach leistungsfähigeren und skalierbaren Modellen für komplexe KI-Anwendungen kommt die Ankündigung von Blackwell genau zum richtigen Zeitpunkt, um die Grenzen der Technologie weiter zu verschieben.

​​​​​​​Blackwell bietet auch sichere KI mit einem zu 100% im System selbsttestenden RAS-Service und vollständiger Leistungsverschlüsselung - mit Daten, die nicht nur während der Übertragung, sondern auch im Ruhezustand und während der Berechnung geschützt sind.
​​​​​​​

NVIDIA Blackwell ist speziell für generative KI-Modelle mit Billionen von Parametern konzipiert, daher überrascht es nicht, dass es Hopper in Bezug auf Inferenzleistung übertrifft - mit einer bis zu 30-fach größeren Ausgabe.

Diese Systeme werden laut Huang massive GPT-ähnliche Modelle trainieren, wobei Tausende von GPUs für eine enorme Rechenleistung zusammenkommen - und das bei vergleichsweise niedrigem Energieverbrauch.

Wenn es jedoch um Inferenz (d.h. Generierung/LLMs) geht, können Blackwell-betriebene Einheiten laut Huang auch die Rechenkosten und den Energiebedarf senken.


Blackwell-Innovationen für beschleunigtes Rechnen und generative KI
Zu den sechs revolutionären Technologien von Blackwell, die zusammen KI-Training und LLM-Inferenz in Echtzeit für Modelle mit bis zu 10 Billionen Parametern ermöglichen, gehören:

  • Der leistungsstärkste Chip der Welt - Die mit 208 Milliarden Transistoren bestückten GPUs der Blackwell-Architektur werden in einem speziell entwickelten 4NP-TSMC-Prozess mit GPU-Dies mit zwei Reticle-Limits hergestellt, die über eine Chip-to-Chip-Verbindung mit 10 TB/Sekunde zu einer einzigen, einheitlichen GPU verbunden sind.
  • Transformer Engine der zweiten Generation - Dank der neuen Unterstützung für die Skalierung von Mikrotensoren und der fortschrittlichen Algorithmen von NVIDIA zur Verwaltung des dynamischen Bereichs, die in die Frameworks NVIDIA TensorRT™-LLM und NeMo Megatron integriert sind, unterstützt Blackwell die doppelte Rechen- und Modellgröße mit neuen 4-Bit-Gleitkomma-KI-Inferenzfunktionen.
  • NVLink der fünften Generation - Um die Leistung für KI-Modelle mit mehreren Millionen Parametern und Expertenmischungen zu beschleunigen, liefert die neueste Iteration von NVIDIA NVLink® einen bahnbrechenden bidirektionalen Durchsatz von 1,8 TB/s pro Grafikprozessor und gewährleistet eine nahtlose Hochgeschwindigkeitskommunikation zwischen bis zu 576 Grafikprozessoren für die komplexesten LLMs.
  • RAS-Engine - Blackwell-GPUs verfügen über eine spezielle Engine für Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit. Darüber hinaus bietet die Blackwell-Architektur auf Chipebene die Möglichkeit, eine KI-basierte präventive Wartung zu nutzen, um Diagnosen durchzuführen und Zuverlässigkeitsprobleme vorherzusagen. Dies maximiert die Systembetriebszeit und verbessert die Ausfallsicherheit für KI-Implementierungen im großen Maßstab, so dass diese wochen- oder sogar monatelang unterbrechungsfrei laufen und die Betriebskosten gesenkt werden können.
  • Sichere KI - Erweiterte Funktionen für vertrauliches Computing schützen KI-Modelle und Kundendaten, ohne die Leistung zu beeinträchtigen, mit Unterstützung neuer nativer Schnittstellenverschlüsselungsprotokolle, die für datenschutzsensible Branchen wie das Gesundheitswesen und Finanzdienstleistungen entscheidend sind.
  • Dekomprimierungs-Engine - Eine spezielle Dekomprimierungs-Engine unterstützt die neuesten Formate und beschleunigt Datenbankabfragen, um die höchste Leistung in der Datenanalyse und Datenwissenschaft zu erzielen. In den kommenden Jahren wird die Datenverarbeitung, für die Unternehmen jährlich zweistellige Milliardenbeträge ausgeben, zunehmend durch GPUs beschleunigt werden.

NVIDIA B100 

Die Enthüllung von Grace-Blackwell, auch bekannt als "The Beast" GPU, markiert einen bedeutenden Meilenstein auf dem Gebiet der künstlichen Intelligenz. Die Basisversion, B100 (Blackwell), bildet das Fundament für diese bahnbrechende Plattform. Doch das eigentliche Superchip-Wunder liegt im GB200 (Grace-Blackwell), der zwei B100 GPU-Chips mit einem Grace CPU-Chip kombiniert. Mit einer beeindruckenden Leistungsfähigkeit von 4.1TFlops pro Quadratmillimeter und einer erstaunlichen Trainingsleistung von 90 Teraflops an 2000 Blackwells pro Chip, verspricht dieses GPU-Monstrum eine revolutionäre Leistungsfähigkeit. Einige der technischen Spezifikationen des "Basis"-B100-Chips umfassen eine AI-GPU mit 208 Milliarden Transistoren, ein MCM/Chiplet-Design und eine 2nd Gen Transformer Engine mit FP4/FP6 Tensor Core. Darüber hinaus bietet er eine beeindruckende Speicherkapazität von 192 GB HBM3e mit einer Übertragungsrate von 8 TB/s sowie Sicherheitsfunktionen wie Full Performance Encryption und eine dedizierte Decompression Engine.

A Massive Superchip NVIDIA GB200

Der NVIDIA GB200 Grace Blackwell Superchip verbindet zwei NVIDIA B200 Tensor Core GPUs mit der NVIDIA Grace CPU über einen 900GB/s Ultra-Low-Power NVLink Chip-to-Chip Interconnect.

Für höchste KI-Leistung können GB200-betriebene Systeme mit den ebenfalls heute angekündigten NVIDIA Quantum-X800 InfiniBand und Spectrum™-X800 Ethernet-Plattformen verbunden werden, die fortschrittliche Netzwerke mit Geschwindigkeiten von bis zu 800 Gb/s bieten.

Der GB200 ist eine Schlüsselkomponente des NVIDIA GB200 NVL72, einem flüssigkeitsgekühlten Mehrknoten-Racksystem für rechenintensive Workloads. Es kombiniert 36 Grace Blackwell Superchips, die 72 Blackwell GPUs und 36 Grace CPUs umfassen, die über NVLink der fünften Generation miteinander verbunden sind. Darüber hinaus enthält der GB200 NVL72 NVIDIA BlueField®-3 Datenverarbeitungseinheiten, um Cloud-Netzwerkbeschleunigung, Composable Storage, Zero-Trust-Sicherheit und GPU-Compute-Elastizität in Hyperscale AI Clouds zu ermöglichen. Der GB200 NVL72 bietet eine bis zu 30-fache Leistungssteigerung im Vergleich zur gleichen Anzahl von NVIDIA H100 Tensor Core GPUs für LLM-Inferenz-Workloads und reduziert Kosten und Energieverbrauch um das bis zu 25-fache.

Die Plattform fungiert als eine einzige GPU mit 1,4 Exaflops KI-Leistung und 30 TB schnellem Speicher und ist ein Baustein für den neuesten DGX SuperPOD.

NVIDIA bietet das HGX B200 an, ein Serverboard, das acht B200-GPUs über NVLink verbindet, um x86-basierte generative KI-Plattformen zu unterstützen. HGX B200 unterstützt Netzwerkgeschwindigkeiten von bis zu 400 Gb/s durch die NVIDIA Quantum-2 InfiniBand und Spectrum-X Ethernet Netzwerkplattformen.

NVILINK Switch Chip

Eine weitere beeindruckende Neuvorstellung ist der neue NVLink Switch Chip, der es ermöglicht, dass alle GPUs gleichzeitig miteinander kommunizieren können.

Er findet Platz im neuen DGX GB200 NVL72, der im Grunde genommen wieder einen riesigen GPU darstellt, jedoch mit einigen erstaunlichen Zahlen - darunter 720 Petaflops beim Training und 1,44 Exaflops bei der Inferenz. Diese Leistungsfähigkeit ist für extrem anspruchsvolle Aufgaben ausgelegt und kann mit einer Verarbeitungsgeschwindigkeit von 130 TB/s aufwarten - das ist mehr als die gesamte Bandbreite des gesamten Internets.

NVIDIA DGX GH200

Der DGX GH200 eröffnet ein enormes Potenzial im Zeitalter der generativen KI mit einer neuen Klasse von KI-Supercomputern, die die NVIDIA Grace Hopper™ Superchips zu einem einzigen GPU verbindet. Der NVIDIA DGX™ GH200 ist darauf ausgelegt, Terabyte-große Modelle für massive Empfehlungssysteme, generative KI und graphbasierte Analysen zu verarbeiten. Er bietet einen massiven gemeinsamen Speicherplatz mit linearer Skalierbarkeit für riesige KI-Modelle. Diese innovative Architektur ermöglicht es Forschern und Entwicklern, neue Höhen in der KI-Forschung und -Anwendung zu erreichen und die Grenzen dessen, was mit KI möglich ist, weiter auszuloten.

"Chat-GTP"-Moment

Der "Chat-GPT"-Moment für Robotik könnte laut Huang möglicherweise direkt bevorstehen, und Nvidia strebt danach, auf dem neuesten Stand zu sein und bereit zu sein, wenn es soweit ist.

"Wir brauchen eine Simulations-Engine, die die Welt digital für einen Roboter darstellt", erklärt er - und genau das bietet das Omniverse.

Jetzt wenden wir uns der Robotik zu, oder wie Huang es nennt - "physische KI".

Robotik wird zusammen mit KI und der Arbeit am Omniverse/Digital Twin als eine zentrale Säule für Nvidia betrachtet, die alle zusammenarbeiten, um das volle Potenzial der Systeme des Unternehmens auszuschöpfen, so Huang.

Huang führte außerdem eine Demonstration eines virtuellen Lagers vor, das Robotik und "menschliche" Systeme miteinander verbindet und zeigt, wie die Technologie dazu beitragen kann, die Produktivität und Effizienz zu steigern.

It´s a Wrap

Huang hebt hervor, dass wir uns inmitten einer neuen industriellen Revolution befinden, angetrieben von Blackwell, NIMs und dem Omniverse.

Für seinen großen Abschluss wird Huang von einer beeindruckenden Auswahl an Projekt-GROOT-Robotern begleitet - und dann sogar von zwei berühmten Star Wars-Figuren!

Er erklärt, dass das Modell sowohl durch menschliche Beispiele als auch durch eine digitale "Bibliothek" lernen wird - eine Perspektive, die durchaus faszinierend ist.

Bezüglich Robotik hebt Huang hervor, dass Nvidia über 1.000 Entwickler auf diesem Gebiet hat.

Ein neues SDK namens Isaac Perceptor ist speziell auf Roboterarme und Fahrzeuge ausgerichtet und verleiht diesen Geräten erweiterte Einblicke und Intelligenz.

Nvidia setzt sich für die Weiterentwicklung humanoider Roboter ein, indem sie das Projekt GROOT einführen, eine weitere Kollektion von APIs.

Warum die NVIDIA GTC ein Muss für Technologie-Enthusiasten ist

Hier sind fünf überzeugende Gründe, warum die NVIDIA GTC ein absolutes Muss für jeden ist, der sich für Technologie interessiert:
1. Einblick in die Zukunft: Die GTC ist der Ort, an dem die Zukunft der GPU-Technologie Gestalt annimmt. Von den neuesten Grafikprozessoren bis hin zu wegweisenden Anwendungen in Bereichen wie KI, autonome Fahrzeuge, Gesundheitswesen und mehr bietet die Konferenz einen einzigartigen Einblick in die Technologien, die die Welt von morgen prägen werden.
2. Fachwissen und Schulungen: Die GTC bietet eine Fülle von Fachwissen durch Vorträge, Workshops und Schulungen von Branchenexperten. Egal, ob man ein Entwickler ist, der seine Fähigkeiten in der GPU-Programmierung verbessern möchte, oder ein Unternehmer, der nach neuen Möglichkeiten für die Implementierung von GPU-Technologie sucht - auf der GTC findet man die Informationen und Ressourcen, die man braucht.
3. Networking-Möglichkeiten: Die GTC bringt die klügsten Köpfe der Branche zusammen und bietet eine einzigartige Gelegenheit zum Networking. Durch Gespräche mit Gleichgesinnten, Branchenexperten und potenziellen Geschäftspartnern können neue Ideen entstehen, Partnerschaften geknüpft werden und Chancen für zukünftige Zusammenarbeit erkannt werden.
4. Inspiration und Motivation: Die GTC ist eine inspirierende Veranstaltung, die dazu beiträgt, das Potenzial der GPU-Technologie voll auszuschöpfen. Von faszinierenden Keynote-Präsentationen bis hin zu beeindruckenden Demos von Technologien, die die Grenzen des Möglichen überschreiten, bietet die Konferenz eine Fülle von Inspiration und Motivation für alle Teilnehmer.
5. Einblicke aus erster Hand: Durch die Teilnahme an der GTC erhält man aus erster Hand Einblicke in die neuesten Entwicklungen und Trends im Bereich der GPU-Technologie. Man hat die Möglichkeit, innovative Produkte und Lösungen zu sehen, neue Technologien zu testen und mit den Menschen hinter den Innovationen in Kontakt zu treten.
Die NVIDIA GTC 2024 geht noch bis zum 20.03.2024 und bietet noch viele Gelegenheiten an interessanten und informativen Schulungen teilzunehmen.