Pünktlich Dienstag, 09.11.2021, um 9h startete die Keynote zur GPU Technology Conference (GTC)  mit der „Kitchen-Keynote“ von/mit NVIDIA  CEO Jensen Huang. In der Keynote werden die neuen KI-Technologien, Hardware-Neuerungen, Verbesserungen bestehender Softwareplattformen und vortrainierte KI-Modelle enthüllt und unser Liveticker zur GTC hält Sie über die Highlights auf dem Laufenden.

Die Nvidia GTC 2021 läuft bis zum 11 November 2021. Auf der offiziellen Webseite der GTC  gibt es eine umfassende Liste aller Sprecher, darunter sind bekannte und anerkannte Redner wie Fei-Fei Li, Tim Sweeney und Kay Firth-Butterfield aus dem Bereich der künstlichen Intelligenz.

Die GTC Fall 2021 wird sich laut Nvidia sowohl auf maschinelles Lernen (Deep Learning), Data Science und High Performance Computing als auch auf Robotik, Data Center/Networking und Grafik fokussieren. Die Redner werden über die neuesten Durchbrüche reden, die die größten Industrien der Welt verändert haben sollen, darunter das Gesundheitswesen, den Transport, die Produktion, den Einzelhandel und das Finanzwesen.
In den letzten Jahren hat sich das Themenspektrum der GTCs laut Nvidia von High-Performance-Computing und Grafik auf Bereiche wie Cloud- und Enterprise-Computing erweitert. Die Keynote und die Keynote-Vorträge sollen Unternehmen und IT-Führungskräften helfen zu verstehen, wie man sichere und beschleunigte Rechenzentren konfiguriert, die moderne Arbeitslasten wie maschinelles Lernen und Computerlinguistik unterstützen.

GTC-KEYNOTE:
​​​​​​​BEREITEN SIE SICH DARAUF VOR, INSPIRIERT ZU WERDEN

KEYNOTE von NVIDIA CEO Jensen Huang am 9. November 2021

NVIDIA CEO und Gründer Jensen Huang berichtet in der Keynote, wie das Unternehmen das rasante Tempo des weltweiten technologischen Fortschritts und neue Angebote vorantreibt, um die schwierigsten Herausforderungen unserer Zeit zu lösen. Wer sich die Keynote direkt anschauen möchte. 
​​​​​​​
Der Keynote-Webcast steht allen offen (keine Anmeldung erforderlich).

Für Fragen über die Produktneuheiten der GTC 2021 stehen wir Ihnen gerne zur Verfügung. Klicken Sie hierfür auf den nachfolgenden Button:

KONTAKTIEREN SIE UNS

Highlights der GTC21

Die GTC21 läuft vom 8 - 12, November 2021 und bietet ein umfangreiches Schulungs- und Informationsangebot.
Registrieren Sie sich für Ihre gewünschte Session unter:
REGISTER FREE

Für alle die die Keynote verpasst haben, hier unsere Hightlights:
Auch im Herbst 2021 startet die GPU Technology Conference (GTC) von NVIDIA mit einer Küchen-Keynote von CEO Jensen Huang. Neben zahlreichen Hardware-Neuerungen gibt Huang Einblick in die Verbesserungen bestehender Softwareplattformen, kündigt vortrainierte KI-Modelle an und spricht über:

Start der KEYNOTE

Start der Kitchen Keynote mit einem Twist – Die Küche wurde mit Omniverse virtualisiert und ist fast nicht vom Orginal zu unterscheiden. Einziges Indiz – So blank geputzt ist keine normale Küche!
Weiter gehts mit dem Teaservideo „I am AI“. CEO Jenson Huang berichtete kurz von der Erfolgsgeschichte von NVIDIA CUDA und gab einen Ausblick über Accelerated Computing mit CUDA. Neue Software ermöglicht die Halbierung der Zeit die „Design Animation“ benötigt für eine einzelne Simulation. Fantastische Neuigkeiten!

NVIDIA CUDA

Beschleunigtes Computing beginnt mit den programmierbaren NVIDIA CUDA Mehrzweck-GPUs. Die Magie des Accelerated Computing ergibt sich aus der Kombination von CUDA, den Beschleunigungsbibliotheken mit Algorithmen, die Anwendungen beschleunigen, und den verteilten Rechensystemen und der Software, die die Verarbeitung über ein ganzes Rechenzentrum skalieren. NVIDIA entwickelt CUDA und das Ökosystem seit mehr als 15 Jahren weiter. NVIDIA optimiert das gesamte System, indem ständig zwischen GPU, Beschleunigungsbibliotheken, Systemen und Anwendungen iteriert und gleichzeitig die Reichweite der Plattform durch Hinzufügen neuer Anwendungsbereiche erweitert und beschleunigt wird. Mit diesem Ansatz erleben die Endbenutzer während der gesamten Lebensdauer des Produkts Geschwindigkeitssteigerungen. Es ist nicht ungewöhnlich, dass sich die Leistung von Anwendungen auf ein und demselben Chip über mehrere Jahre hinweg um mehrere Faktoren steigern können.

Die Magie des beschleunigten Rechnens

Stellen Sie sich die Freude eines Forschers vor, dessen Simulationen allein durch das Herunterladen neuer Software in der Hälfte der Zeit abgeschlossen sind. Je mehr Anwendungen beschleunigt werden, desto größer wird die Nachfrage nach NVIDIA-Plattformen durch die Netzwerkpartner. Ausgehend von der Computergrafik hat sich die Reichweite der Architektur von NVIDIA bis in die größten Branchen der Welt ausgedehnt. 
NVIDIA beginnt mit erstaunlichen Chips, aber für jeden Bereich der Wissenschaft, Industrie und Anwendung erstellen Sie einen kompletten Stack. NVIDIA verfügt über mehr als 150 SDKs für verschiedene Branchen, von Gaming und Design über Biowissenschaften und Geowissenschaften bis hin zu Quantencomputing, KI, Cybersicherheit, 5G und Robotik. Dieses Jahr hat NVIDIA auf der GTC 65 neue und aktualisierte SDKs vorgestellt. Eine der wichtigsten neuen Branchen, die durch NVIDIA beschleunigt wird, ist die Designautomatisierung. Huang ist begeistert, dass Ansys, Synopsys, Cadence und Dassault die Simulation von thermischen, mechanischen und elektromagnetischen 3D-Simulationen für RFI und Signalintegrität beschleunigen. 
Eine äußerst spannende Entwicklung ist die Arbeit, die NVIDIA in zusammenarbeit mit Ansys leistet, um Ansys Fluent, das weltweit führende Simulationspaket für industrielle Flüssigkeiten, zu beschleunigen. Erste Ergebnisse mit dem Ansys-Multi-GPU-Solver zeigen, dass DGX 30 High-End-Dual-CPU-Server ersetzen kann, was zu erheblichen Einsparungen bei Systemkosten und Stromverbrauch führt. Mit demselben Gesamtbudget können Kunden viel größere Simulationen durchführen. Die Zahl der Entwickler, die NVIDIA nutzen, ist auf fast 3 Millionen angewachsen - eine Versechsfachung in den letzten 5 Jahren. 

CUDA wurde in den letzten 15 Jahren 30 Millionen Mal heruntergeladen und allein im letzten Jahr 7 Millionen Mal. 
Die Verbreitung von beschleunigtem Computing nimmt immer mehr zu. 
Dank der Fachkenntnisse in den Bereichen Full-Stack-Beschleunigung und Architekturen im Rechenzentrumsmaßstab kann NVIDIA Forschern und Entwicklern helfen, Probleme im größten Maßstab zu lösen. Unser Ansatz für das Computing ist äußerst energieeffizient. Und dank der Vielseitigkeit der Architektur kann NVIDIA einen Beitrag zu Bereichen leisten, die von der KI über die Quantenphysik und die digitale Biologie bis hin zur Klimawissenschaft reichen. NVIDIA hat heute ein paar großartige neue Beschleunigungsbibliotheken für Sie. 

NVIDIA bringt neue, aktualisierte Bibliotheken für Accelerated Computing auf den Markt

NVIDIA ReOpt, cuQuantum, cuNumeric, cuGraph, Modulus, Morpheus, NeMo Megatron, Riva, RAPIDS, DOCA und Dutzende mehr.
65 Software-Entwicklungskits zur Beschleunigung von Quantencomputing, Last-Mile-Delivery, Supercomputing für das PyData-Ökosystem und mehr erweitern den Katalog von über 150 Angeboten.

In der KEYNOTE  stellte Huang drei neue Bibliotheken vor:

ReOpt - für die 10 Billionen Dollar schwere Logistikbranche.
cuQuantum - zur Beschleunigung der Quantencomputerforschung.
cuNumeric - zur Beschleunigung von NumPy für Wissenschaftler, Datenwissenschaftler,
Forscher für maschinelles Lernen und KI in der Python-Community.

NVIDIA REOPT

Eine Lösung für Optimierungsprobleme, wie z.B. die Routenplanung von Lieferfahrzeugen und die Kommissionierung und Verpackung von Lagern. Es gibt 87 Milliarden Möglichkeiten, 14 Pizzen auszuliefern. Für Dominos ist es nicht so einfach, eine Pizza in weniger als 30 Minuten auszuliefern. Eine Betriebsoptimierung ist für die Zustellung auf der letzten Meile, aber auch für die Lager- und Produktionslogistik erforderlich. 
Die Routenplanung ist ein extrem schwieriges logistisches Problem. Im industriellen Maßstab können selbst kleine Optimierungen der Routenplanung Milliarden von Dollar einsparen. In diesem Beispiel wird ein virtuelles Lager in NVIDIA Omniverse verwendet, um die Auswirkungen einer optimierten Routenplanung in einem automatischen Kommissionierungsszenario zu zeigen. Ein optimierter Plan führt dazu, dass die Aufträge in der Hälfte der Zeit und über die Hälfte der zurückgelegten Strecke kommissioniert werden. Derzeitige Routing-Solver können Stunden brauchen, um neue Aufträge zu bearbeiten und darauf zu reagieren. NVIDIA ReOpt läuft kontinuierlich und reoptiert dynamisch in Echtzeit. Wenn neue Aufträge eintreffen, nachdem die Roboter eingesetzt wurden? Re-Optimieren. Wenn ein Roboter offline geht? Neu optimieren. NVIDIA ReOpt reagiert in Sekundenschnelle und skaliert für Tausende von Standorten. Zum ersten Mal können wir jetzt das dynamische Verhalten der realen Welt erfassen und nicht nur intelligent, sondern optimal reagieren. Re-Optimieren Sie Ihre Logistik noch heute. (Video)

Quantencomputer

Die sich auf das natürliche quantenphysikalische Phänomen der Überlagerung und Verschränkung stützen, haben das Potenzial, Probleme zu lösen, die mit der kombinatorischen Komplexität wachsen. Nahezu 100 Teams in Universitäten, Wissenschaftslabors, Unternehmen und Start-ups in aller Welt forschen an Quantenprozessoren, -systemen, -simulatoren und -algorithmen. Es wird voraussichtlich noch ein oder zwei Jahrzehnte dauern, bis ein brauchbarer Quantencomputer gebaut ist. In der Zwischenzeit braucht die Industrie einen superschnellen Quantensimulator, um ihre Forschung zu validieren. Deshalb hat NVIDIA die cuQuantum DGX-Appliance mit einer Beschleunigungsbibliothek für Quantencomputer-Workflows entwickelt, die die Simulation von Quantenschaltungen mit Zustandsvektor- und Tensornetzmethoden beschleunigt. Der erste beschleunigte Quantensimulator wird Google Cirq sein. Die Beschleunigung ist beeindruckend - hier sind die Ergebnisse der Quanten-Fourier-Transformation, des Shor-Algorithmus zum Brechen von Public-Key-Kryptographie und des Sycamore-Schaltkreises von Google.

Appliance verfügbar in Q1 2022, cuQuantum jetzt zum Download in Beta verfügbar

Eine Simulation, die sonst Monate dauert, kann jetzt in wenigen Tagen durchgeführt werden. NVIDIA arbeitet daran, alle gängigen Simulatoren zu optimieren. Die NVIDIA-Forschung hat einen wichtigen Meilenstein in der Simulation von Quantenalgorithmen erreicht, indem sie mit 1.688 Qubits eine Lösung für MaxCut mit 3.375 Scheitelpunkten gefunden hat. Dies ist die bisher größte exakte Simulation eines Quantenschaltkreises mit 8 mal mehr Qubits als je zuvor simuliert wurde. Mit cuQuantum auf DGX können Quantencomputer- und Algorithmenforscher den Computer von morgen erfinden, mit dem schnellsten Computer von heute. Die cuQuantum DGX Appliance wird im ersten Quartal verfügbar sein. 

NVIDIA cuNUMERIC

Python ist die Programmiersprache der Wissenschaftler und ML- und AI-Forscher. Python verfügt über ein reichhaltiges Ökosystem von Bibliotheken: Pandas für die Datenanalyse von Datenrahmen, NumPy für die Analyse von n-dimensionalen Arrays und Matrizen, Scikit-learn für maschinelles Lernen, SciPy für wissenschaftliche Berechnungen, PyTorch für Deep Learning und NetworkX für die Untersuchung von Graphen und Netzwerken. Es gibt fast 20 Millionen Nutzer von Python. Heute stellen wir cuNumeric vor, einen Drop-in-Beschleuniger für NumPy. Ohne Code-Änderung. cuNumeric beschleunigt NumPy und skaliert von einer GPU, über Multi-GPU, zu Multi-Node-Clustern bis hin zu den größten Supercomputern der Welt. Die Parallelität erfolgt implizit und automatisch. cuDF ist Panda-ähnlich. cuML ist Scikit-Learn-ähnlich. CuGraph ist NetworkX-ähnlich. Sie sind Teil von NVIDIAs RAPIDS, einem Open-Source-Python-Kit für die Datenwissenschaft. RAPIDS wurde in diesem Jahr bereits eine halbe Million Mal heruntergeladen, mehr als viermal so oft wie im letzten Jahr. cuNumeric basiert auf Legion, das die Aufgaben zwischen CPU, GPU und DPU verteilt. Einheiten über ein Rechenzentrum in einer ähnlichen Weise wie eine moderne CPU plant Anweisungen über seine ALUs und Lade-/Speichereinheiten. Wie moderne CPUs, die automatisch die Parallelität auf Anweisungsebene extrahieren und die Ausführung dynamisch neu anordnen, extrahiert Legion die Parallelität auf Aufgabenebene und ordnet die Ausführung dieser Aufgaben dynamisch neu an und verteilt sie über das gesamte Rechenzentrum, oft auch außerhalb der Reihenfolge. Legion ist eine Computer-Engine im Rechenzentrumsmaßstab und cuNumeric ist eine Mathematikbibliothek im Rechenzentrumsmaßstab. NumPy wurde in den letzten 5 Jahren 122 Millionen Mal heruntergeladen. NumPy wird von fast 800.000 Projekten auf GitHub verwendet. cuNumeric wird die Entwickler begeistern. Die Skalierbarkeit von cuNumeric ist hervorragend. Auf dem berühmten CFDPython-Lehrcode skaliert cuNumeric auf tausend GPUs mit nur 20% Verlust von der perfekten Skalierungseffizienz. 

Omniversums-Avatar und Omniversums-Replikator

Mit Omniverse
"haben wir jetzt die Technologie, um neue 3D-Welten zu erschaffen oder unsere physische Welt zu modellieren",
​​​​​​​so Huang.

Um Entwicklern bei der Erstellung interaktiver Charaktere mit Omniverse zu helfen, die sehen, sprechen, sich über eine breite Palette von Themen unterhalten und natürlich gesprochene Absichten verstehen können, hat NVIDIA Omniverse Avatar angekündigt.

Huang zeigte, wie das Projekt Maxine für Omniverse Avatar Computer Vision, Riva Sprach-KI und Avatar-Animation und -Grafik zu einem Echtzeit-Konversations-KI-Roboter verbindet - dem Toy Jensen Omniverse Avatar.

Announcing NVIDIA QUANTUM-2

NVIDIA Quantum-2 ist die erste Netzwerkplattform,
​​​​​​​die die Leistung eines Supercomputers mit der gemeinsamen Nutzung von Cloud Computing verbindet.
Das war nie zuvor möglich.
Bis Quantum-2 konnte man entweder Bare-Metal-Hochleistung oder sichere Multitendenz bekommen. Niemals beides.
Mit Quantum-2 wird Ihr verfügbarer Supercomputer Cloud-nativ und besser angepasst sein.
​​​​​​​
Quantum 2 - Schnelle Datenrate, mehr Ports, mehr Kapazität, hohe Netzwerkgeschwindigkeit, Cx7,
​​​​​​​Bluefield-3 DPU Prozessor für die Entlastung der GPUs, für Cloud Computing - Um nur ein paar Beispiele zu nennen.

NVIDIA entwickelt FrameworkS für KI zum Erlernen von Physik

Das NVIDIA Modulus-Framework trainiert bahnbrechende Physik-ML-Modelle, um industrielle digitale Zwillinge,
​​​​​​​Klimawissenschaft, Protein-Engineering und mehr zu beschleunigen.

NVIDIA Bluefield-3

Cloud Computing und maschinelles Lernen führen zu einer Neuerfindung des Rechenzentrums. Auf Containern basierende Anwendungen bieten Hyperscalern unglaubliche Möglichkeiten zur Skalierung, so dass derzeit Millionen von Nutzern ihre Dienste gemeinsam nutzen können. Hier kommt NVIDIA Blue-Field-3 data processing unit (DPU) ins Spiel.
die dritte Generation der Rechenzentrumsinfrastruktur auf einem Chip. BlueField-3 ist die branchenweit fortschrittlichste DPU, die im Vergleich zu Blue-Field-2 ein 400-Gb/s-Netzwerk, viermal mehr Rechenleistung und viermal mehr Kryptobeschleunigung bietet.

Morpheus

NVIDIA Morpheus, das erst im April 2021 auf der NVIDIA GTC angekündigt wurde, bietet Sicherheitsteams einen vollständigen Einblick in Sicherheitsbedrohungen mit unübertroffener KI-Verarbeitung und Echtzeitüberwachung, um jeden Server zu schützen und jedes Paket im Rechenzentrum zu überprüfen. Sicherheitsanwendungen, die auf Morpheus aufbauen, helfen ihnen, auf Anomalien zu reagieren und Richtlinien sofort zu aktualisieren, wenn Bedrohungen identifiziert werden, indem sie auf NVIDIAs Deep Learning- und Data Science-Tools wie RAPIDS, CLX, Streamz, Triton Inference Server und TensorRT aufbauen. Der Einsatz von Morpheus mit Sicherheitsanwendungen nutzt die Vorteile von NVIDIA AI Computing und NVIDIA® BlueField®-3 DPUs,
um Anwendern die Möglichkeit zu geben, ihr Rechenzentrum vom Kern bis zum Rand zu schützen.

Entwickler, die am Morpheus-Frühzugangsprogramm teilnehmen, haben über den NGC-Katalog sofortigen Zugriff auf Komponenten und können diese in eine Amazon Web Services Elastic Compute (AWS EC2) G4-Instanz - mit einem NVIDIA T4- oder A100-Grafikprozessor - laden, um sofort mit der Entwicklung von Cybersicherheitsanwendungen und -lösungen zu beginnen. Der frühe Zugang wird bald die Verwendung von Red Hat Enterprise Linux (RHEL) und Red Hat OpenShift auf NVIDIA-zertifizierten Servern unterstützen, die auf NVIDIA EGX für die Entwicklung und den Einsatz vor Ort gebaut wurden, sowie RHEL auf NVIDIA BlueField DPUs für eine verbesserte Datenerfassung und Datenverkehrskontrolle, die jeden Server schützen kann. Die Unterstützung für den Betrieb von Morpheus auf Ubuntu wird bald erwartet, gefolgt von weiteren Betriebssystemoptionen.


Entwickler, die für den frühen Zugang zugelassen sind, werden diese Woche benachrichtigt. NVIDIA plant, das Early-Access-Programm schnell auszuweiten, um mehr ISV-Partner, Endanwender, Akademiker und andere Sicherheitsexperten einzubeziehen, die skalierbare, adaptive, KI-gestützte Cybersicherheitslösungen entwickeln möchten.

Deep Learning

Die Software-Revolution des Deep Learning hält Einzug in die Wissenschaft.
​​​​​​​Das ist extrem aufregend und wird einen großen Einfluss haben.


Million-X-Sprung
Drei Kräfte vereinen sich für den Millionensprung im Computing. Wissenschaft und Industrie beginnen, einen mächtigen Exponentialfaktor zu nutzen, der KI mit beschleunigtem Computing im Rechenzentrumsmaßstab kombiniert

​​​​​​​Deep Graph Library (DGL): Das Lernen aus Graphen und relationalen Daten spielt in vielen Anwendungen eine wichtige Rolle. In den letzten Jahren haben sich Graph Neural Networks (GNNs) als vielversprechendes neues maschinelles Lernsystem herauskristallisiert, das in der Lage ist, Graphen- und relationale Daten mit der Leistungsfähigkeit von Deep-Representation-Learning zu versehen. Diese ständig wachsende Forschungsarbeit hat gezeigt, dass GNNs bei Problemen wie der Vorhersage von Links, der Erkennung von Betrug, der Vorhersage von Ziel-Liganden-Bindungsaktivität, der Vervollständigung von Wissensgraphen und Produktempfehlungen die beste Leistung erzielen. In dieser Sitzung besprechen wir die Deep Graph Library (DGL), eine DL-Bibliothek mit effizienten Implementierungen für GNNs, und demonstrieren die Beschleunigung von GNN-Training und -Inferenz auf NVIDIA-GPUs auf AWS EC2-Instanzen.

NVIDIA AGX Orin

NVIDIA stellt mit dem neuen Jetson AGX Orin Robotik-Computer die Weichen
​​​​​​​für die Zukunft von Edge AI und autonomen Maschinen.

Roboter und Autonome maschinen

Ankündigung der Jetson-Roboterplattform, die auf der Kombination von NVIDIA GPUs und Arm-CPUs basiert. Die Version Jetson AGX Orin, die im ersten Quartal 2022 auf den Markt kommen soll, verspricht eine sechsmal höhere Rechenleistung im gleichen Formfaktor wie die vorherige Xavier-Version. Mit 200 Billionen Rechenoperationen pro Sekunde ist Jetson AGX Orin laut Nvidia wie ein GPU-fähiger Server, der in die Handfläche passt.

KI-Inferenzplattform

Die Updates umfassen neue Funktionen in der Open-Source-Software NVIDIA Triton Inference Server™, die plattformübergreifende Inferenzen für alle KI-Modelle und -Frameworks ermöglicht, sowie NVIDIA TensorRT™, das KI-Modelle optimiert und eine Laufzeitumgebung für hochleistungsfähige Inferenzen auf NVIDIA-GPUs bereitstellt.

Darüber hinaus hat das Unternehmen den NVIDIA A2 Tensor Core GPU vorgestellt, einen stromsparenden, kompakten Beschleuniger für KI-Infenz am Arbeitsplatz, der bis zu 20-mal mehr Inferenzleistung als CPUs bietet.


"NVIDIAs KI-Inferenzplattform sorgt für Durchbrüche in praktisch allen Branchen, darunter Gesundheitswesen, Finanzdienstleistungen, Einzelhandel, Fertigung und Supercomputing", sagt Ian Buck, Vice President und General Manager of Accelerated Computing bei NVIDIA. "Ob es darum geht, intelligentere Empfehlungen zu geben, die Leistung von KI im Dialog zu nutzen oder wissenschaftliche Entdeckungen voranzutreiben - NVIDIAs Inferenzplattform bietet niedrige Latenzzeiten, hohen Durchsatz, vielseitige Leistung und die Benutzerfreundlichkeit, die erforderlich ist, um wichtige neue KI-Anwendungen weltweit voranzutreiben."