Explore Breakthroughs

in AI, Accelerated Computing, and Beyond from NVIDIA GTC
Erfahren Sie die neusten Fortschritte von der NVIDIA GTC (NVIDIA GPU Technology Conference). Auf der Konferenz werden die neuesten Fortschritte in der GPU-Technologie und ihre Anwendungen in einer Reihe von Branchen vorgestellt, künstliche Intelligenz, Datenwissenschaft, autonome Fahrzeuge und mehr.

Auf der Konferenz können die Teilnehmer von Branchenexperten hören, an technischen Sitzungen und praktischen Workshops teilnehmen, sich mit Gleichgesinnten vernetzen und die neuesten Produkte und Lösungen von NVIDIA und seinen Partnern kennenlernen. Die Veranstaltung bietet auch Entwicklern, Forschern und Innovatoren die Möglichkeit, sich mit der NVIDIA Entwickler-Community auszutauschen und zu erfahren, wie sie die Leistung von Grafikprozessoren nutzen können, um ihre Arbeit voranzutreiben.

Wir von sysGen sind am Start und berichten hier über die Highlights und was als Nächstes kommt. Bleiben Sie am Ball und verpassen Sie keine wichtige Information rund um den Einsatz von künstlicher Intelligenz (KI), beschleunigtes Computing und vieles mehr.

GTC Developer Conference

Keynote March 21
Erfahren Sie, was die neuesten Veränderungen in Forschung, Industrie und Wirtschaft vorantreibt - von kollaborativen virtuellen Welten und fortschrittlicher Grafik bis hin zu Data Science, Gesundheitswesen und anderen wichtigen Anwendungen.
GTC-Session - Jetzt ansehen

NVIDIA HGX H100

NVIDIA HGX H100 ist die weltweit leistungsstärkste End-to-End-KI-Supercomputing-Plattform, die die volle Leistung der NVIDIA H100-GPUs und vollständig optimierte NVIDIA KI- und NVIDIA HPC-Software-Stacks vereint, um höchste Simulations-, Datenanalyse- und KI-Leistung zu bieten. HGX H100 ist als Server-Baustein in Form von integrierten Baseboards in Konfigurationen mit vier oder acht H100-GPUs erhältlich. HGX H100 mit vier GPUs bietet vollständig vernetzte Punkt-zu-Punkt-NVLink-Verbindungen zwischen den GPUs, während die Konfiguration mit acht GPUs volle GPU-zu-GPU-Bandbreite über NVSwitch bietet. Durch die Nutzung der Leistung der H100 Multi-Präzisions-Tensor-Cores bietet eine 8-Wege HGX H100 über 32 petaFLOPS an FP8 Deep-Learning-Rechenleistung.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ Ada Generation
​​​​​​​Laptop GPUs

Die NVIDIA RTX™ Ada Generation Laptop-Grafikprozessoren, die auf der NVIDIA Ada Lovelace Architektur basieren, treiben die fortschrittlichsten dünnen und leichten mobilen Workstations der Welt an und bieten einen massiven Durchbruch bei Geschwindigkeit, Effizienz und Portabilität, um die anspruchsvollsten visuellen Computing-Workflows von überall aus zu bewältigen. Mit den neuesten CUDA™ Core-, RT Core-, Tensor Core- und Kodierungstechnologien bieten die neuen NVIDIA RTX Notebook-Grafikprozessoren eine bis zu 2-fache Leistung und Energieeffizienz im Vergleich zur vorherigen Generation, um Grafik, Raytracing und KI-Beschleunigung für Kreative, Designer und Ingenieure unterwegs zu optimieren.

NVIDIA IGX Orin™

NVIDIA IGX Orin™ liefert ultraschnelle Leistung in der Größe und im Stromverbrauch, die für KI am Rande der Welt erforderlich sind. Mit dem weltweit leistungsstärksten KI-Computer für energieeffiziente autonome Maschinen, der eine KI-Leistung von 275 Tera-Operationen pro Sekunde (TOPS) liefert, enthält IGX Orin auch eine NVIDIA® ConnectX®-7 Smart Network Interface Card (SmartNIC) mit einer Netzwerkgeschwindigkeit von 200 Gigabit pro Sekunde (Gb/s). Eine in das Board integrierte Sicherheits-Mikrocontrollereinheit (sMCU) ermöglicht die Programmierung zusätzlicher Sicherheitsfunktionen in den IGX-Software-Stack.

NVIDIA BlueField-3 DPU

Die erstmals auf der GTC 2021 angekündigte NVIDIA BlueField-3 DPU ist die weltweit fortschrittlichste Computing-Plattform für Rechenzentrums-infrastruktur-Workloads und ermöglicht beschleunigtes Computing für die Ära der KI. BlueField-3 unterstützt Ethernet- und InfiniBand-Konnektivität mit bis zu 400 Gigabit pro Sekunde (Gb/s) und bietet im Vergleich zur Vorgängergeneration eine 4-fach höhere Rechenleistung, eine bis zu 4-fach schnellere Krypto-Beschleunigung, eine 2-fach schnellere Speicherverarbeitung und eine 4-fach höhere Speicherbandbreite - und das bei voller Abwärtskompatibilität durch das NVIDIA DOCA Software-Framework. Er verfügt über leistungsfähigere Arm-CPU-Kerne, eine beschleunigte Paketverarbeitungs-Pipeline und einen neuen Datenpfad-Beschleuniger (DPA) - alles vollständig programmierbar.

Der NVIDIA L4 Tensor Core Grafikprozessor -
ein bahnbrechender Universalbeschleuniger

Der NVIDIA Ada Lovelace L4 Tensor Core Grafikprozessor bietet universelle Beschleunigung und
Energieeffizienz für Video, KI, virtuelle Workstations und Grafik im Unternehmen,
in der Cloud und im Edge-Bereich. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist der L4
für Video und Inferenzen in großem Umfang für eine breite Palette von KI-Anwendungen optimiert, um
die besten personalisierten Erlebnisse zu liefern.

NVIDIA Grace™ Hopper™ Superchip

Der NVIDIA Grace™ Hopper™ Superchip ist eine bahnbrechende beschleunigte CPU, die von Grund auf für groß angelegte KI- und HPC-Anwendungen entwickelt wurde. Der Superchip liefert eine bis zu 10-fach höhere Leistung für Anwendungen, die Terabytes an Daten verarbeiten, und ermöglicht es Wissenschaftlern und Forschern, noch nie dagewesene Lösungen für die komplexesten Probleme der Welt zu finden. Der Grace Hopper Superchip verfügt über einen neuen kohärenten NVIDIA NVLink-C2C Interconnect, der eine Bandbreite von 900 GB/s zwischen der NVIDIA Grace CPU und der NVIDIA Hopper GPU bietet. Dieses innovative Design liefert im Vergleich zu den schnellsten Servern von heute eine 7-fach höhere aggregierte Speicherbandbreite zur GPU. Die NVIDIA NVLink-C2C-Verbindung bietet eine einheitliche Cache-Kohärenz mit einem einzigen Speicheradressraum, der LPDDR5X-CPU-Speicher und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert.Hier Text einfügen

H100 NVL: Nvidias Speichergigant fürs KI-Training

H100 NVL ist explizit zum Training großer KI-Modelle wie beispielsweise ChatGPT gedacht. Dementsprechend liegt der Fokus auf den integrierten Tensor-Kernen: Im FP16-Format sollen sie 1979 Teraflops erreichen, bei nochmals halbierter FP8-Genauigkeit den doppelten Wert, also 3958 Teraflops. In klassischen Workloads stemmen die Shader-Kerne wie die SXM5-Version 34 FP64- beziehungsweise 67 FP32-Teraflops.

Hier Titel einfügen

Hier Text einfügen

DGX Cloud 

NVIDIA DGX Cloud ist ein KI-Schulungsdienst, der für die besonderen Anforderungen von KI in Unternehmen entwickelt wurde. Mit integrierter Software und Infrastruktur, die für Multi-Node-Training optimiert sind, bietet DGX Cloud eine umfassende KI-Entwickler-Suite, eine Infrastruktur der Spitzenklasse, direkten Zugang zu KI-Experten und Support für Unternehmen, so dass Unternehmen sofort mit KI-Innovationen beginnen können - und das zu einem kalkulierbaren Komplettpreis.



NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation

Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

DGX Cloud
NVIDIA DGX Cloud ist ein KI-Schulungsdienst, der für die besonderen Anforderungen von KI in Unternehmen entwickelt wurde. Mit integrierter Software und Infrastruktur, die für Multi-Node-Training optimiert sind, bietet DGX Cloud eine umfassende KI-Entwickler-Suite, eine Infrastruktur der Spitzenklasse, direkten Zugang zu KI-Experten und Support für Unternehmen, so dass Unternehmen sofort mit KI-Innovationen beginnen können - und das zu einem kalkulierbaren Komplettpreis
​​​​​​​
  • DGX Cloud ist ein Teil des DGX-Plattform-Produktportfolios.
  • Unternehmen können jetzt auf einen KI-Supercomputer in der Cloud zugreifen.
  • DGX Cloud wird von NVIDIA entwickelt und implementiert, und die DGX Cloud-Infrastruktur wird nach NVIDIAs Design und Spezifikationen über Partnerschaften mit Oracle Cloud, Microsoft Azure und Google Cloud Platform gehostet.
  • DGX Cloud umfasst die Base Command Platform, NVIDIA AI Enterprise, Enterprise Support und den Zugang zu NVIDIA AI Experts.


Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.
Accordion Titel
Text hier einfügen.

NVIDIA DGX PLATFORM

Die NVIDIA DGX Plattform wurde von Grund auf für KI in Unternehmen entwickelt und vereint das Beste von NVIDIAs Software, Infrastruktur und Expertise in einer modernen, einheitlichen KI-Entwicklungslösung, die sowohl Clouds als auch On-Premises umfasst.Was ist neu?
  • Was früher die DGX "Familie" oder das "Portfolio" war, ist jetzt die "DGX Plattform". Die DGX-Plattform umfasst: NVIDIA DGX Cloud, NVIDIA Base Command, NVIDIA DGX SuperPOD, NVIDIA DGX BasePOD, NVIDIA DGX H100 Systeme, NVIDIA DGX A100 Systeme
  • Alle DGX-bezogenen Webseiten wurden aktualisiert und unterstützen nun DGX-Plattform, DGX Cloudusw., mit einer vereinfachten Benutzerführung
  • NVIDIA DGX H100 ist jetzt in voller Produktion

NVIDIA OMNIVERSE ENTERPRISE

NVIDIA Omniverse™ Enterprise ist eine skalierbare End-to-End-Plattform, die es Unternehmen ermöglicht, individuelle 3D-Pipelines zu entwickeln und große, physikalisch genaue virtuelle Welten zu simulieren. In der GTC-Keynote und im Bootcamp vor der GTC haben wir unseren Fokus auf die Ermöglichung von End-to-End-Workflows in der Automobilindustrie erläutert.
  • Neue BYOL Enterprise Nucleus Server Bereitstellungsoptionen für Azure, AWS und GCP
  • Omniverse auf Launchpad: Führen Sie mit Bring Your Own Data labor für Ihre Kunden. Verwenden Sie SFDC Test-Nominierungsformular für qualifizierte Kontakte.
  • Neues Omniversum für Automobil-Inhalte

NVIDIA Jetson Orin Nano Developer Kit

NVIDIA hat heute das neue Jetson Orin Nano Developer Kit angekündigt, das einen neuen Standard für die Entwicklung von KI-gesteuerten Robotern, smarten Drohnen und intelligenten Bildverarbeitungssystemen setzt und den Einstieg in die Jetson Orin Nano Serie vereinfacht. Es bietet die 80-fache Leistung im Vergleich zur vorherigen Generation des Jetson Nano und ermöglicht es Entwicklern, fortschrittliche Robotik- und Vision-Transformer-Modelle auszuführen. Das Jetson Orin Nano Developer Kit hat die folgenden Hauptmerkmale:
  • Jetson Orin Nano 8GB Modul mit Kühlkörper und Referenzträgerplatte
  • 40 INT8 TOPS mit Ampere GPU und 6-Core Arm® Cortex-A78AE v8.2 64-bit CPU
  • 8 GB 128-Bit LPDDR5-Speicher, 68 GB/s
  • Die Trägerplatine kann alle Orin Nano und Orin NX Module aufnehmen, da sie zu 100% Pin- und Formfaktor-kompatibel ist
  • Leistungsstarker NVIDIA AI Software Stack mit Unterstützung für SDKs wie NVIDIA JetPack, NVIDIA RIVA, NVIDIA DeepStream, NVIDIA Isaac ROS, etc.

Die gesamte Palette der kommerziellen Module der NVIDIA Jetson Orin-Familie ist ab sofort erhältlich, darunter die Jetson AGX Orin-Serie, die Jetson Orin NX-Serie und die Jetson Orin Nano-Serie. Das Jetson AGX Orin Developer Kit wurde ebenfalls erweitert und enthält nun 64 GB Speicher zum gleichen Preis von 1.999 US-Dollar. Das JetPack SDK soll am 28. März veröffentlicht werden.

NVIDIA AI Enterprise

NVIDIA AI Enterprise, die Softwareschicht der NVIDIA KI-Plattform, ist mit über 50 Frameworks, vortrainierten Modellen und Entwicklungstools darauf ausgelegt, Unternehmen an die Spitze der KI zu bringen und gleichzeitig die KI zu vereinfachen, um sie für jedes Unternehmen zugänglich zu machen. Auf der GTC Spring 2023 kündigte NVIDIA die neueste Version von NVIDIA AI Enterprise mit neuen Funktionen an, die den Zeit- und Kostenaufwand für KI in Unternehmen reduzieren, sowie Verbesserungen für hybride Cloud-Umgebungen und eine erweiterte Verfügbarkeit in der Cloud.
  • NVIDIA RAPIDS Accelerator für Apache Spark zur Beschleunigung der Datenverarbeitung:
    • NVIDIA AI Enterprise 3.1 enthält RAPIDS Accelerator für Apache Spark, um GPU-Beschleunigung für Apache Spark 3.x zu ermöglichen
    • Optimierte Leistung für Spark-Implementierungen mit vollem Zugang zu Enterprise-Grade-Support auf zertifizierten Plattformen wie Amazon EMR, Google Cloud Dataproc und Databricks auf Azure und AWS
  • Neue KI-Workflows: zwei neue KI-Workflows, die nur mit einem NVIDIA AI Enterprise-Abonnement verfügbar sind
    • Next Item Prediction - Aufbau einer Empfehlungspipeline zur Förderung von Kundenbindung und Upselling
    • Routenoptimierung - Optimierung von Distributions- und Lieferflotten zur Kosten- und Zeitreduzierung mit dynamischen Beschränkungen
  • NVIDIA AI Enterprise auf Cloud Marketplaces verfügbar:
    • Jetzt auf den Google Cloud Marketplaces und in Kürze auch auf den AWS und Microsoft Azure Marketplaces verfügbar
    • Kunden können sofort loslegen, indem sie eine On-Demand-Instanz oder ein privates Angebot mit verbindlichen Cloud-Ausgabenvereinbarungen erwerben, die beide auf den Marktplätzen verfügbar sind.
    • Das Angebot auf dem Marktplatz umfasst den kompletten NVIDIA AI Enterprise Software-Stack und Support auf Enterprise-Niveau.
  • CSP Managed Kubernetes Orchestration Services: NVIDIA AI Enterprise 3.1 unterstützt Kubernetes-Container-Hosting-Umgebungen wie Amazon Elastic Kubernetes Service (Amazon EKS) und Google Kubernetes Engine (GKE).
  • Unterstützung für Ada Lovelace GPUs und Verbesserungen für hybride Cloud-Infrastrukturen:
    • Unterstützung für NVIDIA Ada Lovelace-Grafikprozessoren - NVIDIA L4, L40 und RTX 6000 Ada Generation - zur Optimierung verschiedener generativer KI- und Inferenz-Workloads
Unterstützung für VMware vSphere 8 u1, heterogene Profiltypen für gemischte Workloads und MLOps-Zertifizierungen mit ClearML

NVIDIA Quantum Platform

NVIDIA cuQuantum ist ein SDK zur Beschleunigung der Simulation von Quantenschaltkreisen. cuQuantum ermöglicht es dem Quantencomputing-Ökosystem, Probleme in der Größenordnung des zukünftigen Quantenvorteils zu lösen und beschleunigt die Entwicklung von Algorithmen und das Design/die Validierung von Quantenhardware.

NVIDIA CUDA Quantum (früher bekannt als QODA) ist eine offene, QPU-agnostische Entwicklungsplattform für hybrides klassisches Quantencomputing. Durch die Bereitstellung eines hybriden Quanten-/Klassik-Programmiermodells, das mit den wichtigsten wissenschaftlichen Computeranwendungen von heute interoperabel ist, öffnen wir die Programmierung von Quantencomputern für eine große neue Klasse von Wissenschaftlern und Forschern.

DGX Quantum ist ein Hardware- und Softwaresystem, das den NVIDIA Grace Hopper Superchip und das Open-Source-Programmiermodell CUDA Quantum kombiniert, um die leistungsstärkste Plattform für beschleunigtes Rechnen zu schaffen. Diese Rechenplattform wird dann mit OPX+ integriert, der weltweit fortschrittlichsten Quantensteuerungsplattform, die von Quantum Machines entwickelt wurde und die GPU-QPU-Latenz um 1-2 Größenordnungen reduziert.

Highlights der Quantencomputing-Plattform:
  • Beinhaltet: cuQuantum Bibliotheken, CUDA Quantum und DGX Quantum System

cuQuantum Höhepunkte:
  • Multi-Node, Multi-GPU-Unterstützung in der DGX cuQuantum Appliance.
  • Unterstützung für approximative Tensornetzwerk-Methoden.
  • Die Akzeptanz von cuQuantum gewinnt weiter an Fahrt, auch bei CSPs und industriellen Quantengruppen.

CUDA Quantum Höhepunkte:
  • Neuer Name, vormals QODA
  • Ab GTC Frühjahr 2023 ist CUDA Quantum in der öffentlichen Betaphase
  • Single-Source-Implementierungen in C++ und Python sowie eine Compiler-Toolchain für hybride Systeme und eine Standardbibliothek von Quantenalgorithmus-Primitiven.
  • QPU-unabhänig. Partnerschaften mit Quanten-Hardware-Unternehmen für ein breites Spektrum von Qubit-Modalitäten.
  • Fast 300-fache Beschleunigung gegenüber einem führenden Python-Framework, das auch auf einer A100 GPU läuft

Höhepunkte des DGX Quantum Systems:
  • Basiert auf Grace Hopper Superchip
  • Enthält CUDA Quantum
  • integriert mit OPX+ Quantensteuerungsplattform von Quantum Machines
  • Die Kombination reduziert die GPU-QPU-Latenzzeit um 1-2 Größenordnungen

Weitere Infos

NVIDIA cuLitho

Bewältigung der Herausforderungen der Computerlithografie in der Halbleiterfertigung:
Die Herstellung von Computerchips erfordert einen kritischen Schritt, die so genannte computergestützte Lithografie - eine komplexe Berechnung, die elektromagnetische Physik, Fotochemie, computergestützte Geometrie, iterative Optimierung und verteilte Datenverarbeitung umfasst.

Dieser Lithografieschritt ist bereits eine der größten Rechenaufgaben in der Halbleiterproduktion und erfordert riesige Rechenzentren; der Entwicklungsprozess der Siliziumminiaturisierung erhöht die Rechenanforderungen im Laufe der Zeit exponentiell.

Da die Siliziumstrukturen immer kleiner werden und die Auswirkungen der optischen Beugung kompensiert werden müssen, besteht die Notwendigkeit, die Maskenmuster mit der Optical Proximity Correction (OPC) oder der Inverse Lithography Technology (ILT) proaktiv zu manipulieren, um die Wafer genau abzubilden. Dies erfordert fortschrittliche computergestützte Lithografietechniken und eine höhere Rechenleistung.

Ankündigung von NVIDIA cuLitho:
NVIDIA cuLitho ist eine Bibliothek mit optimierten Werkzeugen und Algorithmen für GPU-beschleunigte Lithografieverfahren (einschließlich OPC und ILT), die um Größenordnungen schneller sind als aktuelle CPU-basierte Verfahren. Dies ermöglicht es Foundries, ihre Entwicklungszyklen zu beschleunigen und neue Lösungen einzusetzen, um die Skalierung von Halbleitern fortzusetzen. Die Vorteile von cuLitho umfassen:
  • Fortgesetzte zukünftige Silizium-Skalierung: Schnelleres OPC und Ermöglichung neuer Lithographie-Innovationen
  • Leistung: 40-fache Beschleunigung der Produktion von Halbleiter-Fotomasken
  • Produktivität: 3- bis 5-mal mehr Masken pro Tag, Masken, die bisher 2 Wochen benötigten, werden jetzt über Nacht hergestellt
  • Einsparungen: 500 Hopper GPU-Systeme erledigen die Arbeit von 40.000 CPU-Systemen
    • Effizienz von Rechenzentren - 1/9 des Stroms, 1/8 des Platzes
Einsparung von 200.000 Tonnen CO2

XR: NVIDIA CloudXR 4.0

Auf der GTC haben wir die neueste Version von NVIDIA CloudXR angekündigt, die es Entwicklern ermöglicht, CloudXR für ihre Anwendungen und Kunden anzupassen und den Einsatz von Extended Reality (XR) über die Cloud, 5G Mobile Compute Edge (MEC) und Unternehmensnetzwerke zu skalieren. CloudXR 4.0 führt eine Vielzahl neuer Funktionen und Vorteile ein, darunter:
  • Die CloudXR Server API, die Entwicklern die Möglichkeit gibt, CloudXR direkt in ihre Anwendungen einzubauen, wodurch die serverseitige Notwendigkeit einer OpenVR- oder OpenXR-Runtime entfällt. NVIDIA arbeitet auch mit dem Team von Collabra zusammen, um die Möglichkeit zu bieten, Monado OpenXR als API für CloudXR zu verwenden. CloudXR 4.0 unterstützt weiterhin vollständig die OpenVR-API über die SteamVR-Laufzeitumgebung.
  • Das Unity-Plug-in für den CloudXR-Client nutzt die Unity XR-API und andere Unity-APIs, um Entwicklern eine Möglichkeit zu bieten, einen vollwertigen CloudXR-Client zu erstellen, der auf der Unity-Engine aufbaut und auf vielen XR-Client-Plattformen eingesetzt werden kann.
  • Geringe Latenz, geringer Verlust, skalierbarer Durchsatz (L4S) - Die neueste Version von CloudXR bietet eine "umschaltbare" Implementierung der fortschrittlichen 5G-Packet-Delivery-Optimierung, die entwickelt wurde, um Verzögerungen beim interaktiven Cloud-basierten Video-Streaming deutlich zu reduzieren.
  • Unterstützung für generische Controller. Mit CloudXR 4.0 können Entwickler von CloudXR-Clients Input-Mappings für ihre eigenen HMD-Controller erstellen.
  • Rückrufbasiertes Logging. Dies ermöglicht eine größere Flexibilität bei der Handhabung von Protokollnachrichten, wobei Anwendungen die Callback-Funktion angeben und Aktionen mit den Protokollnachrichten durchführen können, z. B. Filtern und Schreiben in eine Datei.
  • Flexible Stream-Erstellung. Geräte sind in der Regel mit einer bestimmten Art von Videostream verbunden, zum Beispiel einem Mono-RGB-Stream für ein Tablet oder einem Stereo-RGBA-Stream für ein Mixed-Reality-HMD. Mit CloudXR 4.0 können Entwickler angeben, welche Streams für ein bestimmtes Gerät oder eine bestimmte Plattform initiiert werden sollen.

Nsight Developer Tools

Nsight Systems 2023.2 veröffentlicht die Multiknoten-Datenanalyse in der Vorschau und vervollständigt damit die Suite der Nsight Systems Multiknoten-Profiling-Tools. HPC-Entwickler können die Leistung ihrer Systeme optimieren, um schnellere und effizientere Berechnungen zu erzielen.
  • Datenanalyse:
    • Nsight Systems sammelt Leistungsdaten in Multi-GPU-Multi-Node-Umgebungen bis hin zu Clustern.
    • Analysiert Profildaten und erkennt automatisch, wie sich Drosselungen auf die Gesamtleistung auswirken, indem es Analyseskripte, sogenannte "Rezepte", verwendet.
    • Verfolgen Sie Leistungsprobleme über die Knoten bis zu ihrer Quelle zurück und beheben Sie sie.
    • Jupyter-Notebook-Integration für Datenvisualisierung und Zusammenarbeit.
  • Python-Profilierung:
    • Die Optimierung von Python kann aufgrund seiner interpretierten Natur und seiner High-Level-Abstraktionen eine Herausforderung sein, aber es ist die Sprache der Wahl für HPC-Entwickler.
    • Nsight Systems bietet automatisches Python-Aufrufstapel-Sampling zur Unterstützung und Beschleunigung des Python-Profilings.
  • Netzwerk-Profiling:
    • Die Netzwerkkommunikation zwischen den Knoten ist ein entscheidender Faktor für die Leistung eines Rechenzentrums.
    • Nsight Systems erfasst Metriken von NVIDIA Quantum-2 InfiniBand switches sowie von NVIDIA ConnectX Smart Network Interface Cards (intelligente NICs).

Außerdem veröffentlicht Nsight Graphics die Version 2023.1, die Unterstützung für die Profilerstellung von Opacity Micromaps (OMMs) in Vulkan-Anwendungen, ein anwendungsinternes HUD für GPU Trace und Verbesserungen bei der Profilerstellung von Vulkan-Raytracing bietet. Nsight Systems veröffentlicht ebenfalls Unterstützung für OMMs.

NVIDIA DGX CLOUD

NVIDIA DGX Cloud ist ein KI-Schulungsdienst, der für die besonderen Anforderungen von KI in Unternehmen entwickelt wurde. Mit integrierter Software und Infrastruktur, die für Multi-Node-Training optimiert sind, bietet DGX Cloud eine umfassende KI-Entwickler-Suite, eine Infrastruktur der Spitzenklasse, direkten Zugang zu KI-Experten und Support für Unternehmen, so dass Unternehmen sofort mit KI-Innovationen beginnen können - und das zu vorhersehbaren Komplettpreisen.
  • DGX Cloud ist ein Teil des DGX-Plattform-Produktportfolios.
  • Unternehmen können nun auf einen KI-Supercomputer in der Cloud zugreifen.
  • DGX Cloud wird von NVIDIA entwickelt und implementiert und die DGX Cloud-Infrastruktur wird nach NVIDIAs Design und Spezifikationen über Partnerschaften mit Oracle Cloud, Microsoft Azure und Google Cloud Platform gehostet.
  • DGX Cloud umfasst die Base Command Platform, NVIDIA AI Enterprise, Enterprise Support und den Zugang zu NVIDIA AI Experts.

NVIDIA Merlin

NVIDIA hat heute Updates für NVIDIA Merlin vor, einem End-to-End-Framework für Empfehlungssysteme, das die Datenverarbeitung, das Training, die Inferenz und die Bereitstellung in jeder Größenordnung beschleunigt. Mit dieser neuesten Version können Datenwissenschaftler und Ingenieure für maschinelles Lernen sitzungsbasierte Empfehlungspipelines erstellen und eine hochmoderne Personalisierung für neue und seltene Nutzer liefern. Die sitzungsbasierten Empfehlungsprogramme von Merlin ermöglichen es Datenwissenschaftlern und Ingenieuren für maschinelles Lernen, Empfehlungen mit wenigen oder gar keinen Benutzerdaten zu verbessern. Teams sind in der Lage, Benutzerinteraktionen zu bereichern, Kundenakquisitionskosten zu senken und den Umsatz zu steigern. Zu den Highlights gehören:
  • Session-Based Recommenders Lab auf Launchpad, Personalisierung des Produktangebots für jeden einzelnen Kunden und Vorhersage von Bedürfnissen und Vorlieben aus früheren Interaktionen
  • Next Item Prediction AI Workflow auf Launchpad, einfaches Erreichen einer höheren Genauigkeit für Empfehlungsmodelle
  • GTC Session Recommenders Powered by NVIDIA Merlin (jetzt live)

NVIDIA OVX 3.0

NVIDIA OVX™ ist eine Computing-Systemreferenzarchitektur, die für die Erstellung und den Betrieb von Omniverse Enterprise-Anwendungen im Rechenzentrumsmaßstab optimiert ist. NVIDIA OVX Systeme, die auf dieser Referenzarchitektur basieren, sind speziell dafür ausgelegt, die Grafik-, Rechen-, KI- und Netzwerkleistung zu liefern, die für die anspruchsvollsten 3D-Modelle und -Simulationen mit NVIDIA Omniverse Enterprise erforderlich ist.

Wir kündigen die dritte Generation von NVIDIA OVX™, OVX 3.0, an. Die dritte Generation baut auf den Fähigkeiten der vorherigen Generationen auf, indem sie Bluefield-3 als Teil der Architektur einführt und ein neues, ausgewogenes Design bietet, das für Leistung und Skalierung optimiert ist, um die nächste Generation von Hyperscale Omniverse Workloads zu beschleunigen.

NVIDIA BlueField-3 DPU and DOCA 2.0

Die BlueField-3 Datenverarbeitungseinheiten (DPU) von NVIDIA sind jetzt in voller Produktion und wurden von Oracle Cloud Infrastructure (OCI) für höhere Leistung, Effizienz und Sicherheit übernommen. BlueField-3 DPUs schaffen eine sichere, beschleunigte und nachhaltige Infrastruktur für die Ausführung von KI und modernen Workloads, indem sie die Control-Plane des Rechenzentrums auslagern, beschleunigen und isolieren. Der Einsatz von BlueField-3 spart Energie und Kosten und ermöglicht Cloud-Anbietern den Betrieb von Rechenzentren im großen Stil. NVIDIA integriert BlueField-3 in seine Rechenzentrumsplattform, und führende OEM-Partner bauen beschleunigte Rechenplattformen auf Basis von BlueField-3 DPUs. Das NVIDIA DOCA 2.0 Software-Framework unterstützt jetzt BlueField-3 DPUs und macht es Entwicklern leicht, beschleunigte Anwendungen und Dienste zu erstellen. 4.700 Early-Access-Entwickler nutzen DOCA bereits, um BlueField-Anwendungen zu erstellen, und NVIDIA freut sich, die allgemeine Verfügbarkeit von DOCA anzukündigen, die jedem den Zugang zu DOCA ermöglicht. Darüber hinaus bietet DOCA 2.0 eine breite Palette von Verbesserungen, die sich auf die Erstellung von beschleunigten Netzwerk- und Sicherheitsanwendungen konzentrieren.

NVIDIA NeMo Framework

NVIDIA kündigte NVIDIA NeMo an, einen Teil der NVIDIA AI Plattform, ein durchgängiges, Cloud-natives Enterprise-Framework zum Erstellen, Anpassen und Bereitstellen generativer KI-Modelle mit Milliarden von Parametern. Zu den Highlights gehören:
  • Erweiterte Unterstützung für verschiedene Modalitäten, einschließlich Sprache, Sprache und Bilder.
    • Modellarchitekturen für Sprache: BERT, GPT-3, T5, T5-MoE, Inform.
    • Modellarchitekturen für Bilder: Stabile Diffusion v1.5, VisionTransformers (ViT), CLIP, Instruct-Pix2Pix
  • Neue LLM-Anpassungstechniken: Adapter, Reinforcement Learning with Human Feedback (RLHF) und Attention with Linear Biases (AliBi)
  • Neue GPU-beschleunigte Datenverarbeitungsbibliotheken zum Schürfen und Kuratieren hochwertiger Textdaten für das Training großer Sprachmodelle

NVIDIA NeMo Service

NVIDIA kündigt NeMo an, einen Cloud-Service für die Hyper-Personalisierung in Unternehmen und den Einsatz von intelligenten großen Sprachmodellen (LLMs) im großen Maßstab. Der NeMo-Dienst bietet:
  • 3 neue NVIDIA-eigene Grundmodelle um der Komplexität und Latenz ihrer Anwendungen optimal gerecht zu werden
  • Neues, von der Community entwickeltes T5-Modell, das über 101 Sprachen unterstützt
  • Neue Inform-Funktion, die proprietäre Wissensdatenbanken mit generativen, vortrainierten Modellen verbindet, um Antworten auf Echtzeitdaten zu erhalten
  • Modellanpassung - Definieren Sie den Betriebsbereich, fügen Sie Fähigkeiten hinzu und machen Sie die Modelle mit verschiedenen Anpassungstechniken immer intelligenter
  • Cloud-APIs zum Anpassen und Bereitstellen von Modellen über Unternehmensanwendungen

NVIDIA Picasso Service

NVIDIA kündigt den Picasso-Service als Teil der neuen NVIDIA AI Foundations an, der es Unternehmen und ISVs ermöglicht, die von NVIDIA entwickelten Edify-Modelle auf dem neuesten Stand der Technik zu nutzen, um visuelle Inhalte wie Bilder, Videos und 3D-Inhalte zu erzeugen. NVIDIA arbeitet zusammen mit:
  • Adobe, um die nächste Generation von KI-Funktionen in ihren Produktlinien zu entwickeln. Integration von generativer KI in erstklassige Kreativ- und Marketing-Tools.
  • Getty, um Edify Bild- und Videomodelle auf vollständig lizenzierten Bild- und Videodaten zu trainieren. Getty wird die Künstler für ihre Beiträge bezahlen.
  • Shutterstock wird Edify 3D-Modelle auf vollständig lizenzierten Daten trainieren. Shutterstock wird die Künstler für ihre Beiträge bezahlen.
Mit dem Picasso-Service können Unternehmen auch ihre eigenen trainierten Modelle hosten und über API-Aufrufe, die über Picasso verfügbar sind, auf sie zugreifen.

NVIDIA AI Workflows

NVIDIA kündigte neue KI-Workflows für vorhersage des nächsten Objekts und routenoptimierung. NVIDIA KI-Workflows helfen Kunden, einen Vorsprung bei der Entwicklung und Bereitstellung von KI-Lösungen zu gewinnen. Diese Cloud-nativen, paketierten Referenzbeispiele zeigen, wie NVIDIA KI-Frameworks genutzt werden können, um KI-Lösungen für eine Reihe von Anwendungsfällen zu entwickeln, darunter:

NVIDIA cuOpt

Heute kündigte NVIDIA cuOpt weltrekorde bricht und wie Teams aus den Bereichen Betriebsforschung, Logistik, Lieferkette und Industrie eine beschleunigte Optimierung nutzen können, um Zeit zu sparen und Infrastrukturkosten zu senken. Mit Milliarden von potenziell durchführbaren Zügen, die in Betracht gezogen werden können, ermöglicht NVIDIAs flexibler Solver den Teams, neue Anwendungsfälle zu erschließen, Lösungen neu zu konzipieren, neue Routen zu finden und bisher unbekannte Möglichkeiten zu entdecken. Teams haben die Möglichkeit, sich anzumelden und mehr über das NVIDIA-Angebot zur beschleunigten Optimierung zu erfahren, das Folgendes umfasst:
  • cuOpt, eine weltrekordverdächtige, beschleunigte Optimierungs-Engine
  • einen KI-Workflow zur Routenoptimierung
  • einen zukünftigen Cloud-Service für beschleunigte Optimierung

NVIDIA Morpheus

NVIDIA hat heute Updates für Morpheus angekündigt. Morpheus ist ein GPU-beschleunigtes Cybersicherheits-Framework, das KI nutzt, um Bedrohungen in einem bisher nicht für möglich gehaltenen Umfang zu identifizieren, zu erfassen und zu bekämpfen. Zu den Highlights gehören:
  • Neuer Spear-Phishing-Anwendungsfall, der eine generative KI-Trainingstechnik nutzt, die zur Erkennung von 90 % der gezielten Spear-Phishing-E-Mails führte, was einer Verbesserung von 20 % im Vergleich zu einer typischen, heute verwendeten Phishing-Erkennungslösung entspricht.
  • Verbesserungen des digitalen Fingerabdruck-Workflows, einschließlich integriertem Training und Feedback, um ein effizienteres Training von Modellen zu ermöglichen, sowie Unterstützung für nichtlineare Pipelines zur einfacheren Bereitstellung.

Ebenfalls auf der GTC kündigen Deloitte und NVIDIA eine Zusammenarbeit an, um Kunden KI-basierte Cybersicherheit auf Basis von NVIDIA Morpheus anzubieten. Durch unsere Zusammenarbeit können wir Unternehmen dabei helfen, die Effektivität von fortschrittlichen Angriffserkennungen zu verbessern und gleichzeitig Infrastrukturkosten von 30-50% pro Jahr gegenüber dem Betrieb von KI-Modellen auf Allzweckrechnern einzusparen.

NVIDIA Riva

NVIDIA hat heute Updates für NVIDIA Rivaangekündigt, einem GPU-beschleunigten Sprach- und Übersetzungs-Framework für die Entwicklung und Bereitstellung vollständig anpassbarer mehrsprachiger Echtzeit-KI-Anwendungen. Zu den Highlights gehören:
  • Übersetzungsunterstützung für domänenspezifische Anwendungsfälle in allen Branchen mit hochwertigen mehrsprachigen und zweisprachigen Modellen für Englisch in/aus Mandarin, Spanisch, Russisch, Deutsch und Französisch
  • Spracherkennung für weitere 5 Sprachen: Arabisch, Italienisch, Japanisch, Koreanisch, Portugiesisch (zusätzlich zu Mandarin, Englisch (US/UK), Französisch, Deutsch, Hindi, Russisch, Spanisch (Lateinamerika/Spanien))
  • Audiotranskriptions- und intelligente virtuelle Assistenten-Workflows für eine beschleunigte Entwicklung und Bereitstellung in großem Maßstab

NVIDIA arbeitet auf breiter Basis mit mehreren ISVs (Anwendungsanbietern), GSIs (Global System Integrators) und SDPs (Service Delivery Partners) zusammen, zum Beispiel mit Deloitte, Hewlett Packard Enterprise (HPE), Infosys, Interaktionen, und Quantiphiumeine schnellere und kostengünstigere Bereitstellung von maßgeschneiderten Anwendungen auf Basis von Sprach-KI zu ermöglichen.

XR: NVIDIA Project Mellon

Das Projekt Mellon ist ein leichtgewichtiges Python-Paket, das in der Lage ist, die schwergewichtige Leistung der Sprach-KI zu nutzen (NVIDIA Riva) und großen Sprachmodellen (NVIDIA NeMo-Dienst) zu nutzen, um Benutzerinteraktionen in immersiven Umgebungen zu vereinfachen. Project Mellon ermöglicht es Entwicklern nahezu jeder Anwendung, ob in XR- oder Flachbildschirmwelten, ihre Software mit natürlichem Sprachverständnis als neuartige, menschenzentrierte, freihändige Benutzerschnittstelle zu versehen. Zu den wichtigsten Merkmalen von Project Mellon 1.0 gehören:
  • Leichtgewichtige, einfach zu integrierende Python-Bibliothek
  • Die Unterstützung umfangreicher Sprachmodelle sorgt für ein präzises Verständnis natürlicher Sprache
  • Zero Shot Language Models machen ein befehlsspezifisches Training überflüssig
  • Unterstützt natürlichsprachliche Befehle mit Konversations- und visuellem Kontext
  • Unterstützt das Stellen von Fragen zu Befehlen und Szenen mit natürlichsprachlichen Antworten
  • Einfache Python-API für das Verstehen und Ausführen von Befehlen
  • Webbasierte Testanwendung
Automatische Spracherkennung (ASR), Text-to-Speech (TTS), neuronale maschinelle Übersetzung (NMT) und große Sprachmodelle (LLM) können vor Ort oder dezentral gehostet werden, mit geringen Latenzzeiten

RTX Path Tracing

Path-Tracing stellt die Physik aller Lichtquellen in einer Szene genau nach, um zu reproduzieren, was das Auge in der Realität sieht. Dieses neue SDK bietet Entwicklern die Flexibilität und Anpassungsfähigkeit, um bewährte NVIDIA-Technologien für die folgenden Anwendungsfälle zu nutzen:
  • Erstellung eines Referenz-Pfadverfolgers, um sicherzustellen, dass die Beleuchtung während der Produktion realitätsgetreu ist, und um den Iterationsprozess zu beschleunigen.
  • Erstellung von hochwertigen Fotomodi für RT-fähige GPUs oder von Echtzeit-Modi in höchster Qualität, die die Vorteile der Ada-Architektur nutzen

RTX Path Tracing ist das Ergebnis jahrzehntelanger Forschung von NVIDIA. Dieses SDK demonstriert Best Practices für die Erstellung eines Path Tracers unter Verwendung der neuesten Versionen von:
  • DLSS 3 für Superauflösung und Frame-Generierung, um die Leistung zu vervielfachen.
  • RTX Direct Illumination für effizientes Sampling einer großen Anzahl von Schattenwerfern und dynamischen Lichtern.
  • NVIDIA Real Time Denoisers für leistungsstarkes Denoising aller Lichtquellen.
  • Opacity Micro-Map zur Verbesserung der RT-Leistung in Szenen mit starken Alpha-Effekten
  • Shader Execution Reordering zur Verbesserung der Shader-Planung und damit zur Leistungssteigerung.

NVIDIA Modulus

NVIDIA Modulus ist ein Framework, das eine anpassbare Trainingsplattform für die Entwicklung von Modellen für maschinelles Lernen in der Physik (neuronale Netzwerke) bietet. Die Modulus-Trainingsplattform ermöglicht die Kombination von KI und Physik zur Erstellung von parametrisierten Surrogatmodellen mit hoher Wiedergabetreue. Solche Modelle können in Simulationsplattformen integriert werden, um herkömmliche Simulationen zu beschleunigen. Solche Surrogatmodelle können auch in nahezu Echtzeit mit hoher Wiedergabetreue Rückschlüsse ziehen, dienen als robuste digitale Zwillinge und beschleunigen die digitale Transformation in den Bereichen Industrie, Geowissenschaften und Biowissenschaften. Es ist jetzt als Open Source unter der Apache 2.0 Lizenz verfügbar. Wir veröffentlichen Modulus v23.04. Zu den Highlights dieser Version gehören:
  • Überarbeitete Modulus-Architektur zur Verbesserung der datengesteuerten Arbeitsabläufe für KI-Entwickler
  • Neue Modellarchitekturen - Unterstützung von graphischen neuronalen Netzen, neue Trainingsrezepte, z.B. für groß angelegte Wettermodelle
  • Rezepte für den Einsatz von mit Modulus trainierten Modellen zur Inferenz

NVIDIA HPC SDK - Minor Update v23.3

Das NVIDIA HPC SDK ist eine umfassende Suite von Compilern, Bibliotheken und Tools für die Entwicklung beschleunigter HPC-Anwendungen. Die breite Palette flexibler Unterstützungsoptionen ermöglicht es Benutzern, Anwendungen mit dem Programmiermodell zu erstellen, das für ihre Situation am besten geeignet ist.

Das HPC SDK bietet eine Vielzahl von Programmiermodellen, von leistungsoptimierten Drop-in-Bibliotheken über Standardsprachen und direktivenbasierten Methoden bis hin zur Spezialisierung durch CUDA. Viele der jüngsten Erweiterungen betreffen die Unterstützung von Standardsprachen wie ISO C++, ISO Fortran und Python. Die NVIDIA HPC Compiler nutzen die jüngsten Fortschritte in den öffentlichen Spezifikationen für diese Sprachen und bieten eine produktive Programmierumgebung, die sowohl portabel als auch performant für die Skalierung auf GPU-beschleunigten Plattformen ist.

Dieses Update 23.3 ist eine kleinere Version, die einige neue Funktionen, aktualisierte Plattformunterstützung und Fehlerkorrekturen für das HPC-SDK enthält. Zu den Plattform-Updates gehören Erweiterungen der Unterstützung für ARM SLES, LLVM 16 und CUDA Fortran auf NVIDIA Hopper GPUs. Auch für die Math Libs werden im Laufe des Jahres Updates vorgenommen.

NVIDIA RAPIDS RAFT

NVIDIA hat eine neue Bibliothek, RAPIDS RAFT, angekündigt, die eine GPU-beschleunigte Vektorsuche für große Sprachmodelle ermöglicht. Durch die Integration von RAFT können Vektordatenbanken und Suchmaschinen nun deutlich schnellere Leistung für Aufgaben wie den Aufbau von Indizes, das Laden von Daten und die Ausführung vieler verschiedener Abfragetypen liefern. Zu den Highlights gehören:
  • RAFT beschleunigt Anwendungsfälle der Vektorsuche durch beschleunigte Exact- und Approximate Nearest Neighbor-Primitive auf GPUs
  • RAFT beschleunigt die Indexerstellung um das bis zu 95-fache und Abfragen pro Sekunde um das bis zu 3-fache im Vergleich zu CPU-Implementierungen
NVIDIA arbeitet bereits mit FAISS, Milvus und Redis zusammen, um ihren Anwendern auf der Grundlage von RAFT eine verbesserte Vektorsuchleistung zu bieten.

NVIDIA TAO Toolkit

NVIDIA hat das NVIDIA TAO Toolkit 5.0 angekündigt, das neue Funktionen zur Verbesserung der KI-Modellentwicklung bietet. Zu den neuen Funktionen gehören eine quelloffene Architektur, transformatorbasierte vortrainierte Modelle, KI-gestützte Datenannotation und die Möglichkeit, Modelle auf jeder Plattform einzusetzen.
  • ONNX-Modellexport, mit dem TAO-Modelle
  • modelle auf beliebigen Geräten, wie GPUs, CPUs, MCUs und mehr, eingesetzt werden können
  • KI-gestütztes Annotationstool für schnellere und kostengünstigere automatisch generierte Segmentierungsmasken
  • Neue SOTA-Vision-Transformatoren für Bildklassifizierung, Objekterkennung und Segmentierungsaufgaben
  • Erhöhte KI-Transparenz und -Erklärbarkeit, indem TAO als offener Quellcode zur Verfügung gestellt wird

NVIDIA DeepStream SDK

NVIDIA hat die nächste Version des DeepStream SDK angekündigt, die eine neue Graph Execution Runtime (GXF) einführt, die es Entwicklern ermöglicht, über das Open-Source-Multimedia-Framework GStreamer hinauszugehen. Die Erweiterung von DeepStream um GXF ist ein entscheidender Vorteil für Anwender, die Anwendungen entwickeln wollen, die eine strenge Ausführungskontrolle, ein fortschrittliches Scheduling und ein kritisches Thread-Management erfordern. Diese Funktion ermöglicht eine Vielzahl neuer Anwendungen, unter anderem in den Bereichen industrielle Qualitätskontrolle, Robotik und autonome Maschinen. Die Aktualisierungen umfassen:
  • Neue Runtime mit erweiterten Scheduling-Optionen
  • Neue Accelerated Extensions
Aktualisierte Accelerated Plugins

NVIDIA Metropolis Microservices 

NVIDIA kündigte ein Early-Access-Programm für NVIDIA Metropolis Microservices an, das Cloud-native, anpassbare und unternehmensgerechte Bausteine bietet, die Entwickler leicht anpassen können, um Vision-KI-Anwendungen und -Dienste zu beschleunigen. Die Early-Access-Version umfasst mehrere Microservices und drei einsatzbereite KI-Workflows - Verlustprävention im Einzelhandel, Multikamera-Tracking und Belegungsanalyse (einschließlich Analyse von Einzelhandelsgeschäften). Zu den Highlights gehören:
  • Erweiterte Tracking- und Analysefunktionen für mehrere Kameras, die dabei helfen, Erkenntnisse zu gewinnen und Muster aus den Bewegungen und dem Verhalten von Objekten zu erkennen.
  • Konfigurierbarkeit und Anpassbarkeit auf allen Ebenen, von vordefinierten Modellen, Referenz-App-Struktur und APIs bis hin zum Microservices-Code selbst.
  • Cloud-native Architektur mit klar definierten APIs und Industriestandards.

NVIDIA Triton

NVIDIA kündigte wichtige Updates für Triton Inference Serverder Open-Source-Software, die schnelle und skalierbare KI für jede Anwendung in der Produktion ermöglicht. Über 66 Funktionen wurden im letzten Jahr hinzugefügt. Zu den bemerkenswerten Software-Updates gehören:
  • PyTritoneine einfache Schnittstelle zur Ausführung von Triton in nativem Python-Code. Sie ermöglicht schnelles Prototyping und eine einfache Migration von Python-basierten Modellen.
  • Unterstützung für Modell-Ensembles und die gleichzeitige Analyse mehrerer Modelle in Modell-Analysator
  • Unterstützung von Paddle Paddle und Integration mit Paddle Paddle FastDeploy
  • FasterTransformer-Backend mit Unterstützung für BERT, Hugging Face BLOOM & FP8 in GPT
Triton-Verwaltungsdienst [Früher Zugang]: Automatisierte und ressourceneffiziente Orchestrierung von Modellen für Inferenzen im großen Maßstab

cuNumeric and Legate

cuNumeric v23.03 und Legate Core v23.03 sind Bibliotheken zur Beschleunigung von wissenschaftlichen Gleichungen in Python. NVIDIA cuNumeric ist eine Legate-Bibliothek, die eine Drop-in-Ersatzbibliothek für NumPy darstellt und der Python-Community verteiltes und beschleunigtes Rechnen auf der NVIDIA-Plattform ermöglicht. Legate demokratisiert das Computing, indem es allen Programmierern ermöglicht, die Leistung großer Cluster von CPUs und GPUs zu nutzen, indem sie denselben Code ausführen, der auf einem Desktop oder einem Laptop läuft.

Eine Beta-Version steht jetzt auf GitHub zum Download bereit, zusammen mit Conda-Paketeheute.
  • Transparente Beschleunigung und Skalierung bestehender NumPy-Workflows
  • Optimale Skalierung auf bis zu Tausende von GPUs
  • Erfordert keine Code-Änderungen, um die Produktivität der Entwickler zu gewährleisten

BioNeMo

NVIDIA BioNeMo Service ist ein Cloud-Service für generative KI in der frühen Arzneimittelforschung mit Schwerpunkt auf Proteinen und kleinen Molekülen. Neun biomolekulare KI-Modelle von SOTA sind jetzt an einem Ort für die Vorhersage von 3D-Proteinstrukturen, die Generierung von Proteinen und kleinen Molekülen, die Vorhersage von Eigenschaften und das molekulare Docking (Vorhersage der Bindungsstruktur eines kleinen Moleküls an ein Protein) verfügbar. Auf BioNeMo kann über eine Weboberfläche oder API-Endpunkte zugegriffen werden und die Ergebnisse können visualisiert und heruntergeladen werden. Die KI-Modelle in BioNeMo können auf der DGX Cloud fein abgestimmt und mit kundeneigenen Daten trainiert werden. Wissenschaftler können jetzt:
  • Große Bibliotheken von Proteinen generieren
  • Eigenschaftsvorhersagen mithilfe von Einbettungen erstellen, um Proteinbibliotheken zu verfeinern
  • Kleine Moleküle mit spezifischen Eigenschaften generieren
  • Schnelle und genaue Vorhersage und Visualisierung der 3D-Struktur von Milliarden von Proteinen
  • Durchführung großer Kampagnen zur Abschätzung der Liganden-zu-Kleinmolekül-Position
Herunterladen von Proteinen, Molekülen und vorhergesagten 3D-Strukturen

Parabricks

Parabricks 4.1 wird auf der GTC angekündigt und im zweiten Quartal 2023 vollständig veröffentlicht werden.
  • Parabricks ist die einzige KI- und GPU-beschleunigte Genomik-Software-Suite, die Goldstandard-Anwendungen wie GATK und BWA-MEM sowie das KI-Modell DeepVariant für das Varianten-Calling umfasst.
  • Genomic Sequencer Agnostic - analysiert Short Read (z.B. Illumina, Singular, Ultima) und jetzt auch Long Read Genomdaten von PacBio.
  • Unterstützung für die genomische Analyse von PacBio-Long-Read-Daten mit beschleunigtem Minimap2 für das Alignment und beschleunigtem DeepVariant für das Varianten-Calling.
  • Beschleunigte Short-Read-Keimbahnanalyse mit ~16 Minuten (vorher 22 Minuten) auf A100, was bedeutet, dass über 31.000 Genome/Jahr analysiert werden können.
  • Deep Variant Re-Training Framework, so dass jeder DeepVariant auf seinen eigenen Daten trainieren kann, um die Genauigkeit der Variantenerkennung zu erhöhen.
  • Kompatibilität mit dem neuen NVIDIA H100-Grafikprozessor, der einen leistungsstarken DPX-Befehl zur Verbesserung von Algorithmen der dynamischen Programmierung wie Smith Waterman für das lokale Sequenz-Alignment enthält.

Warp (Omniverse)

NVIDIA Warp ist ein Python-Framework, mit dem Programmierer auf einfache Weise GPU-beschleunigte, kernelbasierte Programme in NVIDIA Omniverse™ und OmniGraph schreiben können. Mit Warp erstellen Omniverse-Entwickler GPU-beschleunigte 3D-Simulations-Workflows und fantastische virtuelle Welten.

Warp 0.7.2 ist die neueste Version, die auf GitHub und PyPi verfügbar ist, mit den folgenden Ergänzungen:
  • Eine wichtige Änderung wurde am Warp-Typ-System vorgenommen, das nun die Definition von Vektor- und Matrixtypen mit beliebiger Länge/Präzision unterstützt und uns erlaubt, eine Obermenge von USD-Typen in Warp-Kernen zu unterstützen.
  • Verbesserte PyTorch-Kompatibilität
  • JAX-Dienstprogramme für Zero-Copy-Interop hinzugefügt
CUTLASS-Integration für dichte GEMMs hinzugefügt

Isaac ROS 

Wir haben angekündigt, dass die neue Isaac ROS-Version, Developer Preview 3, bald verfügbar sein wird. Die wichtigsten Funktionen umfassen:
  • Neues LIDAR-basiertes Grid Localizer-Paket - Automatisches Finden von NAV2 Robot POSE in < 0,5 Sekunden
  • Neue Unterstützung der Personenerkennung im nvblox-Paket - GPU-beschleunigte 3D-Rekonstruktion zur Kollisionsvermeidung
  • Aktualisierte VSLAM und Tiefenwahrnehmung GEM (ESS)
  • Quellcode-Veröffentlichung von NITROS, NVIDIAs ROS 2 Hardware-Beschleunigungs-Implementierung
  • Neue Isaac ROS-Benchmark-Suite auf Basis von ros2_benchmark
  • Open-Source-Veröffentlichung für mehrere hardwarebeschleunigte Pakete
  • Unterstützung für Jetson Orin NX und Orin Nano Module

NVIDIA JAX

JAX ist ein Rahmenwerk für die Forschung im Bereich DL und wissenschaftliches Rechnen und bietet nahtlose Skalierbarkeit, was ein entscheidender Faktor beim Training großer Transformer-basierter (z. B. Sprach-)Modelle ist. Die wichtigsten Merkmale sind:
  • Numpy-ähnliche APIs mit automatischer Differenzierung für bessere Kompatibilität
  • Batching, Gerätepartitionierung und Skalierung für eine effizientere GPU-Nutzung
  • End-to-End-Compiler-Optimierung (z. B. XLA) mit Kernel-Fusion zu einem einzigen CUDA-Kernel - was die Leistung durch reduzierten globalen Speicherzugriff verbessert

NVIDIA OMNIVERSE CLOUD

NVIDIA Omniverse Cloud ist eine Plattform-as-a-Service, die Entwicklern und Unternehmen eine umfassende Cloud-Umgebung für das Design, die Entwicklung, den Einsatz und die Verwaltung von industriellen Metaverse-Anwendungen bietet.
  • Cloud-unabhängig, Bereitstellung zuerst auf Microsoft Azure
  • Verfügbar als privates Angebot für Unternehmen - April 2023 im Azure Marketplace
  • Bereitstellung auf NVIDIA OVX 2.0-Servern, die speziell für umfangreiche, komplexe 3D-Workflows in Echtzeit entwickelt wurden

NVIDIA DRIVE 

BYD, der weltgrößte Hersteller von Elektrofahrzeugen, erweitert seine Partnerschaft mit NVIDIA für softwaredefinierte Fahrzeuge der nächsten Generation auf Basis von NVIDIA DRIVE
  • Zusammenarbeit soll ab 2024 Mainstream-Fahrzeuge auf Basis von NVIDIA DRIVE Orin liefern
  • Die erweiterte Partnerschaft erweitert BYDs Einsatz von DRIVE Orin auf die verschiedenen Modelle der Dynasty- und Ocean-Serien von Limousinen und SUVs
  • BYD plant die Einführung von Dynasty- und Ocean-Fahrzeugen mit NVIDIA-Antrieb bis Mitte nächsten Jahres in China, bevor eine weltweite Expansion erfolgt

NVIDIA Virtual GPU

Die NVIDIA Virtual GPU (vGPU) Software ermöglicht eine leistungsstarke GPU-Performance für Workloads, die von grafikintensiven virtuellen Workstations bis hin zu Data Science und AI reichen. IT-Abteilungen können so die Verwaltungs- und Sicherheitsvorteile der Virtualisierung sowie die für moderne Workloads erforderliche Leistung von NVIDIA nutzen. Auf der GTC kündigen wir die folgenden Funktionen an:
  • Unterstützung für NVIDIA L4 GPU zur Beschleunigung von virtuellen Workstations der Einstiegs- bis Mittelklasse mit NVIDIA RTX Virtual Workstation (vWS) und Knowledge Worker Workloads mit NVIDIA Virtual PC (vPC)
  • Siehe NVIDIA vGPU 15.2 dokumentation für zusätzliche Funktionen

NVIDIA IGX Orin Developer Kit

Die NVIDIA IGX Orin Entwickler-Kits sind neue Edge-KI-Entwickler-Kits für den industriellen und medizinischen Bereich, mit denen Entwickler Anwendungen erstellen können, die die Zusammenarbeit von Mensch und Maschine in industriellen und medizinischen Umgebungen verbessern, um die Produktivität und Sicherheit zu erhöhen. Die IGX Orin Entwickler-Kits umfassen:
  • NVIDIA IGX Orin-Modul, ConnectX-7 SmartNIC, BMC, Sicherheits-MCU
  • Chassis und Stromversorgung
  • NVIDIA SDKs: Metropolis und Holoscan

DLSS 3 Frame Generation

Frame Generation ist der neue Leistungsmultiplikator in DLSS 3, der die KI nutzt, um völlig neue Frames zu erstellen. Dieser Durchbruch hat die Pfadverfolgung in Echtzeit - die nächste Stufe der Videospielgrafik - möglich gemacht. Seit seiner Ankündigung nutzen über 25 Top-Spiele und Anwendungen DLSS 3, um realistische Grafiken mit unglaublicher Leistung zu liefern, darunter A Plague Tale Requiem, Portal mit RTX und Cyberpunk 2077. In einigen Fällen haben sich die FPS fast verdreifacht.
  • Frame Generation ist als Plugin für Entwickler über unser Streamline 2.0 SDK verfügbar
  • DLSS 3 Frame Generation Plugin für die Unreal Engine in der nächsten Version

HOLOSCAN

NVIDIA ist die Echtzeit-KI-Plattform für das Streaming von Sensordaten, von der Chirurgie bis zu Satelliten
  • NVIDIA kündigt eine Zusammenarbeit mit Medtronic an, um eine KI-Plattform für medizinische Geräte zu entwickeln
  • Medtronic wird NVIDIA Holoscan und IGX in sein intelligentes Endoskopiemodul GI Genius integrieren
  • Die ORSI Academy bringt Holoscan in den Operationssaal für ihre erste robotergestützte Operation in der Praxis

Isaac Sim

Wir haben angekündigt, dass Isaac Sim für Unternehmen über die NVIDIA Omniverse Cloud verfügbar sein wird, eine Plattform-as-a-Service, die Entwicklern und Unternehmen eine umfassende Cloud-Umgebung für Design, Entwicklung, Bereitstellung und Verwaltung von Anwendungen bietet.
  • Plattform-as-a-Service für rechenintensive Workloads wie synthetische Datenerzeugung und CI/CD
  • Neue APIs verringern den Bedarf an IT-Investitionen in die Cloud-Infrastruktur

MONAI

MONAI ist ein unternehmenstaugliches, domänenspezifisches Open-Source-Framework, das bahnbrechende Forschungsergebnisse beschleunigt und KI-Anwendungen in die klinische Praxis umsetzt.
  • MONAI erreicht den Meilenstein von 1 Million Downloads und beweist damit eine breite Akzeptanz
  • Generative KI-Modelle in MONAI Model Zoo zur Erstellung großer, synthetischer Datensätze für medizinische Bildgebung

CUDA Werkzeugsatz

CTK 12.1 ist die neueste Version von Runtime, Treiber und Toolkit, die heute verfügbar ist.
  • Verbesserte Leistung für Hopper- und Ada Lovelace-Architekturen
  • Verbesserte Bibliotheken (z.B. cuBLAS und cuFFT) zur Unterstützung von Hopper und Ada Lovelace
  • Aktualisierte Compiler JIT-LTO Kernel-Optimierung