Auf der Konferenz können die Teilnehmer von Branchenexperten hören, an technischen Sitzungen und praktischen Workshops teilnehmen, sich mit Gleichgesinnten vernetzen und die neuesten Produkte und Lösungen von NVIDIA und seinen Partnern kennenlernen. Die Veranstaltung bietet auch Entwicklern, Forschern und Innovatoren die Möglichkeit, sich mit der NVIDIA Entwickler-Community auszutauschen und zu erfahren, wie sie die Leistung von Grafikprozessoren nutzen können, um ihre Arbeit voranzutreiben.
Wir von sysGen sind am Start und berichten hier über die Highlights und was als Nächstes kommt. Bleiben Sie am Ball und verpassen Sie keine wichtige Information rund um den Einsatz von künstlicher Intelligenz (KI), beschleunigtes Computing und vieles mehr.

GTC Developer Conference

NVIDIA HGX H100
NVIDIA HGX H100 ist die weltweit leistungsstärkste End-to-End-KI-Supercomputing-Plattform, die die volle Leistung der NVIDIA H100-GPUs und vollständig optimierte NVIDIA KI- und NVIDIA HPC-Software-Stacks vereint, um höchste Simulations-, Datenanalyse- und KI-Leistung zu bieten. HGX H100 ist als Server-Baustein in Form von integrierten Baseboards in Konfigurationen mit vier oder acht H100-GPUs erhältlich. HGX H100 mit vier GPUs bietet vollständig vernetzte Punkt-zu-Punkt-NVLink-Verbindungen zwischen den GPUs, während die Konfiguration mit acht GPUs volle GPU-zu-GPU-Bandbreite über NVSwitch bietet. Durch die Nutzung der Leistung der H100 Multi-Präzisions-Tensor-Cores bietet eine 8-Wege HGX H100 über 32 petaFLOPS an FP8 Deep-Learning-Rechenleistung.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ Ada Generation
Laptop GPUs
Die NVIDIA RTX™ Ada Generation Laptop-Grafikprozessoren, die auf der NVIDIA Ada Lovelace Architektur basieren, treiben die fortschrittlichsten dünnen und leichten mobilen Workstations der Welt an und bieten einen massiven Durchbruch bei Geschwindigkeit, Effizienz und Portabilität, um die anspruchsvollsten visuellen Computing-Workflows von überall aus zu bewältigen. Mit den neuesten CUDA™ Core-, RT Core-, Tensor Core- und Kodierungstechnologien bieten die neuen NVIDIA RTX Notebook-Grafikprozessoren eine bis zu 2-fache Leistung und Energieeffizienz im Vergleich zur vorherigen Generation, um Grafik, Raytracing und KI-Beschleunigung für Kreative, Designer und Ingenieure unterwegs zu optimieren.

NVIDIA IGX Orin™
NVIDIA IGX Orin™ liefert ultraschnelle Leistung in der Größe und im Stromverbrauch, die für KI am Rande der Welt erforderlich sind. Mit dem weltweit leistungsstärksten KI-Computer für energieeffiziente autonome Maschinen, der eine KI-Leistung von 275 Tera-Operationen pro Sekunde (TOPS) liefert, enthält IGX Orin auch eine NVIDIA® ConnectX®-7 Smart Network Interface Card (SmartNIC) mit einer Netzwerkgeschwindigkeit von 200 Gigabit pro Sekunde (Gb/s). Eine in das Board integrierte Sicherheits-Mikrocontrollereinheit (sMCU) ermöglicht die Programmierung zusätzlicher Sicherheitsfunktionen in den IGX-Software-Stack.

NVIDIA BlueField-3 DPU
Die erstmals auf der GTC 2021 angekündigte NVIDIA BlueField-3 DPU ist die weltweit fortschrittlichste Computing-Plattform für Rechenzentrums-infrastruktur-Workloads und ermöglicht beschleunigtes Computing für die Ära der KI. BlueField-3 unterstützt Ethernet- und InfiniBand-Konnektivität mit bis zu 400 Gigabit pro Sekunde (Gb/s) und bietet im Vergleich zur Vorgängergeneration eine 4-fach höhere Rechenleistung, eine bis zu 4-fach schnellere Krypto-Beschleunigung, eine 2-fach schnellere Speicherverarbeitung und eine 4-fach höhere Speicherbandbreite - und das bei voller Abwärtskompatibilität durch das NVIDIA DOCA Software-Framework. Er verfügt über leistungsfähigere Arm-CPU-Kerne, eine beschleunigte Paketverarbeitungs-Pipeline und einen neuen Datenpfad-Beschleuniger (DPA) - alles vollständig programmierbar.

Der NVIDIA L4 Tensor Core Grafikprozessor -
ein bahnbrechender Universalbeschleuniger
Der NVIDIA Ada Lovelace L4 Tensor Core Grafikprozessor bietet universelle Beschleunigung und
Energieeffizienz für Video, KI, virtuelle Workstations und Grafik im Unternehmen,
in der Cloud und im Edge-Bereich. Mit der NVIDIA KI-Plattform und dem Full-Stack-Ansatz ist der L4
für Video und Inferenzen in großem Umfang für eine breite Palette von KI-Anwendungen optimiert, um
die besten personalisierten Erlebnisse zu liefern.

NVIDIA Grace™ Hopper™ Superchip
Der NVIDIA Grace™ Hopper™ Superchip ist eine bahnbrechende beschleunigte CPU, die von Grund auf für groß angelegte KI- und HPC-Anwendungen entwickelt wurde. Der Superchip liefert eine bis zu 10-fach höhere Leistung für Anwendungen, die Terabytes an Daten verarbeiten, und ermöglicht es Wissenschaftlern und Forschern, noch nie dagewesene Lösungen für die komplexesten Probleme der Welt zu finden. Der Grace Hopper Superchip verfügt über einen neuen kohärenten NVIDIA NVLink-C2C Interconnect, der eine Bandbreite von 900 GB/s zwischen der NVIDIA Grace CPU und der NVIDIA Hopper GPU bietet. Dieses innovative Design liefert im Vergleich zu den schnellsten Servern von heute eine 7-fach höhere aggregierte Speicherbandbreite zur GPU. Die NVIDIA NVLink-C2C-Verbindung bietet eine einheitliche Cache-Kohärenz mit einem einzigen Speicheradressraum, der LPDDR5X-CPU-Speicher und HBM-GPU-Speicher für eine vereinfachte Programmierbarkeit kombiniert.Hier Text einfügen
H100 NVL: Nvidias Speichergigant fürs KI-Training
H100 NVL ist explizit zum Training großer KI-Modelle wie beispielsweise ChatGPT gedacht. Dementsprechend liegt der Fokus auf den integrierten Tensor-Kernen: Im FP16-Format sollen sie 1979 Teraflops erreichen, bei nochmals halbierter FP8-Genauigkeit den doppelten Wert, also 3958 Teraflops. In klassischen Workloads stemmen die Shader-Kerne wie die SXM5-Version 34 FP64- beziehungsweise 67 FP32-Teraflops.
Hier Titel einfügen
Hier Text einfügen

DGX Cloud
NVIDIA DGX Cloud ist ein KI-Schulungsdienst, der für die besonderen Anforderungen von KI in Unternehmen entwickelt wurde. Mit integrierter Software und Infrastruktur, die für Multi-Node-Training optimiert sind, bietet DGX Cloud eine umfassende KI-Entwickler-Suite, eine Infrastruktur der Spitzenklasse, direkten Zugang zu KI-Experten und Support für Unternehmen, so dass Unternehmen sofort mit KI-Innovationen beginnen können - und das zu einem kalkulierbaren Komplettpreis.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.

NVIDIA RTX™ 4000 SFF Ada Generation
Die NVIDIA RTX™ 4000 SFF Ada Generation ist ein echtes Kraftpaket und bietet Leistung in voller Größe in einem kompakten Format. Der RTX 4000 SFF basiert auf der NVIDIA Ada Lovelace Architektur und verfügt über 48 RT Cores der dritten Generation, 192 Tensor Cores der vierten Generation und 6.144 CUDA® Cores mit 20 GB Grafikspeicher für eine bemerkenswerte Beschleunigung für Rendering, KI, Grafik- und Rechenaufgaben. Workstations mit der RTX 4000 SFF bieten professionellen Anwendern die nötige Leistung, Zuverlässigkeit und Vielseitigkeit, um der Zeit voraus zu sein und im heutigen Wettbewerb erfolgreich zu sein, ohne Abstriche bei der Leistung zu machen.
- DGX Cloud ist ein Teil des DGX-Plattform-Produktportfolios.
- Unternehmen können jetzt auf einen KI-Supercomputer in der Cloud zugreifen.
- DGX Cloud wird von NVIDIA entwickelt und implementiert, und die DGX Cloud-Infrastruktur wird nach NVIDIAs Design und Spezifikationen über Partnerschaften mit Oracle Cloud, Microsoft Azure und Google Cloud Platform gehostet.
- DGX Cloud umfasst die Base Command Platform, NVIDIA AI Enterprise, Enterprise Support und den Zugang zu NVIDIA AI Experts.

NVIDIA DGX PLATFORM
- Was früher die DGX "Familie" oder das "Portfolio" war, ist jetzt die "DGX Plattform". Die DGX-Plattform umfasst: NVIDIA DGX Cloud, NVIDIA Base Command, NVIDIA DGX SuperPOD, NVIDIA DGX BasePOD, NVIDIA DGX H100 Systeme, NVIDIA DGX A100 Systeme
- Alle DGX-bezogenen Webseiten wurden aktualisiert und unterstützen nun DGX-Plattform, DGX Cloudusw., mit einer vereinfachten Benutzerführung
- NVIDIA DGX H100 ist jetzt in voller Produktion

NVIDIA OMNIVERSE ENTERPRISE
- Neue BYOL Enterprise Nucleus Server Bereitstellungsoptionen für Azure, AWS und GCP
- Omniverse auf Launchpad: Führen Sie mit Bring Your Own Data labor für Ihre Kunden. Verwenden Sie SFDC Test-Nominierungsformular für qualifizierte Kontakte.
- Neues Omniversum für Automobil-Inhalte
- Enterprises Share Their Experience with DGX Cloud [S51386]
- A Transformative AI Platform to Accelerate Biologics Discovery [S52391] - Amgen’s experience with DGX Cloud
- Building an AI Center of Excellence with DGX Cloud [S51830]- Charlie Boyle, NVIDIA; Jeremy Barnes, ServiceNow

NVIDIA Jetson Orin Nano Developer Kit
- Jetson Orin Nano 8GB Modul mit Kühlkörper und Referenzträgerplatte
- 40 INT8 TOPS mit Ampere GPU und 6-Core Arm® Cortex-A78AE v8.2 64-bit CPU
- 8 GB 128-Bit LPDDR5-Speicher, 68 GB/s
- Die Trägerplatine kann alle Orin Nano und Orin NX Module aufnehmen, da sie zu 100% Pin- und Formfaktor-kompatibel ist
- Leistungsstarker NVIDIA AI Software Stack mit Unterstützung für SDKs wie NVIDIA JetPack, NVIDIA RIVA, NVIDIA DeepStream, NVIDIA Isaac ROS, etc.
Die gesamte Palette der kommerziellen Module der NVIDIA Jetson Orin-Familie ist ab sofort erhältlich, darunter die Jetson AGX Orin-Serie, die Jetson Orin NX-Serie und die Jetson Orin Nano-Serie. Das Jetson AGX Orin Developer Kit wurde ebenfalls erweitert und enthält nun 64 GB Speicher zum gleichen Preis von 1.999 US-Dollar. Das JetPack SDK soll am 28. März veröffentlicht werden.
- Level Up Edge AI and Robotics With NVIDIA Jetson Orin Platform [SE52045]
- Accelerate Edge AI With NVIDIA Jetson Software [SE52433]
- Getting the Most Out of Your Jetson Orin Using NVIDIA Nsight Developer Tools [SE52434]
- Bring Your Products to Market Faster With the NVIDIA Jetson Ecosystem [SE52435]
- Design a Complex Architecture on NVIDIA Isaac ROS [S51822]
- End-to-end, Cloud-Native Vision AI: From Synthetic Data to Solution Deployment [S51669]
- AI Models Made Simple Using TAO [S52456]
- An Intro into NVIDIA DeepStream and AI-streaming Software Tools [S52455]
- Connect with Jetson Experts [CWES52132]
.jpg)
NVIDIA AI Enterprise
- NVIDIA RAPIDS Accelerator für Apache Spark zur Beschleunigung der Datenverarbeitung:
- NVIDIA AI Enterprise 3.1 enthält RAPIDS Accelerator für Apache Spark, um GPU-Beschleunigung für Apache Spark 3.x zu ermöglichen
- Optimierte Leistung für Spark-Implementierungen mit vollem Zugang zu Enterprise-Grade-Support auf zertifizierten Plattformen wie Amazon EMR, Google Cloud Dataproc und Databricks auf Azure und AWS
- Neue KI-Workflows: zwei neue KI-Workflows, die nur mit einem NVIDIA AI Enterprise-Abonnement verfügbar sind
- Next Item Prediction - Aufbau einer Empfehlungspipeline zur Förderung von Kundenbindung und Upselling
- Routenoptimierung - Optimierung von Distributions- und Lieferflotten zur Kosten- und Zeitreduzierung mit dynamischen Beschränkungen
- NVIDIA AI Enterprise auf Cloud Marketplaces verfügbar:
- Jetzt auf den Google Cloud Marketplaces und in Kürze auch auf den AWS und Microsoft Azure Marketplaces verfügbar
- Kunden können sofort loslegen, indem sie eine On-Demand-Instanz oder ein privates Angebot mit verbindlichen Cloud-Ausgabenvereinbarungen erwerben, die beide auf den Marktplätzen verfügbar sind.
- Das Angebot auf dem Marktplatz umfasst den kompletten NVIDIA AI Enterprise Software-Stack und Support auf Enterprise-Niveau.
- CSP Managed Kubernetes Orchestration Services: NVIDIA AI Enterprise 3.1 unterstützt Kubernetes-Container-Hosting-Umgebungen wie Amazon Elastic Kubernetes Service (Amazon EKS) und Google Kubernetes Engine (GKE).
- Unterstützung für Ada Lovelace GPUs und Verbesserungen für hybride Cloud-Infrastrukturen:
- Unterstützung für NVIDIA Ada Lovelace-Grafikprozessoren - NVIDIA L4, L40 und RTX 6000 Ada Generation - zur Optimierung verschiedener generativer KI- und Inferenz-Workloads

NVIDIA Quantum Platform
NVIDIA CUDA Quantum (früher bekannt als QODA) ist eine offene, QPU-agnostische Entwicklungsplattform für hybrides klassisches Quantencomputing. Durch die Bereitstellung eines hybriden Quanten-/Klassik-Programmiermodells, das mit den wichtigsten wissenschaftlichen Computeranwendungen von heute interoperabel ist, öffnen wir die Programmierung von Quantencomputern für eine große neue Klasse von Wissenschaftlern und Forschern.
DGX Quantum ist ein Hardware- und Softwaresystem, das den NVIDIA Grace Hopper Superchip und das Open-Source-Programmiermodell CUDA Quantum kombiniert, um die leistungsstärkste Plattform für beschleunigtes Rechnen zu schaffen. Diese Rechenplattform wird dann mit OPX+ integriert, der weltweit fortschrittlichsten Quantensteuerungsplattform, die von Quantum Machines entwickelt wurde und die GPU-QPU-Latenz um 1-2 Größenordnungen reduziert.
Highlights der Quantencomputing-Plattform:
- Beinhaltet: cuQuantum Bibliotheken, CUDA Quantum und DGX Quantum System
cuQuantum Höhepunkte:
- Multi-Node, Multi-GPU-Unterstützung in der DGX cuQuantum Appliance.
- Unterstützung für approximative Tensornetzwerk-Methoden.
- Die Akzeptanz von cuQuantum gewinnt weiter an Fahrt, auch bei CSPs und industriellen Quantengruppen.
CUDA Quantum Höhepunkte:
- Neuer Name, vormals QODA
- Ab GTC Frühjahr 2023 ist CUDA Quantum in der öffentlichen Betaphase
- Single-Source-Implementierungen in C++ und Python sowie eine Compiler-Toolchain für hybride Systeme und eine Standardbibliothek von Quantenalgorithmus-Primitiven.
- QPU-unabhänig. Partnerschaften mit Quanten-Hardware-Unternehmen für ein breites Spektrum von Qubit-Modalitäten.
- Fast 300-fache Beschleunigung gegenüber einem führenden Python-Framework, das auch auf einer A100 GPU läuft
Höhepunkte des DGX Quantum Systems:
- Basiert auf Grace Hopper Superchip
- Enthält CUDA Quantum
- integriert mit OPX+ Quantensteuerungsplattform von Quantum Machines
- Die Kombination reduziert die GPU-QPU-Latenzzeit um 1-2 Größenordnungen
- Defining the Quantum-Accelerated Supercomputer [S51075]
- Energy Efficiency: An Application’s Perspective [S51835]
- Exploring Industry and Business Use Cases for GPU-Powered Quantum Technologies [S51171]
- Defining the Quantum-Accelerated Supercomputer, with Q&A from EMEA Region [S51075a]
- Scalable Quantum Simulators for Industry Problems [S51600]
- Inside CUDA Quantum [S51762]
- Simulating Massive Quantum Semidefinite Programs on GPUs [S51631]
- Massively Parallel Quantum Chemical Algorithms for Materials Science in the Exascale Computing Age [S51442]
- Connect with the Experts: GPU-Accelerated Quantum Chemistry and Molecular Dynamics [CWES52130]
- Pushing Quantum Mechanics to the exascale with JAX and fermionic neural networks [S51805]
- How Short-Term Hybrid HPC-QC can Accelerate Drug Discovery [S51584]
- A Deep Dive into the Latest HPC Software [S51074]

NVIDIA cuLitho
Die Herstellung von Computerchips erfordert einen kritischen Schritt, die so genannte computergestützte Lithografie - eine komplexe Berechnung, die elektromagnetische Physik, Fotochemie, computergestützte Geometrie, iterative Optimierung und verteilte Datenverarbeitung umfasst.
Dieser Lithografieschritt ist bereits eine der größten Rechenaufgaben in der Halbleiterproduktion und erfordert riesige Rechenzentren; der Entwicklungsprozess der Siliziumminiaturisierung erhöht die Rechenanforderungen im Laufe der Zeit exponentiell.
Da die Siliziumstrukturen immer kleiner werden und die Auswirkungen der optischen Beugung kompensiert werden müssen, besteht die Notwendigkeit, die Maskenmuster mit der Optical Proximity Correction (OPC) oder der Inverse Lithography Technology (ILT) proaktiv zu manipulieren, um die Wafer genau abzubilden. Dies erfordert fortschrittliche computergestützte Lithografietechniken und eine höhere Rechenleistung.
Ankündigung von NVIDIA cuLitho:
NVIDIA cuLitho ist eine Bibliothek mit optimierten Werkzeugen und Algorithmen für GPU-beschleunigte Lithografieverfahren (einschließlich OPC und ILT), die um Größenordnungen schneller sind als aktuelle CPU-basierte Verfahren. Dies ermöglicht es Foundries, ihre Entwicklungszyklen zu beschleunigen und neue Lösungen einzusetzen, um die Skalierung von Halbleitern fortzusetzen. Die Vorteile von cuLitho umfassen:
- Fortgesetzte zukünftige Silizium-Skalierung: Schnelleres OPC und Ermöglichung neuer Lithographie-Innovationen
- Leistung: 40-fache Beschleunigung der Produktion von Halbleiter-Fotomasken
- Produktivität: 3- bis 5-mal mehr Masken pro Tag, Masken, die bisher 2 Wochen benötigten, werden jetzt über Nacht hergestellt
- Einsparungen: 500 Hopper GPU-Systeme erledigen die Arbeit von 40.000 CPU-Systemen
- Effizienz von Rechenzentren - 1/9 des Stroms, 1/8 des Platzes

XR: NVIDIA CloudXR 4.0
- Die CloudXR Server API, die Entwicklern die Möglichkeit gibt, CloudXR direkt in ihre Anwendungen einzubauen, wodurch die serverseitige Notwendigkeit einer OpenVR- oder OpenXR-Runtime entfällt. NVIDIA arbeitet auch mit dem Team von Collabra zusammen, um die Möglichkeit zu bieten, Monado OpenXR als API für CloudXR zu verwenden. CloudXR 4.0 unterstützt weiterhin vollständig die OpenVR-API über die SteamVR-Laufzeitumgebung.
- Das Unity-Plug-in für den CloudXR-Client nutzt die Unity XR-API und andere Unity-APIs, um Entwicklern eine Möglichkeit zu bieten, einen vollwertigen CloudXR-Client zu erstellen, der auf der Unity-Engine aufbaut und auf vielen XR-Client-Plattformen eingesetzt werden kann.
- Geringe Latenz, geringer Verlust, skalierbarer Durchsatz (L4S) - Die neueste Version von CloudXR bietet eine "umschaltbare" Implementierung der fortschrittlichen 5G-Packet-Delivery-Optimierung, die entwickelt wurde, um Verzögerungen beim interaktiven Cloud-basierten Video-Streaming deutlich zu reduzieren.
- Unterstützung für generische Controller. Mit CloudXR 4.0 können Entwickler von CloudXR-Clients Input-Mappings für ihre eigenen HMD-Controller erstellen.
- Rückrufbasiertes Logging. Dies ermöglicht eine größere Flexibilität bei der Handhabung von Protokollnachrichten, wobei Anwendungen die Callback-Funktion angeben und Aktionen mit den Protokollnachrichten durchführen können, z. B. Filtern und Schreiben in eine Datei.
- Flexible Stream-Erstellung. Geräte sind in der Regel mit einer bestimmten Art von Videostream verbunden, zum Beispiel einem Mono-RGB-Stream für ein Tablet oder einem Stereo-RGBA-Stream für ein Mixed-Reality-HMD. Mit CloudXR 4.0 können Entwickler angeben, welche Streams für ein bestimmtes Gerät oder eine bestimmte Plattform initiiert werden sollen.

Nsight Developer Tools
- Datenanalyse:
- Nsight Systems sammelt Leistungsdaten in Multi-GPU-Multi-Node-Umgebungen bis hin zu Clustern.
- Analysiert Profildaten und erkennt automatisch, wie sich Drosselungen auf die Gesamtleistung auswirken, indem es Analyseskripte, sogenannte "Rezepte", verwendet.
- Verfolgen Sie Leistungsprobleme über die Knoten bis zu ihrer Quelle zurück und beheben Sie sie.
- Jupyter-Notebook-Integration für Datenvisualisierung und Zusammenarbeit.
- Python-Profilierung:
- Die Optimierung von Python kann aufgrund seiner interpretierten Natur und seiner High-Level-Abstraktionen eine Herausforderung sein, aber es ist die Sprache der Wahl für HPC-Entwickler.
- Nsight Systems bietet automatisches Python-Aufrufstapel-Sampling zur Unterstützung und Beschleunigung des Python-Profilings.
- Netzwerk-Profiling:
- Die Netzwerkkommunikation zwischen den Knoten ist ein entscheidender Faktor für die Leistung eines Rechenzentrums.
- Nsight Systems erfasst Metriken von NVIDIA Quantum-2 InfiniBand switches sowie von NVIDIA ConnectX Smart Network Interface Cards (intelligente NICs).
Außerdem veröffentlicht Nsight Graphics die Version 2023.1, die Unterstützung für die Profilerstellung von Opacity Micromaps (OMMs) in Vulkan-Anwendungen, ein anwendungsinternes HUD für GPU Trace und Verbesserungen bei der Profilerstellung von Vulkan-Raytracing bietet. Nsight Systems veröffentlicht ebenfalls Unterstützung für OMMs.

NVIDIA DGX CLOUD
- DGX Cloud ist ein Teil des DGX-Plattform-Produktportfolios.
- Unternehmen können nun auf einen KI-Supercomputer in der Cloud zugreifen.
- DGX Cloud wird von NVIDIA entwickelt und implementiert und die DGX Cloud-Infrastruktur wird nach NVIDIAs Design und Spezifikationen über Partnerschaften mit Oracle Cloud, Microsoft Azure und Google Cloud Platform gehostet.
- DGX Cloud umfasst die Base Command Platform, NVIDIA AI Enterprise, Enterprise Support und den Zugang zu NVIDIA AI Experts.
- Enterprises Share Their Experience with DGX Cloud [S51386]
- A Transformative AI Platform to Accelerate Biologics Discovery [S52391] - Amgen’s experience with DGX Cloud
- Building an AI Center of Excellence with DGX Cloud [S51830]- Charlie Boyle, NVIDIA; Jeremy Barnes, ServiceNow

NVIDIA Merlin
- Session-Based Recommenders Lab auf Launchpad, Personalisierung des Produktangebots für jeden einzelnen Kunden und Vorhersage von Bedürfnissen und Vorlieben aus früheren Interaktionen
- Next Item Prediction AI Workflow auf Launchpad, einfaches Erreichen einer höheren Genauigkeit für Empfehlungsmodelle
- GTC Session Recommenders Powered by NVIDIA Merlin (jetzt live)

NVIDIA OVX 3.0
Wir kündigen die dritte Generation von NVIDIA OVX™, OVX 3.0, an. Die dritte Generation baut auf den Fähigkeiten der vorherigen Generationen auf, indem sie Bluefield-3 als Teil der Architektur einführt und ein neues, ausgewogenes Design bietet, das für Leistung und Skalierung optimiert ist, um die nächste Generation von Hyperscale Omniverse Workloads zu beschleunigen.

NVIDIA BlueField-3 DPU and DOCA 2.0

NVIDIA NeMo Framework
- Erweiterte Unterstützung für verschiedene Modalitäten, einschließlich Sprache, Sprache und Bilder.
- Modellarchitekturen für Sprache: BERT, GPT-3, T5, T5-MoE, Inform.
- Modellarchitekturen für Bilder: Stabile Diffusion v1.5, VisionTransformers (ViT), CLIP, Instruct-Pix2Pix
- Neue LLM-Anpassungstechniken: Adapter, Reinforcement Learning with Human Feedback (RLHF) und Attention with Linear Biases (AliBi)
- Neue GPU-beschleunigte Datenverarbeitungsbibliotheken zum Schürfen und Kuratieren hochwertiger Textdaten für das Training großer Sprachmodelle
- How to Build Generative AI for Enterprise Use-Cases [S51935]
- The Possibilities for Natural Language Processing and Large Language Models in Finance: Insights from Deutsche Bank [S51160]
- Leveraging Large Language Models for Generating Content [S51947]
- Taming LLMs with the Latest Customization Techniques [S51151]
- Retrieval-Augmented Language Model and Its Application for Question-Answering and Image Captioning [S51916]
- Power of Large Language Models: The Current State and Future Potential [S52113]

NVIDIA NeMo Service
- 3 neue NVIDIA-eigene Grundmodelle um der Komplexität und Latenz ihrer Anwendungen optimal gerecht zu werden
- Neues, von der Community entwickeltes T5-Modell, das über 101 Sprachen unterstützt
- Neue Inform-Funktion, die proprietäre Wissensdatenbanken mit generativen, vortrainierten Modellen verbindet, um Antworten auf Echtzeitdaten zu erhalten
- Modellanpassung - Definieren Sie den Betriebsbereich, fügen Sie Fähigkeiten hinzu und machen Sie die Modelle mit verschiedenen Anpassungstechniken immer intelligenter
- Cloud-APIs zum Anpassen und Bereitstellen von Modellen über Unternehmensanwendungen
- How to Build Generative AI for Enterprise Use-Cases [S51935]
- Leveraging Large Language Models for Generating Content [S51947]
- Taming LLMs with the Latest Customization Techniques [S51151]
- Retrieval-Augmented Language Model and Its Application for Question-Answering and Image Captioning [S51916]
- Power of Large Language Models: The Current State and Future Potential [S52113]

NVIDIA Picasso Service
- Adobe, um die nächste Generation von KI-Funktionen in ihren Produktlinien zu entwickeln. Integration von generativer KI in erstklassige Kreativ- und Marketing-Tools.
- Getty, um Edify Bild- und Videomodelle auf vollständig lizenzierten Bild- und Videodaten zu trainieren. Getty wird die Künstler für ihre Beiträge bezahlen.
- Shutterstock wird Edify 3D-Modelle auf vollständig lizenzierten Daten trainieren. Shutterstock wird die Künstler für ihre Beiträge bezahlen.

NVIDIA AI Workflows
- Intelligente virtuelle Assistenten
- Audio-Transkription
- Vorhersage des nächsten Artikels
- Digitaler Fingerabdruck zur Erkennung von Cybersicherheitsbedrohungen und
- Routen-Optimierung zur Minimierung von Ineffizienzen bei der Routenplanung von Fahrzeugen
- Schadenverhütung im Einzelhandel
- Multi-Kamera-Verfolgung
- Analyse von Einzelhandelsgeschäften
- Transforming Customer Service with Speech AI Applications [S51924]
- Insights from Industry Experts: Speech AI for Impactful Contact Centers [S51860]
- How to Deploy a Digital Fingerprinting Workflow to Detect and Stop Cyberattacks Faster [S51406]
- Advances in Operations Optimization [S51717]
- Leveraging NVIDIA Pre-Trained Models to Build Loss-Prevention Applications Faster [S52043] and S52043a]

NVIDIA cuOpt
- cuOpt, eine weltrekordverdächtige, beschleunigte Optimierungs-Engine
- einen KI-Workflow zur Routenoptimierung
- einen zukünftigen Cloud-Service für beschleunigte Optimierung

NVIDIA Morpheus
- Neuer Spear-Phishing-Anwendungsfall, der eine generative KI-Trainingstechnik nutzt, die zur Erkennung von 90 % der gezielten Spear-Phishing-E-Mails führte, was einer Verbesserung von 20 % im Vergleich zu einer typischen, heute verwendeten Phishing-Erkennungslösung entspricht.
- Verbesserungen des digitalen Fingerabdruck-Workflows, einschließlich integriertem Training und Feedback, um ein effizienteres Training von Modellen zu ermöglichen, sowie Unterstützung für nichtlineare Pipelines zur einfacheren Bereitstellung.
Ebenfalls auf der GTC kündigen Deloitte und NVIDIA eine Zusammenarbeit an, um Kunden KI-basierte Cybersicherheit auf Basis von NVIDIA Morpheus anzubieten. Durch unsere Zusammenarbeit können wir Unternehmen dabei helfen, die Effektivität von fortschrittlichen Angriffserkennungen zu verbessern und gleichzeitig Infrastrukturkosten von 30-50% pro Jahr gegenüber dem Betrieb von KI-Modellen auf Allzweckrechnern einzusparen.
- Learn About New AI-Based Cybersecurity Use Cases and Capabilities [S51404]
- How to Deploy a Digital Fingerprinting Workflow to Detect and Stop Cyberattacks Faster [S51406]
- FinSec Innovation Lab Demonstrates how Accelerated AI Combats Ransomware Attacks [S51437]
- Learn How Industry Experts are Accelerating Cybersecurity with AI [S51352]
- How to Build an AI Pipeline to Detect Anomalous Behavior in the Network [S51824]

NVIDIA Riva
- Übersetzungsunterstützung für domänenspezifische Anwendungsfälle in allen Branchen mit hochwertigen mehrsprachigen und zweisprachigen Modellen für Englisch in/aus Mandarin, Spanisch, Russisch, Deutsch und Französisch
- Spracherkennung für weitere 5 Sprachen: Arabisch, Italienisch, Japanisch, Koreanisch, Portugiesisch (zusätzlich zu Mandarin, Englisch (US/UK), Französisch, Deutsch, Hindi, Russisch, Spanisch (Lateinamerika/Spanien))
- Audiotranskriptions- und intelligente virtuelle Assistenten-Workflows für eine beschleunigte Entwicklung und Bereitstellung in großem Maßstab
NVIDIA arbeitet auf breiter Basis mit mehreren ISVs (Anwendungsanbietern), GSIs (Global System Integrators) und SDPs (Service Delivery Partners) zusammen, zum Beispiel mit Deloitte, Hewlett Packard Enterprise (HPE), Infosys, Interaktionen, und Quantiphiumeine schnellere und kostengünstigere Bereitstellung von maßgeschneiderten Anwendungen auf Basis von Sprach-KI zu ermöglichen.
- Transforming Customer Service with Speech AI Applications [S51924]
- Insights from Industry Experts: Speech AI for Impactful Contact Centers [S51860]
- The Future of Customer Service: How Speech AI is Changing the Game [S51866]
- Hybrid-Cloud Speech AI Solutions [SE51125]
- Leading the Way with Cutting-Edge Speech AI Technology [SE52308]
- Unlocking the Power of Speech AI for Exceptional Communication and Collaboration [SE52349]

XR: NVIDIA Project Mellon
- Leichtgewichtige, einfach zu integrierende Python-Bibliothek
- Die Unterstützung umfangreicher Sprachmodelle sorgt für ein präzises Verständnis natürlicher Sprache
- Zero Shot Language Models machen ein befehlsspezifisches Training überflüssig
- Unterstützt natürlichsprachliche Befehle mit Konversations- und visuellem Kontext
- Unterstützt das Stellen von Fragen zu Befehlen und Szenen mit natürlichsprachlichen Antworten
- Einfache Python-API für das Verstehen und Ausführen von Befehlen
- Webbasierte Testanwendung

RTX Path Tracing
- Erstellung eines Referenz-Pfadverfolgers, um sicherzustellen, dass die Beleuchtung während der Produktion realitätsgetreu ist, und um den Iterationsprozess zu beschleunigen.
- Erstellung von hochwertigen Fotomodi für RT-fähige GPUs oder von Echtzeit-Modi in höchster Qualität, die die Vorteile der Ada-Architektur nutzen
RTX Path Tracing ist das Ergebnis jahrzehntelanger Forschung von NVIDIA. Dieses SDK demonstriert Best Practices für die Erstellung eines Path Tracers unter Verwendung der neuesten Versionen von:
- DLSS 3 für Superauflösung und Frame-Generierung, um die Leistung zu vervielfachen.
- RTX Direct Illumination für effizientes Sampling einer großen Anzahl von Schattenwerfern und dynamischen Lichtern.
- NVIDIA Real Time Denoisers für leistungsstarkes Denoising aller Lichtquellen.
- Opacity Micro-Map zur Verbesserung der RT-Leistung in Szenen mit starken Alpha-Effekten
- Shader Execution Reordering zur Verbesserung der Shader-Planung und damit zur Leistungssteigerung.
- Better Real-Time Strand-Based Hair Rendering With Ray Tracing [S51294]
- Getting Started With Compressed Micro-Meshes [S51410]
- “Cyberpunk” RT: Overdrive - Bringing Path Tracing into the Night City
- Advancing Real-Time Path Tracing with Neural Radiance Cache [S51967]
- How to Build a Real-time Path Tracer

NVIDIA Modulus
- Überarbeitete Modulus-Architektur zur Verbesserung der datengesteuerten Arbeitsabläufe für KI-Entwickler
- Neue Modellarchitekturen - Unterstützung von graphischen neuronalen Netzen, neue Trainingsrezepte, z.B. für groß angelegte Wettermodelle
- Rezepte für den Einsatz von mit Modulus trainierten Modellen zur Inferenz

NVIDIA HPC SDK - Minor Update v23.3
Das HPC SDK bietet eine Vielzahl von Programmiermodellen, von leistungsoptimierten Drop-in-Bibliotheken über Standardsprachen und direktivenbasierten Methoden bis hin zur Spezialisierung durch CUDA. Viele der jüngsten Erweiterungen betreffen die Unterstützung von Standardsprachen wie ISO C++, ISO Fortran und Python. Die NVIDIA HPC Compiler nutzen die jüngsten Fortschritte in den öffentlichen Spezifikationen für diese Sprachen und bieten eine produktive Programmierumgebung, die sowohl portabel als auch performant für die Skalierung auf GPU-beschleunigten Plattformen ist.
Dieses Update 23.3 ist eine kleinere Version, die einige neue Funktionen, aktualisierte Plattformunterstützung und Fehlerkorrekturen für das HPC-SDK enthält. Zu den Plattform-Updates gehören Erweiterungen der Unterstützung für ARM SLES, LLVM 16 und CUDA Fortran auf NVIDIA Hopper GPUs. Auch für die Math Libs werden im Laufe des Jahres Updates vorgenommen.

NVIDIA RAPIDS RAFT
- RAFT beschleunigt Anwendungsfälle der Vektorsuche durch beschleunigte Exact- und Approximate Nearest Neighbor-Primitive auf GPUs
- RAFT beschleunigt die Indexerstellung um das bis zu 95-fache und Abfragen pro Sekunde um das bis zu 3-fache im Vergleich zu CPU-Implementierungen

NVIDIA TAO Toolkit
- ONNX-Modellexport, mit dem TAO-Modelle
- modelle auf beliebigen Geräten, wie GPUs, CPUs, MCUs und mehr, eingesetzt werden können
- KI-gestütztes Annotationstool für schnellere und kostengünstigere automatisch generierte Segmentierungsmasken
- Neue SOTA-Vision-Transformatoren für Bildklassifizierung, Objekterkennung und Segmentierungsaufgaben
- Erhöhte KI-Transparenz und -Erklärbarkeit, indem TAO als offener Quellcode zur Verfügung gestellt wird

NVIDIA DeepStream SDK
- Neue Runtime mit erweiterten Scheduling-Optionen
- Neue Accelerated Extensions

NVIDIA Metropolis Microservices
- Erweiterte Tracking- und Analysefunktionen für mehrere Kameras, die dabei helfen, Erkenntnisse zu gewinnen und Muster aus den Bewegungen und dem Verhalten von Objekten zu erkennen.
- Konfigurierbarkeit und Anpassbarkeit auf allen Ebenen, von vordefinierten Modellen, Referenz-App-Struktur und APIs bis hin zum Microservices-Code selbst.
- Cloud-native Architektur mit klar definierten APIs und Industriestandards.

NVIDIA Triton
- PyTritoneine einfache Schnittstelle zur Ausführung von Triton in nativem Python-Code. Sie ermöglicht schnelles Prototyping und eine einfache Migration von Python-basierten Modellen.
- Unterstützung für Modell-Ensembles und die gleichzeitige Analyse mehrerer Modelle in Modell-Analysator
- Unterstützung von Paddle Paddle und Integration mit Paddle Paddle FastDeploy
- FasterTransformer-Backend mit Unterstützung für BERT, Hugging Face BLOOM & FP8 in GPT

cuNumeric and Legate
Eine Beta-Version steht jetzt auf GitHub zum Download bereit, zusammen mit Conda-Paketeheute.
- Transparente Beschleunigung und Skalierung bestehender NumPy-Workflows
- Optimale Skalierung auf bis zu Tausende von GPUs
- Erfordert keine Code-Änderungen, um die Produktivität der Entwickler zu gewährleisten

BioNeMo
- Große Bibliotheken von Proteinen generieren
- Eigenschaftsvorhersagen mithilfe von Einbettungen erstellen, um Proteinbibliotheken zu verfeinern
- Kleine Moleküle mit spezifischen Eigenschaften generieren
- Schnelle und genaue Vorhersage und Visualisierung der 3D-Struktur von Milliarden von Proteinen
- Durchführung großer Kampagnen zur Abschätzung der Liganden-zu-Kleinmolekül-Position
- NVIDIA: Accelerating Generative AI in Biology and Healthcare [S51257]
- NVIDIA: AI-Powered Drug Discovery [S51263]
- Amgen: A Transformative AI Platform to Accelerate Biologics Discovery [S51263]
- DeepMind: Using AI to Accelerate Scientific Discovery [S51831]
- Evozyne: Generative Deep Learning with BioNeMo for Protein Therapeutics [S51713]
- TUM: Artificial Intelligence Captures the Language of Life Written in Proteins [S51259]
- Microsoft: Multi-Modal Deep Learning for Protein Engineering [S51260]

Parabricks
- Parabricks ist die einzige KI- und GPU-beschleunigte Genomik-Software-Suite, die Goldstandard-Anwendungen wie GATK und BWA-MEM sowie das KI-Modell DeepVariant für das Varianten-Calling umfasst.
- Genomic Sequencer Agnostic - analysiert Short Read (z.B. Illumina, Singular, Ultima) und jetzt auch Long Read Genomdaten von PacBio.
- Unterstützung für die genomische Analyse von PacBio-Long-Read-Daten mit beschleunigtem Minimap2 für das Alignment und beschleunigtem DeepVariant für das Varianten-Calling.
- Beschleunigte Short-Read-Keimbahnanalyse mit ~16 Minuten (vorher 22 Minuten) auf A100, was bedeutet, dass über 31.000 Genome/Jahr analysiert werden können.
- Deep Variant Re-Training Framework, so dass jeder DeepVariant auf seinen eigenen Daten trainieren kann, um die Genauigkeit der Variantenerkennung zu erhöhen.
- Kompatibilität mit dem neuen NVIDIA H100-Grafikprozessor, der einen leistungsstarken DPX-Befehl zur Verbesserung von Algorithmen der dynamischen Programmierung wie Smith Waterman für das lokale Sequenz-Alignment enthält.
- NVIDIA: Accelerating Generative AI in Biology and Healthcare [S51257]
- NVIDIA: Acceleration and Deep Learning for Genomics on GPUs [S51265]
- PacBio: Scaling Long-Read Sequencing Throughput and Accessibility Cancer Research and Care [S51279]
- Oxford Nanopore/ Genomics England: Developing Rapid DNA Sequencing to Accelerate Cancer Research and Care [S51255]
- KAUST: High Performance Genome-Wide Association Study Suing Mixed-Precision Ridge Regression [S51628]

Warp (Omniverse)
Warp 0.7.2 ist die neueste Version, die auf GitHub und PyPi verfügbar ist, mit den folgenden Ergänzungen:
- Eine wichtige Änderung wurde am Warp-Typ-System vorgenommen, das nun die Definition von Vektor- und Matrixtypen mit beliebiger Länge/Präzision unterstützt und uns erlaubt, eine Obermenge von USD-Typen in Warp-Kernen zu unterstützen.
- Verbesserte PyTorch-Kompatibilität
- JAX-Dienstprogramme für Zero-Copy-Interop hinzugefügt

Isaac ROS
- Neues LIDAR-basiertes Grid Localizer-Paket - Automatisches Finden von NAV2 Robot POSE in < 0,5 Sekunden
- Neue Unterstützung der Personenerkennung im nvblox-Paket - GPU-beschleunigte 3D-Rekonstruktion zur Kollisionsvermeidung
- Aktualisierte VSLAM und Tiefenwahrnehmung GEM (ESS)
- Quellcode-Veröffentlichung von NITROS, NVIDIAs ROS 2 Hardware-Beschleunigungs-Implementierung
- Neue Isaac ROS-Benchmark-Suite auf Basis von ros2_benchmark
- Open-Source-Veröffentlichung für mehrere hardwarebeschleunigte Pakete
- Unterstützung für Jetson Orin NX und Orin Nano Module

NVIDIA JAX
- Numpy-ähnliche APIs mit automatischer Differenzierung für bessere Kompatibilität
- Batching, Gerätepartitionierung und Skalierung für eine effizientere GPU-Nutzung
- End-to-End-Compiler-Optimierung (z. B. XLA) mit Kernel-Fusion zu einem einzigen CUDA-Kernel - was die Leistung durch reduzierten globalen Speicherzugriff verbessert

NVIDIA OMNIVERSE CLOUD
- Cloud-unabhängig, Bereitstellung zuerst auf Microsoft Azure
- Verfügbar als privates Angebot für Unternehmen - April 2023 im Azure Marketplace
- Bereitstellung auf NVIDIA OVX 2.0-Servern, die speziell für umfangreiche, komplexe 3D-Workflows in Echtzeit entwickelt wurden

NVIDIA DRIVE
- Zusammenarbeit soll ab 2024 Mainstream-Fahrzeuge auf Basis von NVIDIA DRIVE Orin liefern
- Die erweiterte Partnerschaft erweitert BYDs Einsatz von DRIVE Orin auf die verschiedenen Modelle der Dynasty- und Ocean-Serien von Limousinen und SUVs
- BYD plant die Einführung von Dynasty- und Ocean-Fahrzeugen mit NVIDIA-Antrieb bis Mitte nächsten Jahres in China, bevor eine weltweite Expansion erfolgt

NVIDIA Virtual GPU
- Unterstützung für NVIDIA L4 GPU zur Beschleunigung von virtuellen Workstations der Einstiegs- bis Mittelklasse mit NVIDIA RTX Virtual Workstation (vWS) und Knowledge Worker Workloads mit NVIDIA Virtual PC (vPC)
- Siehe NVIDIA vGPU 15.2 dokumentation für zusätzliche Funktionen

NVIDIA IGX Orin Developer Kit
- NVIDIA IGX Orin-Modul, ConnectX-7 SmartNIC, BMC, Sicherheits-MCU
- Chassis und Stromversorgung
- NVIDIA SDKs: Metropolis und Holoscan

DLSS 3 Frame Generation
- Frame Generation ist als Plugin für Entwickler über unser Streamline 2.0 SDK verfügbar
- DLSS 3 Frame Generation Plugin für die Unreal Engine in der nächsten Version

HOLOSCAN
- NVIDIA kündigt eine Zusammenarbeit mit Medtronic an, um eine KI-Plattform für medizinische Geräte zu entwickeln
- Medtronic wird NVIDIA Holoscan und IGX in sein intelligentes Endoskopiemodul GI Genius integrieren
- Die ORSI Academy bringt Holoscan in den Operationssaal für ihre erste robotergestützte Operation in der Praxis

Isaac Sim
- Plattform-as-a-Service für rechenintensive Workloads wie synthetische Datenerzeugung und CI/CD
- Neue APIs verringern den Bedarf an IT-Investitionen in die Cloud-Infrastruktur
- Simulationsgestützte Entwicklung von mobilen Robotern: Technisches Hands-On zum Logistikroboter der nächsten Generation O³dyn [S51911]
- Automatisierung der Erzeugung synthetischer Punkte in der Cloud [S51052]
- Erstellung digitaler Zwillinge und Simulationen von industriellen Roboterarbeitszellen für intelligente Fabriken [S51494]
- Isaac Sim: Eine Cloud-fähige Simulations-Toolbox für die Robotik [S52573]
- Vollständige Liste der Simulationssitzungen

MONAI
- MONAI erreicht den Meilenstein von 1 Million Downloads und beweist damit eine breite Akzeptanz
- Generative KI-Modelle in MONAI Model Zoo zur Erstellung großer, synthetischer Datensätze für medizinische Bildgebung

CUDA Werkzeugsatz
- Verbesserte Leistung für Hopper- und Ada Lovelace-Architekturen
- Verbesserte Bibliotheken (z.B. cuBLAS und cuFFT) zur Unterstützung von Hopper und Ada Lovelace
- Aktualisierte Compiler JIT-LTO Kernel-Optimierung