SCHNELLERE KI. NIEDRIGERE KOSTEN.
Die KI-Revolution ist in vollem Gange und schafft neue Möglichkeiten für Unternehmen, den Umgang mit Kundenherausforderungen neu zu definieren. Es ist eine Zukunft, in der jede Kundeninteraktion, jedes Produkt und jedes Dienstangebot mit KI in Berührung kommt und dadurch verbessert wird.
GPUs haben sich bei der Lösung komplexester Probleme beim Deep Learning als erstaunlich effizient erwiesen und die Deep Learning-Plattform von NVIDIA ist derzeit die Standardtrainingslösung in der Branche.
Die Möglichkeiten der künstlichen Intelligenz (KI), jede Branche zu einer neuen Entwicklungsstufe zu verhelfen, sind größer denn je. Von über einer Milliarde Smart-City-Kameras, die für die öffentliche Sicherheit sorgen, über die mehr als 100 Milliarden Dollar, die jährlich durch Diebstähle im Einzelhandel verloren gehen, bis hin zu den 500 Millionen Anrufen pro Tag in Contact Centern. Die Nachfrage nach KI zur Erfüllung dieser Anforderungen ist enorm. Inferenzen sind der Schlüssel, um das Leben der Verbraucher angenehmer zu gestalten, Umsatzverluste zu verhindern und die betriebliche Effizienz auf dem Weg in eine KI-Wirtschaft zu steigern.
Die Entwicklung von Inferenzlösungen vom Konzept bis zur Bereitstellung ist jedoch nicht einfach. Viele einzelne und unterschiedliche Komponenten müssen harmonisch zusammenarbeiten, um eine erfolgreiche Inferenzbereitstellung zu erreichen. Zum Beispiel Modellauswahl, Anwendungseinschränkungen, Framework-Training und -Optimierung, Bereitstellungsstrategie, Prozessorziel sowie Orchestrierungs- und Management-Middleware. Das Fehlen eines einheitlichen Arbeitsablaufs für all diese Bereiche der Inferenzgleichung stellt für Unternehmen und Cloud-Service-Provider (CSPs) ein Hindernis dar, wenn es darum geht, den massiven Inferenzbedarf zu decken.
Die Inferenzplattform von NVIDIA bietet die Leistung, Effizienz und Reaktionsfähigkeit, die für die Bereitstellung von KI-Produkten und -Diensten der nächsten Generation entscheidend sind – in der Cloud, im Rechenzentrum, in der Netzwerkperipherie und in autonomen Maschinen.

NUTZEN SIE DAS VOLLE POTENZIAL VON NVIDIA-GRAFIKPROZESSOREN MIT NVIDIA TENSORRT
EINFACHERE BEREITSTELLUNG DURCH DEN NVIDIA TRITON INFERENCE SERVER


LEISTUNGSSTARKE, EINHEITLICHE UND SKALIERBARE DEEP-LEARNING-INFERENZ
ENORME KOSTENEINSPARUNGEN

NVIDIAs Aktualisierungen des GPU-Produktportfolios und der Stack-Angebote, einschließlich TensoRT und Triton™ Inference Server, erweitern unsere Führungsposition im Bestreben, optimierte, durchgängige Inferenzlösungen für die Cloud, das Rechenzentrum und den Edge-Bereich anzubieten.
Der NVIDIA AI Solution Stack und die Updates umfassen:
● NVIDIA Train, Adapt, and Optimize (TAO), eine Zero-Code-Lösung für die Erstellung von KI-Modellen. Mit einer Benutzeroberfläche und einem geführten Arbeitsablauf ermöglicht TAO Entwicklern das Trainieren, Anpassen und Optimieren von vortrainierten KI-Modellen für Computer Vision und Konversation für ihren Anwendungsfall in einem Bruchteil der Zeit, mit nur wenigen Klicks und ohne KI-Expertise oder große Datensätze.
● NVIDIA TensorRT, ein SDK für leistungsstarke Deep-Learning-Inferenz, das einen Inferenz-Optimierer und eine Laufzeitumgebung umfasst und es KI-Entwicklern ermöglicht, trainierte Modelle aus allen wichtigen Deep-Learning-Frameworks zu importieren und für den Einsatz in der Cloud, im Rechenzentrum und im Edge-Bereich zu optimieren. Die neueste Version 8.2 enthält neue Optimierungen für die Ausführung von Sprachmodellen mit Milliarden von Parametern, wie T5 und GPT, in Echtzeit, sowie die Integration mit PyTorch und TensorFlow. Mit dieser Integration können Millionen von Entwicklern mit nur einer Zeile Code eine dreifach schnellere Inferenzleistung erzielen.
● NVIDIA Triton Inference Server, der die Bereitstellung von KI-Modellen im Produktionsmaßstab vereinfacht. Als Open-Source-Software für Inferenzen ermöglicht Triton Inference Server Teams die Bereitstellung von trainierten KI-Modellen aus jedem Framework auf lokalem Speicher oder einer Cloud-Plattform unter Verwendung einer beliebigen GPU- oder CPU-basierten Infrastruktur (Cloud, Rechenzentrum oder Edge). Die neueste Triton-Version enthält die folgenden Verbesserungen, um die Inferenzleistung mit NVIDIA AI weiter zu optimieren:
Der Model Analyzer hilft bei der Ermittlung der optimalen Parameter für die Modellausführung (Genauigkeit, Stapelgröße, Anzahl der gleichzeitigen Modellinstanzen und Client-Anfragen) bei gegebenen Latenz-, Durchsatz- und Speicherbeschränkungen.
- Unterstützung der RAPIDS Forest Inference Library (FIL) Backend zur Ausführung von Inferenzen auf baumbasierten Modellen (Gradient Boosted Decision Trees und Random Forests).
- Unterstützung für verteilte Inferenz mit mehreren GPUs und Knoten für Riesen-Transformer-basierte Sprachmodelle wie GPT-3.
- Verfügbarkeit in Amazon SageMaker, sodass Triton für den Einsatz von Modellen in der SageMaker AI-Plattform verwendet werden kann. Triton ist jetzt auch in allen wichtigen Cloud-Plattformen verfügbar.


VOLLSTÄNDIGES INFERENZ-PORTFOLIO
Editable editable, click me for edit, editable, click me for edit, editable, click me for edit ...
Editable editable, click me for edit, editable, click me for edit, editable, click me for edit ...
Editable editable, click me for edit, editable, click me for edit, editable, click me for edit ...
Editable editable, click me for edit, editable, click me for edit, editable, click me for edit ...
INFERENZLÖSUNGEN

Rechenzentrum

Selbstfahrende Autos

Intelligente Videoanalysen
