WILLKOMMEN IM KI-ZEITALTER
Wenn sich aus den Unmengen an verfügbaren Daten die richtigen Erkenntnisse gewinnen lassen, kann das der Anstoß zur Transformation ganzer Branchen sein. Von personalisierter Krebstherapie über Personal Assistants, die ganz natürlich sprechen, bis hin zur Vorhersage des nächsten großen Hurrikans.
Der NVIDIA® Tesla® V100 mit Tensor-Recheneinheiten der fortschrittlichste Grafikprozessor für Rechenzentren, der je entwickelt wurde, und beschleunigt KI-, HPC-, datenwissenschaft und Grafikanwendungen. Seine Leistung verdankt er der NVIDIA Volta-Architektur. Er ist in zwei Konfigurationen (16 und 32GB) verfügbar und bietet als nur ein Grafikprozessor die Leistung von 100 CPUs. Dadurch steht Datenwissenschaftlern, Forschern und Ingenieuren die nötige Leistung zur Verfügung, um sich Herausforderungen zu stellen, die bislang als unüberwindbar galten.
Produktvergleich Tesla
PRODUKT | SCHLÜSSEL-EIGENSCHAFTEN | EMPFOHLENER SERVER |
---|---|---|
TESLA V100 MIT NVLINK™Deep-Learning-Training 3x schnelleres Deep-Learning-Training im Vergleich zu P100-GPUs der letzten Generation |
| Bis zu 4x V100 NVlink GPUs Bis zu 8x V100 NVlink GPUs
|
TESLA T4Deep Learning Inferenzierung 60x höhere Energieeffizienz als eine CPU für Inferenz |
| 1-20 GPUs pro node
|
um die Sicherheit und Verwaltbarkeit mithilfe der NVIDIA Virtual Compute Server(vCS)-Software zu verbessern.

KI-TRAINING
Spracherkennung. Virtuelle persönliche Assistenten mit dem Ziel natürlicher Kommunikation trainieren. Fahrbahnspuren erkennen, sodass Autos selbständig fahren können. Dies sind nur wenige Beispiele für die immer komplexeren Herausforderungen, denen sich Datenwissenschaftler mithilfe von KI stellen. Um derartige Probleme zu lösen, müssen deutlich komplexere Deep-Learning-Modelle in einem angemessenen Zeitraum trainiert werden.
Mit 43.000 Tensor-Recheneinheiten ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht. NVIDIA NVLink™ der zweiten Generation verbindet mehrere Tesla V100-Grafikprozessoren mit Übertragungsgeschwindigkeiten bis zu 160 GB/s. So entstehen die weltweit leistungsstärksten Computing-Server. KI-Modelle, die die Rechenressourcen früherer Systeme mehrere Wochen lang beanspruchen würden, lassen sich nun innerhalb weniger Tage trainieren. Dank der erheblich kürzeren Trainingszeiten bietet sich KI nun als Lösung für deutlich mehr Probleme an.
KI-INFERENZ
Um uns Zugriff auf die relevantesten Informationen, Services und Produkte zu bieten, haben Hyperscale-Unternehmen damit begonnen, KI einzusetzen. Doch es ist nicht einfach, den Anforderungen der Nutzer jederzeit gerecht zu werden. Die größten Hyperscale-Unternehmen der Welt müssten beispielsweise laut eigener Schätzungen die Kapazität ihrer Rechenzentren verdoppeln, wenn jeder Nutzer nur drei Minuten pro Tag seinen Spracherkennungsdienst nutzen würde.
Der Tesla V100 für Hyperscale ist auf maximale Leistung in bestehenden Hyperscale-Serverracks ausgelegt. Dank KI-Leistung bietet ein 13-kW-Serverrack mit Tesla V100-Grafikprozessoren die gleiche Leistung für Deep-Learning-Inferenz wie 30 CPU-Serverracks. Dieser gewaltige Fortschritt bei Durchsatz und Effizienz bedeutet, dass die Ausweitung von KI-Services sinnvoll ist.


HIGH PERFORMANCE COMPUTING (HPC)
HPC ist eine der Säulen der modernen Wissenschaft. Von der Wettervorhersage über die Medikamentenentwicklung bis hin zur Entdeckung neuer Energiequellen – Forscher in vielen Bereichen setzen riesige Computersysteme für Simulationen und Prognosen ein. KI erweitert die Möglichkeiten des traditionellen HPC. Denn Forscher sind damit in der Lage, gewaltige Datenmengen zu analysieren und wertvolle Informationen daraus zu gewinnen, während anhand von Simulationen alleine keine vollständigen Prognosen realer Entwicklungen möglich sind.
Der Tesla V100 ist auf die Konvergenz von HPC und KI ausgelegt. Er bietet sich als Plattform für HPC-Systeme an, die in der Computerwissenschaft für wissenschaftliche Simulationen und in der Datenwissenschaft zum Identifizieren wertvoller Informationen in Daten eingesetzt werden. Durch die Kombination von CUDA- und Tensor-Recheneinheiten innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Tesla V100-Grafikprozessoren bei herkömmlichen HPC- und bei KI-Workloads Hunderte standardmäßige reine CPU-Server ersetzen. Nun kann sich jeder Forschungsmitarbeiter und Techniker einen KI-Supercomputer leisten, der ihn bei den größten Herausforderungen unterstützt.
GRAFIKPROZESSOREN FÜR RECHENZENTREN

NVIDIA TESLA V100 FÜR PCIe
Optimale Vielseitigkeit bei allen Workloads, auf HPC ausgelegt
NVIDIA TESLA V100 SPEZIFIKATIONEN
Tesla V100s für PCIe |
---|
DOPPELTE GENAUIGKEIT 8.2 TeraFLOPS EINFACHE GENAUIGKEIT 16.4 TeraFLOPS DEEP LEARNING 130 TeraFLOPS Cell Text |
Tesla V100 für PCIe |
---|
DOPPELTE GENAUIGKEIT 7 TeraFLOPS EINFACHE GENAUIGKEIT 14 TeraFLOPS DEEP LEARNING 112 TeraFLOPS Cell Text |
Tesla V100 für NVLink |
---|
DOPPELTE GENAUIGKEIT 7.8 TeraFLOPS EINFACHE GENAUIGKEIT 15.7 TeraFLOPS DEEP LEARNING 125 TeraFLOPS Cell Text |
LEISTUNG with NVIDIA GPU Boost™ |
PCIE 32 GB/s |
PCIE 32 GB/s |
NVLINK 300 GB/s |
VERBINDUNGSBANDBREITE Bidirektional |
KAPAZITÄT 32 GB HBM2 BANDBREITE 1134 GB/s |
KAPAZITÄT 32/16 GB HBM2 BANDBREITE 900 GB/s |
SPEICHER CoWoS-HBM2-Stapelspeicher |
250 WATT |
|
LEISTUNG Max. Verbrauch |