Systeme und Informatikanwendungen Nikisch GmbHsysGen GmbH - Am Hallacker 48a - 28327 Bremen - info@sysgen.de

Willkommen auf der neuen Website von sysGen. Bitte nutzen Sie unser Kontaktformular falls Sie Fragen zu unseren Inhalten haben.

KEYNOTE NOVEMBER 9 CONFERENCE & TRAINING NOVEMBER 8-11,2021ZUR ANMELDUNG
Aufgrund der sich ausweitenden Chipkrise und den daraus resultierenden, deutlichen Preiserhöhungen großer IT-Hersteller sind aktuelle Online-Preiskalkulationen derzeit nicht möglich. Wir weisen daher darauf hin, dass Preisanfragen über unsere Website vom endgültigen Angebot abweichen können!

TESLA

WILLKOMMEN IM KI-ZEITALTER

Wenn sich aus den Unmengen an verfügbaren Daten die richtigen Erkenntnisse gewinnen lassen, kann das der Anstoß zur Transformation ganzer Branchen sein. Von personalisierter Krebstherapie über Personal Assistants, die ganz natürlich sprechen, bis hin zur Vorhersage des nächsten großen Hurrikans. 
​​​​​​​
Der NVIDIA® Tesla® V100 mit Tensor-Recheneinheiten der fortschrittlichste Grafikprozessor für Rechenzentren, der je entwickelt wurde, und beschleunigt KI-, HPC-, datenwissenschaft und Grafikanwendungen. Seine Leistung verdankt er der NVIDIA Volta-Architektur. Er ist in zwei Konfigurationen (16 und 32GB) verfügbar und bietet als nur ein Grafikprozessor die Leistung von 100 CPUs. Dadurch steht Datenwissenschaftlern, Forschern und Ingenieuren die nötige Leistung zur Verfügung, um sich Herausforderungen zu stellen, die bislang als unüberwindbar galten.

Produktvergleich Tesla

PRODUKT
SCHLÜSSEL-EIGENSCHAFTEN
EMPFOHLENER SERVER

TESLA V100 MIT NVLINK™

Deep-Learning-Training
3x schnelleres Deep-Learning-Training im Vergleich zu P100-GPUs der letzten Generation
  • 31.4 TeraFLOPS Halbpräzision
  • 15.7 TeraFLOPS Einzelpräzision
  • 125 TeraFLOPS Tiefes Lernen
  • 300 GB/s NVLink™ Verbinden Sie
  • 900 GB/s Speicherbandbreite
  • 32 GB of HBM2 Speicher
Bis zu 4x V100 NVlink GPUs Bis zu 8x V100 NVlink GPUs​​​​​​​

TESLA T4

Deep Learning Inferenzierung
60x höhere Energieeffizienz als eine CPU für Inferenz
  • 130 TeraOPS INT8 inference
  • 260 TeraOPS INT4 inference
  • 8.1 TeraFLOPS single-precision
  • FP16/FP32: 65 TFLOPS
  • 75 W Power
  • Low profile form factor
1-20 GPUs pro node
  • Breite Kompatibilität durch den Low-Profile
    Formfaktor und geringe Leistungsaufnahme
  • T4 Inference Servers
Führen Sie KI- und HPC-Workloads in einer virtuellen Umgebung aus,
​​​​​​​um die Sicherheit und Verwaltbarkeit mithilfe der NVIDIA Virtual Compute Server(vCS)-Software zu verbessern. 
Weitere Infos

KI-TRAINING

Spracherkennung. Virtuelle persönliche Assistenten mit dem Ziel natürlicher Kommunikation trainieren. Fahrbahnspuren erkennen, sodass Autos selbständig fahren können. Dies sind nur wenige Beispiele für die immer komplexeren Herausforderungen, denen sich Datenwissenschaftler mithilfe von KI stellen. Um derartige Probleme zu lösen, müssen deutlich komplexere Deep-Learning-Modelle in einem angemessenen Zeitraum trainiert werden.

Mit 43.000 Tensor-Recheneinheiten ist der Tesla V100 der weltweit erste Grafikprozessor, der bei der Deep-Learning-Leistung die 100-TOPS-Schallmauer durchbricht. NVIDIA NVLink™ der zweiten Generation verbindet mehrere Tesla V100-Grafikprozessoren mit Übertragungsgeschwindigkeiten bis zu 160 GB/s. So entstehen die weltweit leistungsstärksten Computing-Server. KI-Modelle, die die Rechenressourcen früherer Systeme mehrere Wochen lang beanspruchen würden, lassen sich nun innerhalb weniger Tage trainieren. Dank der erheblich kürzeren Trainingszeiten bietet sich KI nun als Lösung für deutlich mehr Probleme an.

KI-INFERENZ

Um uns Zugriff auf die relevantesten Informationen, Services und Produkte zu bieten, haben Hyperscale-Unternehmen damit begonnen, KI einzusetzen. Doch es ist nicht einfach, den Anforderungen der Nutzer jederzeit gerecht zu werden. Die größten Hyperscale-Unternehmen der Welt müssten beispielsweise laut eigener Schätzungen die Kapazität ihrer Rechenzentren verdoppeln, wenn jeder Nutzer nur drei Minuten pro Tag seinen Spracherkennungsdienst nutzen würde.

Der Tesla V100 für Hyperscale ist auf maximale Leistung in bestehenden Hyperscale-Serverracks ausgelegt. Dank KI-Leistung bietet ein 13-kW-Serverrack mit Tesla V100-Grafikprozessoren die gleiche Leistung für Deep-Learning-Inferenz wie 30 CPU-Serverracks. Dieser gewaltige Fortschritt bei Durchsatz und Effizienz bedeutet, dass die Ausweitung von KI-Services sinnvoll ist.

HIGH PERFORMANCE COMPUTING (HPC)

HPC ist eine der Säulen der modernen Wissenschaft. Von der Wettervorhersage über die Medikamentenentwicklung bis hin zur Entdeckung neuer Energiequellen – Forscher in vielen Bereichen setzen riesige Computersysteme für Simulationen und Prognosen ein. KI erweitert die Möglichkeiten des traditionellen HPC. Denn Forscher sind damit in der Lage, gewaltige Datenmengen zu analysieren und wertvolle Informationen daraus zu gewinnen, während anhand von Simulationen alleine keine vollständigen Prognosen realer Entwicklungen möglich sind.

Der Tesla V100 ist auf die Konvergenz von HPC und KI ausgelegt. Er bietet sich als Plattform für HPC-Systeme an, die in der Computerwissenschaft für wissenschaftliche Simulationen und in der Datenwissenschaft zum Identifizieren wertvoller Informationen in Daten eingesetzt werden. Durch die Kombination von CUDA- und Tensor-Recheneinheiten innerhalb einer einheitlichen Architektur kann ein einzelner Server mit Tesla V100-Grafikprozessoren bei herkömmlichen HPC- und bei KI-Workloads Hunderte standardmäßige reine CPU-Server ersetzen. Nun kann sich jeder Forschungsmitarbeiter und Techniker einen KI-Supercomputer leisten, der ihn bei den größten Herausforderungen unterstützt.

GRAFIKPROZESSOREN FÜR RECHENZENTREN

NVIDIA TESLA V100 SPEZIFIKATIONEN

Tesla V100s für PCIe
DOPPELTE GENAUIGKEIT
8.2 TeraFLOPS
EINFACHE GENAUIGKEIT
16.4 TeraFLOPS
DEEP LEARNING
130 TeraFLOPS
Cell Text
Tesla V100 für PCIe
DOPPELTE GENAUIGKEIT
7 TeraFLOPS
EINFACHE GENAUIGKEIT
14 TeraFLOPS
DEEP LEARNING
112 TeraFLOPS
Cell Text
Tesla V100 für NVLink
DOPPELTE GENAUIGKEIT
7.8 TeraFLOPS
EINFACHE GENAUIGKEIT
15.7 TeraFLOPS
DEEP LEARNING
125 TeraFLOPS
Cell Text
LEISTUNG
with NVIDIA GPU Boost™
PCIE
32 GB/s
PCIE
32 GB/s
NVLINK
300 GB/s
VERBINDUNGSBANDBREITE
Bidirektional
KAPAZITÄT
32 GB HBM2
BANDBREITE
1134 GB/s
KAPAZITÄT
32/16 GB HBM2
BANDBREITE
900 GB/s
SPEICHER
CoWoS-HBM2-Stapelspeicher
250 WATT
​​​​​​​
​​​​​​​300 WATT
​​​​​​​
LEISTUNG
Max. Verbrauch