Willkommen auf der neuen Website von sysGen. Bitte nutzen Sie unser Kontaktformular falls Sie Fragen zu unseren Inhalten haben.

Achtung: Aufgrund ständiger Preiserhöhungen aller Hersteller ist eine aktuelle Preiskalkulation online derzeit nicht möglich. Daher möchten wir darauf hinweisen, dass alle Preise bei Anfragen über unsere Website vom endgültigen Angebot abweichen können!

DGX Systeme

Beschleunigung von
​​​​​​​Forschung und Innovation

NVIDIA DGX SystemE SIND SPEZIELL FÜR FÜHRENDE KI-FORSCHUNG ENTWICKELT WORDEN

Unternehmen brauchen heute eine End-to-End-Strategie für KI-Innovationen, um die Zeit bis zur Erkenntnis zu verkürzen und neue Geschäftsmöglichkeiten zu erschließen. Um der Konkurrenz einen Schritt voraus zu sein, müssen sie auch einen optimierten KI-Entwicklungsworkflow aufbauen, der schnelles Prototyping, häufige Durchläufe und kontinuierliches Feedback unterstützt, sowie eine robuste Infrastruktur, die in einer Enterprise-Produktionsumgebung skaliert werden kann.

NVIDIA DGX™ Systeme wurden speziell für die Anforderungen von KI und Data Science in Unternehmen entwickelt und bieten den schnellsten Start in die KI-Entwicklung, mühelose Produktivität und revolutionäre Leistung - für Erkenntnisse in Stunden statt Monaten.
​​​​​​​KI-erfahrene Praktiker, oder DGXperts, stehen mit jedem DGX-System zur Verfügung.

Mit ihrer umfangreichen Erfolgsbilanz von praxiserprobten Implementierungen bieten sie präskriptive Planungs-, Bereitstellungs- und Optimierungsexpertise, um Ihre KI-Transformation zu beschleunigen.

OPTIMIERTER SOFTWARE-STACK

Optimierte KI-Software, einschließlich eines auf KI abgestimmten Basis-Betriebssystems, vereinfacht die Bereitstellung und ermöglicht es Ihnen, innerhalb von Stunden statt Monaten produktiv zu werden.

UNÜBERTROFFENE KI-FÜHRUNG

DGX ist der Kernbaustein einer Reihe von Supercomputern in den TOP500 und wurde von vielen führenden Unternehmen übernommen.

SKALIERBARE KI-CLUSTER

Die Architektur hat sich für die Skalierbarkeit über mehrere Knoten hinweg bewährt und wurde mit branchenführenden Unternehmen aus den Bereichen Storage, Compute und Networking entwickelt.

ZUGANG ZU KI-EXPERTISE

Die NVIDIA DGXperts sind ein globales Team von mehr als 14.000 KI-erfahrenen Experten, die in den letzten zehn Jahren einen großen Erfahrungs-schatz aufgebaut haben, um Ihnen zu helfen, den Wert Ihrer DGX-Investition zu maximieren.

DAS WELTWEIT ERSTE PORTFOLIO VON SPEZIELL ENTWICKELTEN DEEP-LEARNING-SYSTEMEN

Die NVIDIA DGX™ Systeme wurden von den Anforderungen des Deep Learning und der Analytik inspiriert und basieren auf der revolutionären neuen Volta™ GPU-Plattform von NVIDIA. In Kombination mit innovativer GPU-optimierter Software und vereinfachtem Management liefern diese vollständig integrierten Lösungen bahnbrechende Leistung und Ergebnisse.

NVIDIA DGX Systeme wurden entwickelt, um Datenwissenschaftlern die leistungsstärksten Tools für die KI-Forschung zur Verfügung zu stellen - von ihren Desktops bis hin zum Rechenzentrum und der Cloud.

SCHNELLER EXPERIMENTIEREN, GRÖSSERE MODELLE TRAINIEREN UND NÜTZLICHE ERKENNTNISSE GEWINNEN - VOM ERSTEN TAG AN.​​​​​​​

DGX A100

Mit der schnellsten I/O-Architektur ist der NVIDIA DGX A100 das uni- verselle System für die gesamte KI-Infrastruktur, von der Analyse über das Training bis zur Inferenz. Es setzt neue Maßstäbe für die Rechen- dichte und bietet 5 petaFLOPS an KI-Leistung in einem einzigen, einheit- lichen System, das alles kann.

Datenblatt

NVIDIA DGX STATION A100

NVIDIA DGX Station A100 bringt KI-Supercomputing zu Data-Science-Teams und bietet Rechenzentrumstechnologie ohne Rechenzentrum oder zusätzliche IT-Infrastruktur. Konzipiert für mehrere, gleichzeitige Benutzer mit Komponenten in Serverqualität in einem bürofreundlichen Designfaktor.

Datenblatt

NVIDIA DGX POD™

KI IST DA - IST IHR RECHENZENTRUM BEREIT?

Die Nutzung von KI durch Unternehmen wächst exponentiell. Mit der Notwendigkeit, bessere Kundenerlebnisse zu liefern, Geschäftsausgaben zu optimieren, klinische Ergebnisse zu verbessern oder Forschungs- und Entwicklungskapazitäten zu erweitern, investieren Unternehmen in KI-Infrastruktur, um schneller Erkenntnisse zu gewinnen. Für Unternehmen, die den kürzesten Weg zu groß angelegter KI-Innovation benötigen, ist NVIDIA DGX SuperPOD™ das sofort einsatzbereite Hardware-, Software- und Serviceangebot, das die Zweifel an der Erstellung und Bereitstellung einer KI-Infrastruktur beseitigt.

NVIDIA DGX POD

NVIDIA DGX SUPERPOD™

ERSTKLASSIGE KI-INFRASTRUKTUR

Die Nutzung von KI durch Unternehmen wächst exponentiell. Mit der Notwendigkeit, bessere Kundenerlebnisse zu liefern, Geschäftsausgaben zu optimieren, klinische Ergebnisse zu verbessern oder Forschungs- und Entwicklungskapazitäten zu erweitern, investieren Unternehmen in die
​​​​​​​KI-Infrastruktur, um schneller Erkenntnisse zu gewinnen. Für Unter- nehmen, die den kürzesten Weg zu groß angelegten KI-Innovationen suchen, ist NVIDIA DGX SuperPOD™ das sofort einsatzbereite Hardware-, Software- und Serviceangebot, das die Unklarheiten bei der Erstellung und Bereitstellung von KI-Infrastrukturen beseitigt.

Datenblatt

IHRE ARBEIT VERWIRKLICHT SEHEN

Ob es darum geht, wissenschaftliche Entdeckungen voranzutreiben oder die Wissenschaftler von morgen zu formen - Universitätsfakultäten und Forscher lösen einige der größten Herausforderungen, denen die Welt heute gegenübersteht. NVIDIA DGX Systeme, das weltweit erste Portfolio an speziell entwickelten KI-Supercomputern, wurden entwickelt, um Wissenschaftlern die leistungsstärksten Werkzeuge für die
​​​​​​​KI-Forschung an die Hand zu geben - Werkzeuge, die vom Schreibtisch über das Rechenzentrum bis hin zur Cloud reichen. Angetrieben von der revolutionären NVIDIA Volta GPU-Plattform, treiben die DGX Systeme das Forschungs-Computing zur nächsten Welle von Durchbrüchen an.

DGX Systeme unterstützen Deep-Learning-Training, Inferenz und beschleunigte Analysen in einer voroptimierten, integrierten Lösung und bieten eine unvergleichliche Leistung, die es Forschern und Studenten ermöglicht, schneller zu iterieren und zu innovieren. Darüber hinaus können IT-Organisationen auf dem Campus schnell implementieren - in nur zwei Stunden statt in Monaten -, was den Entwicklungsaufwand reduziert und eine höhere Produktivität und schnellere Erkenntnisse ermöglicht.

PRODUKTANKÜNDIGUNG NVIDIA ANLÄSSLICH DER SUPERCOMPUTING MESSE SC20
​​​​​​​ - NVIDIA A100 mit 80GB HBM2E - 

SC20 - NVIDIA präsentierte auf der SC20 die 80-GB-Version der A100-Grafikeinheit (GPU), NVIDIA® A100 80GB GPU - die neueste Innovation für die NVIDIA HGX™ AI Supercomputing-Plattform - mit doppelt so viel Speicher wie das Vorgängermodell, was Forschern und Ingenieuren eine noch nie dagewesene Geschwindigkeit und Leistung bietet, um die nächste Welle von AI und wissenschaftlichen Durchbrüchen zu erschließen.

Die neue A100 mit HBM2e-Technologie basiert auf der Ampere-Grafikarchitektur des Unternehmens und verdoppelt den Hochbreiten-speicher der A100 40GB GPU auf 80GB und bietet eine Speicherbandbreite von über 2 Terabyte pro Sekunde. Dadurch können Daten schnell in die A100, die weltweit schnellste Rechenzentrums-GPU, eingespeist werden. Forscher können so ihre Anwendungen noch schneller beschleunigen und noch größere Modelle und Datensätze übernehmen.

Die NVIDIA A100 80GB GPU ist in NVIDIA DGX™ A100 und NVIDIA DGX Station™ A100 Systemen verfügbar, die ebenfalls in diesem Rahmen angekündigt wurden und voraussichtlich noch in diesem Quartal ausgeliefert werden.

Führende Systemanbieter wie Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta und Supermicro werden voraussichtlich in der ersten Jahreshälfte 2021 Systeme anbieten, die mit HGX A100 integrierten Baseboards in Vier- oder Acht-GPU-Konfigurationen mit A100 80GB ausgestattet sind.
 Nvidia A100 mit 80GB HBM2e (Bild: Nvidia)

ZU DEN AUSSTATTUNGSMERKMALEN DER GPU A100 80GB GEHÖREN:

Wie auch die Vorgängerausführung kann die GPU mit seiner Multi-Instanz-GPU (MIG)-Technologie in bis zu sieben GPU-Instanzen partitioniert werden, mit jeweils 10 GB Speicher. Dies bietet etwa eine sichere Hardware-Isolierung und maximiert die GPU-Auslastung für eine Vielzahl kleinerer Arbeitsbelastungen.
  • Tensorcores der dritten Generation: Im Vergleich zur „Volta“-Generation bieten sie mit dem Format TF32 einen bis zu 20-fachen AI-Durchsatz sowie 2,5x FP64 für HPC, 20x INT8 für AI-Inferenz und Unterstützung für das BF16-Datenformat.
  • größeren, schnelleren HBM2e-GPU-Speicher
  • MIG-Technik: Verdoppelt den Speicher pro isolierter Instanz und bietet bis zu sieben MIGs mit jeweils 10 GB.
  • NVLink und NVSwitch der dritten Generation: Bietet die doppelte GPU-zu-GPU-Bandbreite im Vergleich zur Interconnect-Technologie der vorherigen Generation, also beim Datentransfer zum Grafikprozessor wird auf bis zu 600 Gigabyte pro Sekunde beschleunigt.

WÄHLEN SIE DAS RICHTIGE NVIDIA-RECHENZENTRUMSPRODUKT FÜR SIE.

Accelerated Computing wird in allen Branchen und in großen Produktionsumgebungen immer häufiger eingesetzt. Da neue Anforderungen an die Rechenleistung die Möglichkeiten herkömmlicher CPU-Server übersteigen, müssen Unternehmen ihre Rechenzentren optimieren - Beschleunigung ist ein Muss. Die Rechenzentrumsplattform von NVIDIA ist die weltweit führende Lösung für Accelerated Computing und wird von den größten Supercomputing-Zentren und Unternehmen eingesetzt. Sie ermöglicht bahnbrechende Leistung mit weniger, leistungsfähigeren Servern und liefert so schneller neue Erkenntnisse bei gleichzeitiger Kostenersparnis. Die Plattform beschleunigt mit einer Vielzahl von GPUs eine breite Palette von Workloads, von KI-Training und Inferenz bis hin zu wissenschaftlichem Computing und Virtual-Desktop-Infrastructure-Anwendungen (VDI). Um eine optimale Leistung zu erzielen, ist es wichtig, den idealen Grafikprozessor für eine bestimmte Arbeitslast zu identifizieren. Informieren Sie sich über die NVIDIA-GPUs und die entsprechenden Workloads in der folgen- den Tabelle. Finden Sie heraus, welcher Grafikprozessor die besten Ergebnisse für Ihr Unternehmen liefert.

NVIDIA BESCHLEUNIGER SPEZIFIKATIONSVERGLEICH

PRODUKT VERGLEICH

Der einzige Unterschied zwischen der 40GB und 80GB Version des A100 ist die Speicherkapazität und die Speicherbandbreite. Beide Modelle werden mit einer meist aktivierten GA100 GPU mit 108 aktiven SMs und einem Boost-Takt von 1,41 GHz ausgeliefert. Ebenso bleiben die TDPs zwischen den beiden Modellen unverändert. Für den reinen Rechendurchsatz auf dem Papier gibt es also keinen Unterschied zwischen den Beschleunigern.

Die Verbesserungen liegen stattdessen in der Speicherkapazität sowie der größeren Speicherbandbreite. Die ursprüngliche A100 Variante 40GB, stattete NVIDIA mit sechs 8-GB-Stapeln HBM2-Speicher aus, wobei einer dieser Stapel aus Ertragsgründen deaktiviert wurde. Dadurch verfügte der ursprüngliche A100 über 40 GB Speicher und eine Speicherbandbreite von knapp 1,6 TB/Sekunde.

Bei der neueren A100 80 GB behält NVIDIA die gleiche Konfiguration mit 5 von 6 aktivierten Speicherstapeln bei, der Speicher selbst wurde jedoch durch neueren HBM2E-Speicher ersetzt. HBM2E ist die informelle Bezeichnung für das jüngste Update des HBM2-Speicher- standards, der im Februar dieses Jahres eine neue maximale Speichergeschwindigkeit von 3,2 Gbps/Pin definiert hat. In Verbindung mit dieser Frequenzverbesserung haben Verbesserungen in der Fertigung es den Speicherherstellern auch ermöglicht, die Kapazität des Speichers zu verdoppeln, von 1 GB/Die auf 2 GB/Die. Das Nettoergebnis ist, dass HBM2E sowohl größere Kapazitäten als auch größere Bandbreiten bietet, zwei Dinge, die NVIDIA hier ausnutzt.

NVIDIA DGX SUPERPOD
Die Lösung für Unternehmen

Der schnellste Weg zu AI-Innovationen im großen Maßstab

ERSTKLASSIGE KI-INFRASTRUKTUR

Der Einsatz von KI in Unternehmen wächst exponentiell. Mit der Notwendigkeit, bessere Kundenerlebnisse zu liefern, Geschäftsausgaben zu optimieren, klinische Ergebnisse zu verbessern oder Forschungs- und Entwicklungskapazitäten zu erweitern, investieren Unternehmen in KI-Infrastruktur, um schneller Erkenntnisse zu gewinnen. Für Unternehmen, die den kürzesten Weg zu groß angelegten KI-Innovationen benötigen, ist NVIDIA DGX SuperPOD™ das sofort einsatzbereite Hardware-, Software- und Serviceangebot, das die Unklarheiten bei der Erstellung und Bereitstellung von KI-Infrastrukturen beseitigt.

Datenblatt

EINE BUSINESS-LÖSUNG FÜR DEN GESAMTEN LEBENSZYKLUS

Die NVIDIA DGX SuperPOD Unternehmenslösung beinhaltet die Best Practices und das Know-how aus den weltweit größten KI-Implemen-tierungen, um die anspruchsvollsten KI-Probleme von Unternehmen zu lösen. Für Unternehmen, die einen zuverlässigen und sofort einsetzbaren Ansatz für groß angelegte KI-Innovationen benötigen, haben wir unsere branchenführende Referenzarchitektur genutzt und in ein umfassendes Lösungs- und Serviceangebot integriert. Die NVIDIA DGX SuperPOD Unternehmenslösung bietet ein umfassendes Service- angebot, mit dem jedes Unternehmen, das eine erstklassige Infrastruktur benötigt, innerhalb von Wochen statt Monaten branchenerprobte Ergebnisse erzielen kann. Hinzu kommt eine professionelle Implementierung, die sich intelligent in Ihr Unternehmen integriert, damit Ihr Team schneller Ergebnisse liefern kann.

SUPERCOMPUTING-LÖSUNGEN IN KÜRZESTER ZEIT LIEFERN

Die DGX SuperPOD Unternehmenslösung basiert auf der DGX SuperPod Referenz-architektur - der weltweit schnellsten kommer-ziell erhältlichen KI-Infrastruktur, wie die MLPerf Benchmark-Suite zeigt.
​​​​​​​Mit der DGX SuperPOD Enterprise-Lösung kann Ihr Unternehmen eine eigene KI-Infra-struktur der Spitzenklasse mit NVIDIA-Support erwerben und in kürzester Zeit bereitstellen, sodass Ihre Data-Science-Teams vom ersten Tag an einsatzbereit sind.

INTELLIGENTE ANPASSUNG UND INTEGRATION

Ihre Data-Science-Teams brauchen die richtigen Tools, die richtige Plattform und die richtige Infrastruktur, um KI-Workflows zu optimieren und die Zeit bis zur Erkenntnis zu verkürzen. Und Ihre  IT-Teams brauchen den richtigen Partner, um die  KI-Infrastruktur in Ihre bestehende Umgebung zu integrieren.
​​​​​​​
​​​​​​​Mit der DGX SuperPOD-Unternehmenslösung unterstützt Sie unser Professional Services Team dabei, unsere bewährte Infrastrukturlösung an Ihre Umgebung anzupassen. Dazu gehören flexible Bereitstellungsoptionen, die auf Ihr Unternehmen zugeschnitten sind.

PROFITIEREN SIE VON EINEM KOMPLETTEN LÖSUNGSANGEBOT

Mehr als nur eine Referenzarchitektur:
Ihr Team braucht einen kürzeren Weg, um die       KI-Infrastruktur für Ihre Geschäftsprozesse nutzbar zu machen. Mit der DGX SuperPOD Unternehmens- lösung profitieren Sie von um-fassenden Services für die Rechenzentrumsplanung und Expertise bei der Infrastrukturbereitstellung. Von der Dimens-ionierung, Installation und Schulung bis hin zur fort-laufenden Optimierung und darüber hinaus ist Ihre Bereitstellung mit NVIDIA Support schneller.​​​​​​​