Willkommen auf der neuen Website von sysGen. Bitte nutzen Sie unser Kontaktformular falls Sie Fragen zu unseren Inhalten haben.

Achtung: Aufgrund ständiger Preiserhöhungen aller Hersteller ist eine aktuelle Preiskalkulation online derzeit nicht möglich. Daher möchten wir darauf hinweisen, dass alle Preise bei Anfragen über unsere Website vom endgültigen Angebot abweichen können!

DEN MASSSTAB FÜR KI-INFRASTRUKTUR SETZEN

Unternehmen, die eine KI-Transformation durchlaufen, benötigen eine Plattform für die KI-Infrastruktur, die die traditionellen Ansätze verbessert, die in der Vergangenheit langsame Compute-Architekturen beinhalteten, die durch Analyse-, Trainings- und Inferenz-Workloads getrennt waren. Der alte Ansatz führte zu Komplexität, trieb die Kosten in die Höhe und schränkte die Skalierbarkeit ein. Aus diesem Grund hat NVIDIA die NVIDIA DGX A100 entwickelt.
​​​​​​​

Die NVIDIA DGX A100 ist die 3. Generation des weltweit fortschrittlichsten, speziell für KI und Data Science entwickelten Systems. Es revolutioniert das Unternehmensrechenzentrum mit einer Infrastruktur, die KI- und Data-Science-Workloads vereinheitlicht. Diese neue, universelle Plattform und Architektur bietet:

DAS PORTFOLIO WELTWEIT FÜHRENDER, ZWECKGEFERTIGTER KI-SYSTEME

KI-Arbeitsgruppensystem

Workstations der Serverklasse
eignen sich ideal für Experimente
und die Entwicklung von Teams.
​​​​​​​Kein Rechenzentrum erforderlich.

KI-Training, -Inferenz und -Analysen

Eine Reihe von Serverlösungen, die Ihnen dabei helfen, die komplexesten KI-Herausforderungen zu bewältigen.

Skalierte KI-Infrastrukturlösung

Infrastrukturentwürfe nach Industriestandard für KI-Unternehmen
Angebot anfordernMEHR INFOS

Schlüsselfertige KI-Infrastruktur

Branchenführende Infrastruktur für den gesamten Zyklus – der schnellste Weg zu KI-Innovation im großen Maßstab.
Angebot anfordernMEHR INFOS

VORTEILE

Dank optimierter KI-Software, einschließlich eines KI-optimierten Basisbetriebssystems, können Sie die Bereitstellung vereinfachen und innerhalb von Stunden statt Monaten produktiver arbeiten.

MEHR INFOS

DGX ist der Kernbaustein einer Reihe von Supercomputern der TOP500 und wurde von vielen führenden Unternehmen übernommen.

Angebot anfordernMEHR INFOS

Die Architektur hat sich für die Skalierbarkeit mit mehreren Knoten bewährt und wurde mit Branchenführern in den Bereichen Speicherung, Berechnung und Vernetzung entwickelt.

Angebot anfordernMEHR INFOS

NVIDIA DGXperts ist ein globales Team mit über 14.000  AI-fluent professionals KI-Profis, die sich im Laufe der letzten zehn Jahre eine Fülle an Erfahrung angeeignet haben, um Ihnen dabei zu helfen, den Wert Ihrer DGX-Investition zu maximieren.

Angebot anfordernMEHR INFOS

Spielverändernde Leistung: NVIDIA A100 Tensor Core GPU

Spielverändernde Leistung auf Basis des NVIDIA A100 Grafikprozessors, der das weltweit erste KI-System mit
5 PFLOPS liefert, das mühelos Analyse-, Trainings- und Inferenz-Workloads gleichzeitig ausführen kann.
Der NVIDIA DGX A100 verfügt über acht NVIDIA A100 Tensor Core GPUs, die Anwendern eine unübertroffene Beschleunigung bieten, und ist vollständig für NVIDIA CUDA-X™ Software und den End-to-End NVIDIA Data Center Solution Stack optimiert.

Die NVIDIA A100 Grafikprozessoren bieten eine neue Präzision, TF32, die wie FP32 funktioniert und im Vergleich zur Vorgängergeneration eine 20-fach höhere FLOPS-Leistung für KI bietet - und das Beste daran ist, dass keine Code-Änderungen erforderlich sind, um diesen Geschwindigkeitszuwachs zu erzielen. Und bei Verwendung von NVIDIAs automatischer Mixed-Precision bietet der A100 einen zusätzlichen 2-fachen Leistungsschub mit nur einer zusätzlichen Code-Zeile bei FP16-Präzision. Der A100-Grafikprozessor verfügt außerdem über eine klassenführende Speicherbandbreite von 1,6 Terabyte pro Sekunde (TB/s), eine Steigerung von mehr als 70 % gegenüber der letzten Generation. Darüber hinaus verfügt die A100 GPU über deutlich mehr On-Chip-Speicher, darunter einen 40 MB großen Level-2-Cache, der fast 7-mal größer ist als bei der Vorgängergeneration und die Rechenleistung maximiert. Der DGX A100 führt außerdem die nächste Generation von NVIDIA NVLink™ ein, die die direkte Bandbreite von GPU zu GPU auf 600 Gigabyte pro Sekunde (GB/s) verdoppelt, was fast 10x höher ist als PCIe Gen 4, sowie einen neuen NVIDIA NVSwitch, der 2X schneller ist als die letzte Generation.
​​​​​​​
Diese beispiellose Leistung liefert die schnellste Time-to-Solution für Trainings-, Inferenz- und Analyse-Workloads und ermöglicht es Anwendern, Herausforderungen zu meistern, die vorher nicht möglich oder praktikabel waren.

Unerreichte Flexibilität: Neue Multi Instance GPU (MIG) Innovation

Unerreichte Flexibilität mit der Multi-Instance GPU (MIG)-Innovation, die eine 7-fache Inferenzleistung pro GPU ermöglicht und die Möglichkeit bietet, Ressourcen zuzuweisen, die für bestimmte Workloads richtig dimensioniert sind.
MIG partitioniert eine einzelne NVIDIA A100 GPU in bis zu sieben unabhängige GPU-Instanzen. Diese laufen gleichzeitig, jede mit ihrem eigenen Speicher, Cache und Streaming-Multiprozessoren. Dadurch kann der A100-Grafikprozessor garantierte Quality-of-Service (QoS) bei bis zu 7-fach höherer Auslastung im Vergleich zu früheren Grafikprozessoren bieten.
MIG partitioniert eine einzelne NVIDIA A100 GPU in bis zu sieben unabhängige GPU-Instanzen. Diese laufen gleichzeitig, jede mit ihrem eigenen Speicher, Cache und Streaming-Multiprozessoren. Dadurch kann der A100-Grafikprozessor garantierte Quality-of-Service (QoS) bei bis zu 7-fach höherer Auslastung im Vergleich zu früheren Grafikprozessoren bieten.
Mit dem DGX A100 können Sie bis zu 56 MIG-Slices nutzen, um Probleme mit unflexiblen Infrastrukturen zu lösen und die Zuweisung von Rechenleistung für die einzelnen Workloads genau zu bestimmen. Sie müssen nicht mehr darum kämpfen, die Zeit auf einer Box auf mehrere konkurrierende Projekte aufzuteilen. Mit MIG auf DGX A100 haben Sie genug Rechenleistung, um Ihr gesamtes Data-Science-Team zu unterstützen.

Niedrige Gesamtbetriebskosten: Universelle KI-Plattform

Unvergleichliche TCO/ROI-Kennzahlen mit der gesamten Leistung eines modernen KI-Rechenzentrums zu 1/10 der Kosten, 1/25 des Platzes und 1/20 der Leistung. ​​​​​​​
Heutiges KI Rechenzentrum
  • 25 Rack für Training & Inferenz
  • 630 kW
  • $11M
DGX A100 Rechenzentrum
  • 1 Rack (5 x DGX A100s)
  • 28 kW
  • $1M
Traditionelle KI-Infrastrukturen bestehen in der Regel aus drei separaten spezialisierten Clustern: Training (GPU-basiert), Inferenz (oft CPU-basiert) und Analyse (CPU-basiert). Diese unflexiblen Infrastruktursilos waren nie für das Tempo von KI gedacht. Die meisten Rechenzentren, die sich mit KI-Workloads befassen, werden wahrscheinlich feststellen, dass diese Ressourcen zu einem bestimmten Zeitpunkt entweder über- oder unterausgelastet sind. Das DGX A100-Rechenzentrum mit MIG bietet Ihnen ein einziges System, das sich flexibel an Ihre Workload-Anforderungen anpassen lässt.
In vielen Rechenzentren steigt und fällt der Bedarf an Rechenressourcen, was zu Servern führt, die meist nicht ausgelastet sind. Am Ende muss die IT-Abteilung überschüssige Kapazitäten kaufen, um sich vor gelegentlichen Spitzen zu schützen. Mit dem DGX A100 können Sie jetzt die Ressourcen für jeden Job richtig dimensionieren und die Auslastung steigern, was die TCO senkt.

Mit DGX A100-Rechenzentren können Sie sich leicht an sich ändernde Geschäftsanforderungen anpassen, indem Sie eine einzige elastische Infrastruktur bereitstellen, die viel effizienter ist.

DGX Station a100: Die Workgroup-appliance für das Zeitalter der KI

Die NVIDIA DGX Station A100 bringt KI-Supercomputing zu Data-Science-Teams und bietet Rechenzentrumstechnologie ohne Rechenzentrum oder zusätzliche IT-Infrastruktur. Es ist das weltweit einzige System im Workstation-Stil mit vier vollständig miteinander verbundenen NVIDIA A100 Tensor Core GPUs, denselben GPUs wie der NVIDIA DGX A100 Server, die über NVIDIA NVLink der dritten Generation mit hoher Bandbreite miteinander verbunden sind. Er nutzt außerdem eine Spitzen-CPU in Server-Qualität, superschnellen NVMe-Speicher und modernste PCIe-Gen4-Busse.
DGX STATION A100 PERFORMANCE
EIN KI-GERÄTE, DAS SIE ÜBERALL PLATZIEREN KÖNNEN
Die DGX Station A100 eignet sich für den Einsatz in einer Standard-Büroumgebung ohne spezielle Stromversorgung oder Kühlung und wird einfach an jede Standardsteckdose angeschlossen. Außerdem enthält sie den gleichen Baseboard Management Controller (BMC) wie die NVIDIA DGX A100, sodass Systemadministratoren alle erforderlichen Aufgaben über eine Remote-Verbindung ausführen können. Und sein innovatives, kühlungsbasiertes Design bedeutet, dass er sich kühl anfühlt.
SUPERCOMPUTING FÜR DATA SCIENCE TEAMS
Die DGX Station A100 kann Trainings-, Inferenz- und Analyse-Workloads parallel ausführen und mit MIG bis zu 28 separate GPU-Geräte für einzelne Benutzer und Jobs bereitstellen, sodass die Aktivität begrenzt ist und die Leistung des gesamten Systems nicht beeinträchtigt.
UNTERSTÜTZT DURCH DEN DGX-SOFTWARE-STACK
Die DGX Station A100 verfügt über denselben vollständig optimierten NVIDIA DGX™ Software-Stack wie alle DGX-Systeme und bietet so maximale Leistung und vollständige Interoperabilität mit DGX-basierter Infrastruktur.

Warum nvidia dgx ?

Fast jedes Unternehmen erkennt die Bedeutung von KI für eine echte Business-Transformation. In einer aktuellen Studie befürchten 84 % der befragten Führungskräfte, dass sie ihre Wachstumsziele nicht erreichen werden, wenn sie KI nicht skalieren.  Allerdings gaben auch fast 76 % an, dass sie Probleme mit der Skalierung von KI in ihrem Unternehmen haben. Viele Unternehmen werden durch die Komplexität und die Kosten für die Bereitstellung der richtigen Infrastruktur behindert. Die meisten Unternehmen besteht eine der größten KI-Herausforderungen darin, Experten für die KI-Infrastruktur zu finden und IT-erprobte Plattformen zu implementieren, die eine vorhersehbare und skalierbare Leistung liefern. Immer mehr Unternehmen entscheiden sich daher für die hochoptimierten DGX-Systeme von NVIDIA, um ihre Infrastrukturen zu betreiben und ihre On-Prem-KI-Initiativen zu ermöglichen.
Zugang zu NVIDIA AI Know-How
NVIDIA DGX Systeme werden mit direktem Zugang zu NVIDIA KI-Experten geliefert, die auf unserer hauseigenen Infrastruktur, NVIDIA SATURNV, geschult werden. Sie verfügen über die umfangreichste Erfolgsbilanz bei praxiserprobten Implementierungen, sodass Kunden die schnellste Zeit bis zur Lösung erhalten.
Vollständig optimiert, praxiserprobt
NVIDIA DGX Systeme sind KI-Supercomputer mit einer Full-Stack-Lösung, die Innovationen und Optimierungen über Hardware und Software hinweg integriert. Tausende von Kunden haben bis heute DGX-Systeme eingesetzt, darunter neun der Top-10-Regierungsinstitutionen und acht der Top-10-Universitäten in den USA.
Unterstützt durch das größte Testgelände für KI
NVIDIA DGX SATURNV ist die massive KI-Infrastruktur, in der die wichtigste Arbeit von NVIDIA geleistet wird. Mit Tausenden von DGX-KI-Systemen findet NVIDIA ständig Möglichkeiten für Verbesserungen und Erweiterungen, die anschließend an DGX-Kunden ausgerollt werden.
Vertrauenswürdige Infrastruktur-Lösungen
Nur NVIDIA DGX bietet das umfangreichste Portfolio an Infrastrukturlösungen, die auf den vertrauenswürdigsten Namen in den Bereichen Rechenzentrumsspeicher und Netzwerk aufbauen, so dass Kunden mit dem Wachstum ihres Unternehmens skalieren können.
Der einfachste und schnellste Weg zum Einsatz von KI
NVIDIA und seine Partner bieten eine vollständige Palette von Optionen an, von DGX-as-a-Service über DGX-Colocation-Lösungen bis hin zu vollwertigen DGX-PODs, die vor Ort eingesetzt werden, damit Unternehmen KI einfacher, schneller und kostengünstiger einsetzen können.