GPU-BESCHLEUNIGER FÜR RECHENZENTREN
Zu den Hauptvorteilen der NVIDIA-Karten gehören spezialisierte Tensor-Cores für Machine-Learning-Anwendungen oder ein großer Speicher (bis zu 40 GB pro Beschleuniger), der durch ECC-Technologie gesichert ist. Damit die Beschleuniger schnell miteinander kommunizieren können, hat NVIDIA sie mit einer speziellen Schnittstelle mit enormen Datendurchsatz verbunden - NVLink. NVLink erreicht Übertragungsgeschwindigkeiten von bis zu 600 GB / s. Zusätzlich bietet der NVIDIA DGX A100 den superstarken NVSwitch. Dieser sorgt für einen Gesamtdurchsatz zwischen acht NVIDIA Ampere A100 Karten von bis zu 4,8 TB / s.
RECHENZENTREN SIND AUF DEM VORMARSCH
Die Rechenzentrumsbranche ist in einer ständigen Weiterentwicklung. Von der Verlagerung zu Managed Services, Cloud und Colocation bis hin zum ständigen Spagat zwischen Hyperscale und Edge - es ist eine anspruchsvolle Zeit, in der sich Rechenzentrumsbetreiber regelmäßig neuen Herausforderungen stellen müssen. Denn ein Rechenzentrum ist nur dann effizient, wenn es mit den Neuerungen und Veränderungen am Markt Schritt halten kann.
Sie möchten mehr über sysGen´s Leistungen von Colocation, Hosting und Managed Services in unserem Bremer Rechenzentrum erfahren?
EIN GRAFIKPROZESSOR FÜR JEDE VIRTUELLE ARBEITSLAST
NVIDIA AI ENTERPRISE
DER WEG ZU EINEM VEREINFACHTEN, BESCHLEUNIGTEN RECHENZENTRUM
Die Lösung für dieses Problem besteht in der Entwicklung einer Unternehmens-IT-Infrastruktur, in der moderne und traditionelle Anwendungen optimal auf einem gemeinsamen Ressourcenpool laufen können. Dadurch kann die IT-Abteilung die Betriebskosten senken, indem sie die Anzahl der zu verwaltenden separaten Computerumgebungen reduziert und die Investitionskosten durch die Konsolidierung von Arbeitslasten auf eine geringere Anzahl von Systemen senken kann. Auf diese Weise können sich Unternehmen auch auf die Zukunft vorbereiten, in der die Mehrheit der Anwendungen hardwarebeschleunigt sein wird.
Optimiert für Leistung
Erzielen Sie nahezu Bare-Metal-Performance über mehrere Knoten, um große, komplexe Trainings- und Machine-Learning-Workloads zu betreiben.
Zertifiziert für VMware vSphere
Reduzieren Sie Bereitstellungsrisiken mit einer kompletten Suite von NVIDIA AI-Software, die für das VMware-Rechenzentrum zertifiziert ist
NVIDIA Enterprise Support
Sorgen Sie dafür, dass unternehmenskritische KI-Projekte auf Kurs bleiben - mit Zugang zu NVIDIA-Experten.
A100, A30, A40, A10
Bereitstellen & Verwalten,
End-to-End-Management mit Echtzeit-Einblicken
VMS IN MULTI-INSTANCE GPU (MIG)
Räumliche und zeitliche Partitionierung, VM-Isolierung, flexible gemeinsame Nutzung von GPU-Ressourcen
GPU DIREKT KOMMUNIKATION
Verbesserte Datenübertragungsleistung
UNIFIED VIRTUAL MEMORY (UVM)
Vereinfachte Programmierung, verbesserte Leistung
VMS IN MULTI-INSTANCE GPU (MIG)
Entwickeln, Optimieren, Bereitstellen von Anwendungen
GPU DIREKT KOMMUNIKATION
Vereinfachtes GPU-Management
Multi-Node-Skalierung
- Bis zu 266-fache Leistungssteigerung gegenüber reiner CPU
- Nahezu Bare-Metal-Leistung
- GPU-Sharing ohne Leistungsverlust
PRODUKTEMPFEHLUNG
NVIDIA A100
Ampere-basierte Architektur - Tensor-Kerne der 3. Generation, schnelle FP64
Multi-Instanz-GPU (MIG) - Bis zu 7 Instanzen mit je 5 GB
- Hervorragende Energie/Leistung bei 250 W
- PCIe Gen 4
- 80GB HBM2
NVIDIA A30
Ampere-basierte Architektur - Tensor-Kerne der 3. Generation, schnelles FP64
Multi-Instanz-GPU (MIG) - Bis zu 4 Instanzen mit je 6 GB
- Exzellentes Leistungsverhalten bei 165 W
- PCIe Gen 4
- 24 GB HBM2