GPU-BESCHLEUNIGER FÜR RECHENZENTREN

NVIDIA Tesla und Ampere Grafikbeschleuniger wurden entwickelt, um HPC-Anwendungen zu beschleunigen oder Algorithmen für künstliche Intelligenz und Deep Learning einzusetzen.

Zu den Hauptvorteilen der NVIDIA-Karten gehören spezialisierte Tensor-Cores für Machine-Learning-Anwendungen oder ein großer Speicher (bis zu 40 GB pro Beschleuniger), der durch ECC-Technologie gesichert ist. Damit die Beschleuniger schnell miteinander kommunizieren können, hat NVIDIA sie mit einer speziellen Schnittstelle mit enormen Datendurchsatz verbunden - NVLink. NVLink erreicht Übertragungsgeschwindigkeiten von bis zu 600 GB / s. Zusätzlich bietet der NVIDIA DGX A100 den superstarken NVSwitch. Dieser sorgt für einen Gesamtdurchsatz zwischen acht NVIDIA Ampere A100 Karten von bis zu 4,8 TB / s.

NVIDIA VIRTUAL GPUS

Die GTC21 hat wieder viele Neuerungen im Hard- und Softwarebereich präsentiert. Die neuen Beschleuniger wie die A30, A40 und A16 sowie herausragende Software Lösungen wie Omniverse und viele weitere.

RECHENZENTREN SIND AUF DEM VORMARSCH

Da Unternehmen auf der ganzen Welt zunehmend digitalisiert, vernetzt und agil werden, ist der Wert der Beseitigung von Silos zugunsten von ganzheitlicheren Strategien inzwischen weithin anerkannt und erstrecken sich heute auf fast jeden Aspekt des modernen Unternehmens. Von Lieferketten bis hin zu Beschaffungsoptimierung. Agile Strategien ermöglichen es Unternehmen, die Art und Weise, wie sie Geld und Zeit für Projekte ausgeben, neu zu bewerten und interdisziplinäre Teams zusammenzubringen, die auf ein gemeinsames Ziel hinarbeiten.

Die Rechenzentrumsbranche ist in einer ständigen Weiterentwicklung. Von der Verlagerung zu Managed Services, Cloud und Colocation bis hin zum ständigen Spagat zwischen Hyperscale und Edge - es ist eine anspruchsvolle Zeit, in der sich Rechenzentrumsbetreiber regelmäßig neuen Herausforderungen stellen müssen. Denn ein Rechenzentrum ist nur dann effizient, wenn es mit den Neuerungen und Veränderungen am Markt Schritt halten kann.

Sie möchten mehr über sysGen´s Leistungen von Colocation, Hosting und Managed Services in unserem Bremer Rechenzentrum erfahren? 

EIN GRAFIKPROZESSOR FÜR JEDE VIRTUELLE ARBEITSLAST

Wachsende Workloads treiben den Bedarf an spezialisierten Beschleunigern voran

NVIDIA AI ENTERPRISE

DER WEG ZU EINEM VEREINFACHTEN, BESCHLEUNIGTEN RECHENZENTRUM

Heute laufen die meisten Unternehmensanwendungen im Rechenzentrum auf einem gemeinsamen Ressourcenpool, der von einer Virtualisierungs- oder Orchestrierungsplattform verwaltet wird. Diese Strategie maximiert die Nutzung der Kapitalinfrastruktur und ermöglicht eine hohe betriebliche Effizienz. Alle anderen Anwendungen, die diesen gemeinsamen Pool nicht nutzen können, werden in einem Silo ausgeführt, in dem die betriebliche Effizienz grundlegend niedriger ist.

Die Lösung für dieses Problem besteht in der Entwicklung einer Unternehmens-IT-Infrastruktur, in der moderne und traditionelle Anwendungen optimal auf einem gemeinsamen Ressourcenpool laufen können. Dadurch kann die IT-Abteilung die Betriebskosten senken, indem sie die Anzahl der zu verwaltenden separaten Computerumgebungen reduziert und die Investitionskosten durch die Konsolidierung von Arbeitslasten auf eine geringere Anzahl von Systemen senken kann.  Auf diese Weise können sich Unternehmen auch auf die Zukunft vorbereiten, in der die Mehrheit der Anwendungen hardwarebeschleunigt sein wird.
NVIDIA AI Software Suite für Unternehmen
Ausschließlich auf VMware vSphere 7 zertifiziert
Vorteile

Optimiert für Leistung

Erzielen Sie nahezu Bare-Metal-Performance über mehrere Knoten, um große, komplexe Trainings- und Machine-Learning-Workloads zu betreiben.

Zertifiziert für VMware vSphere

Reduzieren Sie Bereitstellungsrisiken mit einer kompletten Suite von NVIDIA AI-Software, die für das VMware-Rechenzentrum zertifiziert ist

NVIDIA Enterprise Support

Sorgen Sie dafür, dass unternehmenskritische KI-Projekte auf Kurs bleiben - mit Zugang zu NVIDIA-Experten. 

Ermöglichung von KI und Datenanalyse auf VMware vSphere
NVIDIA Virtual Compute Funktion
NVIDIA Ampere architecture-based GPUs

A100, A30, A40, A10

Bereitstellen & Verwalten,
​​​​​​​End-to-End-Management mit Echtzeit-Einblicken 

VMS IN MULTI-INSTANCE GPU (MIG)

Räumliche und zeitliche Partitionierung, VM-Isolierung, flexible gemeinsame Nutzung von GPU-Ressourcen

GPU DIREKT KOMMUNIKATION

Verbesserte Datenübertragungsleistung

UNIFIED VIRTUAL MEMORY (UVM)

Vereinfachte Programmierung, verbesserte Leistung

VMS IN MULTI-INSTANCE GPU (MIG)

Entwickeln, Optimieren, Bereitstellen von Anwendungen

GPU DIREKT KOMMUNIKATION

Vereinfachtes GPU-Management

Neue End-to-End Software Stack
Einsetzung eines typischen KI-Workflows
Bare Metal Performance für das Training
Verteiltes Deep Learning Training -
​​​​​​​Multi-Node-Skalierung
Bare Metal Performance für das Training
Bis zu 266-fach höhere KI-Inferenzleistung gegenüber CPU / Bare Metal Performance
  • Bis zu 266-fache Leistungssteigerung gegenüber reiner CPU
  • Nahezu Bare-Metal-Leistung
  • GPU-Sharing ohne Leistungsverlust

PRODUKTEMPFEHLUNG

NVIDIA A100

Größter Generationssprung, 20-fache Leistung von Volta

Ampere-basierte Architektur - Tensor-Kerne der 3. Generation, schnelle FP64
Multi-Instanz-GPU (MIG) - Bis zu 7 Instanzen mit je 5 GB

- Hervorragende Energie/Leistung bei 250 W
- PCIe Gen 4
- 80GB HBM2

NVIDIA A30

Vielseitige Rechenbeschleunigung für Mainstream Enterprise Server

Ampere-basierte Architektur - Tensor-Kerne der 3. Generation, schnelles FP64
Multi-Instanz-GPU (MIG) - Bis zu 4 Instanzen mit je 6 GB

- Exzellentes Leistungsverhalten bei 165 W
- PCIe Gen 4​​​​​​​
- 24 GB HBM2