Beschleunigte Anwendungen revolutionieren
​​​​​​​das Enterprise Computing

Unternehmen benötigen eine zusammenhängende Computing-Infrastruktur, welche die Funktionalität, Leistung, Sicherheit und Skalierbarkeit bietet, um moderne Workloads auszuführen, innovative Produkte und Dienstleistungen zu liefern und dabei gleichzeitig die betriebliche Effizienz zu steigern.

BEI SYSGEN ERHALTEN SIE ALLE SYSTEME, LÖSUNGEN,
BESTE BERATUNG UND SERVICE FÜR IHRE WORKLOADS

Die NVIDIA DGX ™ A100 ist das universelle System für alle KI-Workloads - von der Analyse über das Training bis hin zu Inferenzen. Die DGX A100 setzt neue Maßstäbe für die Rechendichte: Er packt 5 petaFLOPS KI-Leistung in einen 6U-Formfaktor und ersetzt die bisherige Computing-Infrastruktur durch ein einziges, einheitliches System. Die DGX A100 bietet außerdem die beispiellose Möglichkeit, die Rechenleistung durch Nutzung der Multi-Instance-GPU (MIG)-Funktion der NVIDIA A100 Tensor Core GPU fein zu granulieren.
Die DGX A100 ist mit bis zu 640 Gigabyte (GB) GPU-Gesamtspeicher erhältlich, was die Leistung großer Trainingsjobs bis zum Dreifachen steigert und die Größe der MIG-Instanzen verdoppelt. Der DGX A100 kann sowohl die größten und komplexesten als auch die einfachsten und kleinsten Aufgaben bewältigen. Die DGX A100 läuft mit dem DGX-Software-Stack und optimierter Software von NGC. Die Kombination aus hoher Rechenleistung und vollständiger Workload-Flexibilität macht die DGX A100 zur idealen Wahl sowohl für Single-Node-Implementierungen als auch für große Slurm- und Kubernetes-Cluster, die mit NVIDIA DeepOps bereitgestellt werden.
Preis auf Anfrage
Preis auf Anfrage
Preis auf Anfrage

Supermicro Rackmount
​​​​​​​Server

DIE LEISTUNGSFÄHIGSTEN MULTI-INSTANZ
RACK-MOUNTABLE SERVER MIT DEN NEUESTEN
NVIDIA A100 GPU PLATTFORMEN

SUPERMICRO IST MARKTFÜHRER BEI HOCHLEISTUNGSFÄHIGEN RACKMOUNTFÄHIGEN SERVER

Für die anspruchsvollsten Workloads baut Supermicro die leistungsstärksten und schnellsten Systeme, die auf NVIDIA A100™ Tensor Core GPUs basieren. Supermicro unterstützt eine Reihe von Kundenanforderungen mit optimierten Systemen für die neuen HGX™ A100 8-GPU und HGX™ A100 4-GPU Plattformen. Mit der neuesten Version der NVIDIA® NVLink™- und NVIDIA NVSwitch™-Technologien können diese Systeme eine Leistung von bis zu 5 PetaFLOPS in einem einzigen 4U-System liefern.
AMD Logo Image
Prozessor: Dual AMD EPYC™ 7002/7003 Series Processors
Intel Logo Image
Prozessor: Dual Socket P+ (LGA-4189) 3rd Gen Intel® Xeon® Scalable Processors
AMD Logo Image
Prozessor: Dual AMD EPYC™ 7002/7003 Series Processors
Intel Logo Image
Prozessor: Dual Socket P+ (LGA-4189) 3rd Gen Intel® Xeon® Scalable Processors
*Das Bild oben enthält viele Links
Tab 3 Content
EGX Server Image

Schnellere Einblicke

Die NVIDIA EGX-Plattform gibt der Unternehmens-IT die Möglichkeit, unterschiedlichste Anwendungen auf einer hochleistungsfähigen und kosteneffektiven Infrastruktur bereitzustellen. Die Plattform ist eine Kombination aus leistungsstarkem GPU-Computing und sicheren Hochgeschwindigkeitsnetzwerken in NVIDIA-Certified Systems™ und wird von unseren Partnern entwickelt und verkauft. Mit der EGX-Plattform können sich Kunden auf die Zukunft vorbereiten und gleichzeitig Kosten senken, indem sie eine einheitliche Architektur standardisieren, die Verwaltung, Bereitstellung, Betrieb und Überwachung auf einfache Weise ermöglicht.
ERFAHREN SIE MEHR ÜBER DIE NVIDIA EGX-PLATTFORM
*Das Bild oben enthält viele Links

NVIDIA DRIVE Hyperion

NVIDIA DRIVE Hyperion™ ist eine serienreife Plattform für autonome Fahrzeuge. Diese AV-Referenzarchitektur beschleunigt die Entwicklung, das Testen und die Validierung auf dem Weg zur Produktion durch die Integration von DRIVE Orin-basierter KI-Datenverarbeitung mit einer kompletten Sensorsuite, die zwölf Außenkameras, drei Innenkameras, neun Radargeräte, zwölf Ultraschallgeräte, ein nach vorne gerichtetes Lidar sowie ein Lidar für die Ground Truth-Datenerfassung umfasst. DRIVE Hyperion verfügt über den vollständigen Software-Stack für autonomes Fahren (DRIVE AV) sowie Fahrerüberwachung und -visualisierung (DRIVE IX), die OTA aktualisiert werden können und während der gesamten Lebensdauer des Fahrzeugs neue Funktionen hinzufügen.
Nvidia Drive Hyperion Image

NVIDIA DRIVE Orin

Der NVIDIA DRIVE Orin™ SoC (System on a Chip) liefert 254 TOPS (Trillion Operations per Second) und ist der Zentralrechner für intelligente Fahrzeuge. Er stellt die ideale Lösung für autonome Fahrfunktionen, Confidence Views, digitale Cluster und KI-Cockpits dar. Mit der skalierbaren DRIVE Orin-Produktfamilie können Entwickler eine Entwicklungsinvestition innerhalb einer ganzen Flotte erstellen, skalieren und nutzen – von Systemen der Klasse 2+ bis hin zu vollständig autonomen Fahrzeugen der Stufe 5.
Nvidia Drive Orin Image

NVIDIA DRIVE AGX Pegasus

NVIDIA Drive AGX Pegasus™ nutzt die Leistung von zwei Xavier™ SoCs und zwei NVIDIA Turing™-Grafikprozessoren, um eine bisher unerreichte Supercomputing-Leistung von 320 TOPS zu erzielen. Die Plattform wurde für alle Arten von autonomen Systemen entwickelt, einschließlich Robo.
Nvidia Drive AGX Pegasus Image

NVIDIA DRIVE AGX Xavier

NVIDIA DRIVE AGX Xavier liefert 30 TOPS für automatisiertes Fahren der Klasse 2+ und Klasse 3. Herzstück ist die weltweit erste Auto-Klasse Xavier SoC mit sechs unterschiedlichen Prozessortypen, darunter CPU, GPU, Deep Learning Accelerator (DLA), Programmable Vision Accelerator (PVA), Bildsignal-Prozessor (ISP) und Stereo-/optischem Strömungsbeschleuniger.
Nvidia Drive AGX Xavier Image

NVIDIA DRIVE Atlan

Unsere nächste Generation von SoC NVIDIA DRIVE AtlanTM wird ein Rechenzentrum auf Rädern sein, komplett mit der Leistung und Sicherheit der Rechenzentrumstechnologie. Atlan soll eine Rechenleistung von 1.000 TOPS erreichen – die Basis für eine sichere Entwicklungsplattform für autonome Fahrzeuge der Zukunft.

THE ULTIMATE PLAY

NVIDIA® GeForce RTX™ Notebook-Grafikprozessoren der 30er-Serie sind die schnellsten Notebooks der Welt für Gamer und Kreative. Sie basieren auf Ampere, der RTX-Architektur der 2. Generation von NVIDIA, und bieten realistische Raytracing-Grafik und innovative KI-Funktionen wie NVIDIA DLSS. Die Max-Q-Technologien entfesseln die Kraft der künstlichen Intelligenz, um dünne, leistungsstarke Notebooks zu entwickeln, die schneller und besser sind als je zuvor.
ZU DEN LAPTOPS
Geforce Notebook Image

Sichere Beschleunigung von Workloads von Enterprise bis Exascale​​​​​​

Bis zu 9-fach höheres KI-Training
​​​​​​​auf den größten Modellen
Mischung von Experten (395 Milliarden Parameter)
Die prognostizierte Leistung kann sich ändern. Training der Mixture of Experts (MoE) Transformer Switch-XXL-Variante mit 395B Parametern auf 1T Token-Datensatz | A100-Cluster: HDR IB-Netzwerk | H100-Cluster: NVLINK Switch System, NDR IB
Transformations-KI-Schulung
Die NVIDIA H100-GPUs verfügen über Tensor-Cores der vierten Generation und die Transformer Engine mit FP8-Präzision, die im Vergleich zur Vorgängergeneration ein bis zu 9-mal schnelleres Training für Mixed-of-Experts-Modelle (MoE) ermöglicht. Die Kombination aus NVlink der vierten Generation, das 900 Gigabyte pro Sekunde (GB/s) an GPU-zu-GPU-Verbindungen bietet, NVLINK Switch System, das die Kommunikation zwischen den einzelnen GPUs über die Knoten hinweg beschleunigt, PCIe Gen5 und NVIDIA Magnum IO™ Software sorgt für effiziente Skalierbarkeit von kleinen Unternehmen bis hin zu riesigen, einheitlichen GPU-Clustern.

Der Einsatz der H100-GPUs im Rechenzentrumsmaßstab liefert eine herausragende Leistung und bringt die nächste Generation des Exascale High Performance Computing (HPC) und der KI mit Billionen von Parametern in die Reichweite aller Forscher.
Deep-Learning-Inferenz in Echtzeit
 
KI löst eine Vielzahl von geschäftlichen Herausforderungen mit einer ebenso großen Bandbreite an neuronalen Netzen. Ein großartiger KI-Inferenzbeschleuniger muss nicht nur höchste Leistung bieten, sondern auch die Vielseitigkeit, diese Netzwerke zu beschleunigen.

H100 baut NVIDIAs Marktführerschaft bei Inferenzen weiter aus und bietet eine Reihe von Weiterentwicklungen, die die Inferenzen um das bis zu 30-fache beschleunigen und die geringste Latenz aufweisen. Tensor Cores der vierten Generation beschleunigen alle Präzisionsstufen, einschließlich FP64, TF32, FP32, FP16 und INT8, und die Transformer Engine nutzt FP8 und FP16 zusammen, um die Speichernutzung zu reduzieren und die Leistung zu erhöhen, ohne die Genauigkeit für große Sprachmodelle zu beeinträchtigen.
 
Bis zu 30-fach höhere KI-Inferenzleistung bei großen Modellen
Mischung von Experten (395 Milliarden Parameter)
Die prognostizierte Leistung kann sich ändern. Inferenz auf Megatron 530B-Parametermodell-basierten Chatbot für Eingabesequenzlänge=128, Ausgabesequenzlänge =20 | A100-Cluster: HDR IB-Netzwerk | H100-Cluster: NVLink Switch System, NDR IB
Bis zu 7x höhere Leistung für HPC-Anwendungen
Die prognostizierte Leistung kann sich noch ändern. 3D FFT (4K^3) Durchsatz | A100-Cluster: HDR IB-Netzwerk | H100-Cluster: NVLink Switch System, NDR IB | Genomsequenzierung (Smith-Waterman) | 1 A100 | 1 H100
Exascale High-Performance Computing
Die NVIDIA-Rechenzentrumsplattform liefert beständig Leistungssteigerungen jenseits des Mooreschen Gesetzes. Und die neuen bahnbrechenden KI-Funktionen von H100 verstärken die Leistung von HPC+AI weiter, um die Zeit bis zur Entdeckung für Wissenschaftler und Forscher zu verkürzen, die an der Lösung der wichtigsten Herausforderungen der Welt arbeiten.

H100 verdreifacht die Fließkomma-Operationen pro Sekunde (FLOPS) von Tensor Cores mit doppelter Genauigkeit und bietet 60 TeraFLOPS FP64-Computing für HPC. KI-basierte HPC-Anwendungen können die TF32-Präzision des H100 nutzen, um einen PetaFLOP-Durchsatz für einfach genaue Matrix-Multiplikationsoperationen zu erreichen, ohne dass der Code geändert werden muss.

Der H100 verfügt außerdem über DPX-Befehle, die bei dynamischen Programmieralgorithmen wie Smith-Waterman für das DNA-Sequenz-Alignment eine 7-fach höhere Leistung als NVIDIA A100 Tensor Core GPUs und eine 40-fache Beschleunigung gegenüber herkömmlichen Dual-Socket-CPU-Servern ermöglichen.
Datenanalytik
Die Datenanalyse nimmt bei der Entwicklung von KI-Anwendungen oft den größten Teil der Zeit in Anspruch. Da große Datensätze über mehrere Server verstreut sind, werden Scale-Out-Lösungen mit reinen CPU-Servern durch einen Mangel an skalierbarer Rechenleistung ausgebremst.

Beschleunigte Server mit H100 bieten die nötige Rechenleistung - zusammen mit 3 Terabyte pro Sekunde (TB/s) Speicherbandbreite pro GPU und Skalierbarkeit mit NVLink und NVSwitch -, um Datenanalysen mit hoher Leistung und Skalierbarkeit zur Unterstützung großer Datensätze zu bewältigen. In Kombination mit NVIDIA Quantum-2 Infiniband, der Magnum IO-Software, GPU-beschleunigtem Spark 3.0 und NVIDIA RAPIDS™ ist die NVIDIA-Rechenzentrumsplattform einzigartig in der Lage, diese riesigen Workloads mit beispielloser Leistung und Effizienz zu beschleunigen.
Unternehmensgerechte Nutzung
IT-Manager versuchen, die Auslastung (sowohl Spitzen- als auch Durchschnittswerte) der Rechenressourcen im Rechenzentrum zu maximieren. Sie verwenden oft eine dynamische Rekonfiguration der Rechenleistung, um die Ressourcen für die verwendeten Arbeitslasten richtig zu dimensionieren.

Die Multi-Instance-GPU (MIG) der zweiten Generation in H100 maximiert die Auslastung jeder GPU, indem sie sie sicher in bis zu sieben separate Instanzen partitioniert. Mit der Unterstützung für vertrauliches Computing ermöglicht die H100 eine sichere End-to-End-Nutzung mit mehreren Mandanten, ideal für Cloud-Service-Provider-Umgebungen (CSP).

H100 mit MIG ermöglicht es Infrastrukturmanagern, ihre GPU-beschleunigte Infrastruktur zu standardisieren und gleichzeitig die Flexibilität zu haben, GPU-Ressourcen mit größerer Granularität bereitzustellen, um Entwicklern auf sichere Weise die richtige Menge an beschleunigten Berechnungen zu bieten und die Nutzung aller GPU-Ressourcen zu optimieren.
MEHR ÜBER MIG ERFAHREN
NVIDIA Vertrauliches Rechnen
Die heutigen Lösungen für vertrauliches Rechnen sind CPU-basiert, was für rechenintensive Workloads wie KI und HPC zu begrenzt ist. NVIDIA Confidential Computing ist eine integrierte Sicherheitsfunktion der NVIDIA Hopper-Architektur, die den NVIDIA H100 zum weltweit ersten Beschleuniger mit vertraulichen Berechnungsfunktionen macht. Benutzer können die Vertraulichkeit und Integrität ihrer Daten und Anwendungen schützen, während sie auf die unübertroffene Beschleunigung der H100-GPUs zugreifen. Es wird eine hardwarebasierte vertrauenswürdige Ausführungsumgebung (TEE) geschaffen, die die gesamte Arbeitslast, die auf einer einzelnen H100 GPU, mehreren H100 GPUs innerhalb eines Knotens oder einzelnen MIG-Instanzen ausgeführt wird, sichert und isoliert. GPU-beschleunigte Anwendungen können unverändert innerhalb der TEE ausgeführt werden und müssen nicht partitioniert werden. Anwender können die Leistung der NVIDIA-Software für KI und HPC mit der Sicherheit eines Hardware-Root-of-Trusts kombinieren, der von NVIDIA Confidential Computing geboten wird.
NVIDIA H100 CNX Konvergenz-Beschleuniger
NVIDIA H100 CNX kombiniert die Leistung des NVIDIA H100 mit den fortschrittlichen Netzwerkfunktionen der NVIDIA ConnectX®-7 Smart Network Interface Card (SmartNIC) in einer einzigen, einzigartigen Plattform. Diese Konvergenz liefert unvergleichliche Leistung für GPU-gestützte Input/Output (IO)-intensive Workloads, wie z. B. verteiltes KI-Training im Unternehmensrechenzentrum und 5G-Verarbeitung am Netzwerkrand.
NVIDIA Grace Hopper
Die Hopper Tensor Core GPU wird die NVIDIA Grace Hopper CPU+GPU Architektur antreiben, die speziell für beschleunigtes Rechnen im Terabyte-Bereich entwickelt wurde und eine 10-fach höhere Leistung bei KI und HPC mit großen Modellen bietet. Die NVIDIA Grace CPU nutzt die Flexibilität der Arm®-Architektur, um eine CPU- und Server-Architektur zu schaffen, die von Grund auf für beschleunigtes Rechnen entwickelt wurde. Der Hopper-Grafikprozessor ist mit der Grace-CPU gekoppelt und nutzt die ultraschnelle Chip-to-Chip-Verbindung von NVIDIA, die eine Bandbreite von 900 GB/s bietet und damit 7-mal schneller ist als PCIe Gen5. Dieses innovative Design bietet eine bis zu 30-fach höhere Gesamtsystem-Speicherbandbreite für die GPU im Vergleich zu den schnellsten Servern von heute und eine bis zu 10-fach höhere Leistung für Anwendungen mit Terabytes an Daten.

VORTEILE

Optimierte Leistung

Jedes von NVIDIA zertifizierte System stellt eine einheitliche, beschleunigte KI-Plattform zur Verfügung, die sicherstellt, dass die grafikprozessoroptimierte NVIDIA Software aus dem  NGC-Katalog schon im Lieferzustand funktioniert – dies vereinfacht die Entwicklung und operationalisiert KI-Dienste.

Hoch skalierbar

Skalierung auf mehreren Systemen in einem Cluster mit den High-Speed-Netzwerklösungen von NVIDIA® Mellanox® Eingabe-/Ausgabe-Technologien (E/A) mit hoher Bandbreite GPUDirect® Storage (GDS) und GPUDirect RDMA (GDR) ermöglichen eine schnellere Lösungszeit.

Integrierte Sicherheit​​​​​​​

Die integrierte  TLS- (Transport Layer Security) und IPsec-Kryptografie (Internet-Protocol-Security) sichert sowohl Kundendaten als auch KI-Modelle. Die Hardware-RoT (Root of Trust) ermöglicht Sicherheit auf der Plattform und Daten- und Anwendungsschichten mit sicherem Boot und sicheren Firmware-Updates.

Support der Enterpriseklasse

Dank des direkten Zugangs zu den Fachexperten von NVIDIA können Unternehmen die Ausfallzeiten des Systems während der Infrastrukturbereitstellung minimieren und die Produktivität der Benutzer während der Bereitstellung maximieren.

Ermöglichung einer sicheren beschleunigten Hybrid-Cloud

Durch die Kombination von Netzwerk-und Rechenelementen kann ein von NVIDIA zertifiziertes System die wachsenden Datenmengen verarbeiten, komplexe KI-Modelle und -Anwendungen ermöglichen und ein Tool zur Unterstützung der gesamten Vielfalt moderner KI bieten. Ein von NVIDIA zertifiziertes System stellt eine unverzichtbare Plattform für die Beschleunigung der Transformation von Unternehmens-Rechenzentren dar. Das Programm wird die Entwicklung der ersten KI-Infrastruktur leiten und die notwendigen Lösungen für die Ausführung optimierter Workloads sowohl innerhalb des Rechenzentrums als auch in der Peripherie liefern.

NVIDIA-zertifizierte Systeme für alle Workloads

NVIDIA-zertifizierte Systeme bilden die unverzichtbare Plattform für die Weiterentwicklung von Unternehmensrechenzentren und stellen die notwendige Infrastruktur für die Ausführung einer Vielzahl von beschleunigten Workloads zur Verfügung. Die Zertifizierungs-Testsuite wurde entwickelt, um die Leistung und Funktionalität eines konfigurierten Servers zu testen, indem verschiedene Anwendungen ausgeführt werden, die repräsentativ sind für eine Vielzahl von Anwendungsfällen aus der Praxis. Dazu gehören Deep Learning-Schulungen (DL), KI-Inferenz, End-to-End-KI-Frameworks einschließlich Jarvis und Clara, Data Science einschließlich Spark, Intelligent Video Analytics (IVA), High-Performance Computing (HPC) und CUDA®-Funktionen sowie Rendering. Zudem werden die Beschleunigung der Infrastrukturleistung wie Netzwerk- und Speicher-Offload, Sicherheitsfunktionen  und Remote-Management-Funktionen berücksichtigt.
DATENBLATT

NVIDIA-zertifizierte Systeme ‒ Komponentenoptionen

Zertifizierte Server bieten eine Vielzahl von Optionen für Beschleunigungshardware.
​​​​​​​Die folgenden Komponenten werden im Rahmen des NVIDIA-Certified Systems-Programms unterstützt.

GPU

NVIDIA HGX™ A100 8-GPU und 4-GPU
NVIDIA A100 Tensor-Core-GPU für PCIe
NVIDIA A40 GPU
NVIDIA A30 Tensor-Core-GPU
NVIDIA A10 Tensor-Core-GPU
NVIDIA RTX™ A6000 GPU
NVIDIA T4 Tensor-Core-GPU

Netzwerk

NVIDIA® ConnectX®-6
NVIDIA® ConnectX-6 Dx 
NVIDIA BlueField®-2

Machen Sie das Beste aus Ihren Systemen

Ein von NVIDIA zertifiziertes System – validiert für Leistung, Funktionalität, Skalierbarkeit und Sicherheit – ermöglicht es Unternehmen, Komplettlösungen für KI-Workloads aus dem NVIDIA NGC-Katalog anzuwenden, die von den NVIDIA NGC-Supportdiensten unterstützt werden.
Nvidia VMware Image

NVIDIA AI Enterprise

NVIDIA AI Enterprise ist eine durchgängige, Cloud-native Suite von KI- und Datenanalysesoftware, die von NVIDIA für den Betrieb auf VMware vSphere mit NVIDIA-zertifizierten Systemen optimiert und zertifiziert wurde.

MEHR ERFAHREN
Omniverse Image

NVIDIA Omniverse Enterprise

NVIDIA Omniverse ist eine revolutionäre Plattform für die virtuelle Zusammenarbeit und praxisnahe Simulationen. Global verteilte Teams können ihre Workflows mit der Ein-Klick-Interoperabilität zwischen den wichtigsten Software-Tools beschleunigen und nahtlos in einer gemeinsamen virtuellen Umgebung zusammenarbeiten.

MEHR ERFAHREN
Nvidia Cloudera Image

Cloudera wird schneller

Data-Science-Teams, die die Cloudera Data Platform (CDP) nutzen, können Data-Engineering-, Analyse- und Machine-Learning-Workflows mithilfe von RAPIDS und NVIDIA-Computing über öffentliche und private Clouds hinweg beschleunigen.

CLOUDERA | PDF
NGC Katalog Image

NGC-Katalog

Der NGC-Katalog ist das Herz für grafikprozessorbeschleunigte Software, die die Bereitstellung von Containern vereinfacht, die Produktivität steigert und die Zeit bis zur Lösung mit vorab trainierten Modellen, Ressourcen, SDKs und Helm Charts verkürzt.

NGC-Katalog

sysGen`s NVIDIA-ZERTIFIZIERTES GPU-SERVER-ANGEBOT

NVIDIA, SUPERMICRO GPU-SERVER & sysGen LÖSUNGEN,
​​​​​​​HOLEN DAS BESTE AUS IHREN SYSTEMEN HERAUS

sysGen bietet NVIDIA-zertifizierte Systeme an, die in verschiedenen Einzelknoten- und Cluster-Konfigurationen getestet und für eine Vielzahl von Workloads optimiert wurden – von Deep-Learning-Training und -Inferenz zu Datenanalysen und branchenspezifischen Workloads.

Ein von NVIDIA zertifiziertes System, bestehend aus A100, NVIDIA Mellanox Smart NICs und Grafikprozessoren wird für Leistung, Funktionalität, Skalierbarkeit und Sicherheit validiert, sodass Unternehmen Komplettlösungen für die Verwendung von KI aus dem NVIDIA NGC-Katalog problemlos implementieren können.

Holen Sie das Beste aus Ihren Systemen mit unseren Empfehlungen für NVIDIA und Supermicro heraus.
​​​​​​​Hier ist für jedes Vorhaben und für jedes Budget das Richtige dabei!
NVIDIA Logo
Supermicro Logo Image
NVIDIA-zertifizierte Systeme
DATENBLATT ANZEIGENWHITEPAPER ANZEIGEN