NVIDIA® und Red Hat® arbeiten zusammen um die neuesten technologischen Innovationen zu ermöglichen. Ziel ist es den Anwendern in vielen Bereichen eine vertraute Infrastruktur, mit angetriebenen Cloud-nativen Open-Source-Technologien, zu bieten. Dies reicht von virtualisierten und privaten Cloud-Implementierungen in Unternehmensrechenzentren über umfangreiche Dienstleistungen in öffentlichen Clouds bis hin zum Edge-Bereich.

NVIDIA AI ENTERPRISE AUF RED HAT OPENSHIFT

NVIDIA AI Enterprise ist eine durchgängige, Cloud-native Suite von KI- und Datenanalysesoftware, die von NVIDIA für den Betrieb auf Red Hat OpenShift, der branchenführenden Kubernetes-Plattform, mit NVIDIA-zertifizierten Systemen optimiert, zertifiziert und unterstützt wird. Die Lösung umfasst Schlüsseltechnologien von NVIDIA und Red Hat, um KI-Workloads sicher und konsistent in der Hybrid-Cloud bereitzustellen, zu verwalten und zu skalieren.

Lesen Sie die Lösungsübersicht, um mehr über NVIDIA AI Enterprise auf Red Hat OpenShift zu erfahren.

Hybrid-Cloud mit Red Hat OpenShift auf BlueField-DPUs

Bei Red Hat® OpenShift® handelt es sich um eine unternehmenstaugliche Kubernetes-Containerplattform, die für eine offene Hybrid-Cloud-Strategie entwickelt wurde. Die NVIDIA® BlueField-DPU®  wird hierbei zur Entlastung der Server-CPU eingesetzt, was zu einer Beschleunigung von Infrastrukturaufgaben für schnellere, effizientere und sicherere Server und Netzwerke führt. Gemeinsam bieten Red Hat® OpenShift® und NVIDIA BlueField® DPU eine konsistente, Cloud-native Anwendungsplattform für die Verwaltung von Hybrid-Cloud-, Multi-Cloud- und Edge-Bereitstellungen mit verbesserter Orchestrierung, Automatisierung und Sicherheit.

Schlüsselfertiger Cloud-Service

Die DPU entlastet die Containerverwaltung und Netzwerke und liefert mehr CPU-Leistung für die Ausführung von Mandanten-Workloads.

Verbesserte Server-Sicherheit

Das Ausführen von  Red Hat® OpenShift® auf NVIDIA BlueField® verbessert die Sicherheit durch Workload-Isolation und Remote-Management.

Automatisierung und Orchestrierung

Red Hat® OpenShift® ermöglicht Orchestrierung zur
Kubernetes-Bereitstellung und DevOps-Automatisierung.

Für die Cloud bereite Infrastruktur

Red Hat® OpenShift® mit NVIDIA BlueField®-DPUs bietet die ideale Lösung für Containerverwaltung und Hybrid-Cloud-Strategien.

Beschleunigte KI-Infrastruktur für Rechenzentren

NVIDIA und Red Hat bieten eine beschleunigte KI-Infrastruktur für On-Premise-Implementierungen.

Die gemeinsame Lösung basiert auf Red Hat OpenShift und ist eine Plattform zur Beschleunigung der ML/DL-Modellierung für Datenwissenschaftler und liefert intelligente, KI-gestützte Anwendungen.

Unternehmen können den NGC™ Software-Hub von NVIDIA nutzen, um auf GPU-optimierte DL- und ML-Anwendungen und vortrainierte KI-Modelle zuzugreifen und so die Vorteile der massiven Parallelverarbeitung zu nutzen. Führende Serveranbieter empfehlen NVIDIA-zertifizierte Systeme mit NVIDIA-GPUs, die für die Ausführung beschleunigter Anwendungen mit optimaler Leistung validiert sind.

IT-VERWALTBARKEIT FÜR SPEZIELL ENTWICKELTE KI-INFRASTRUKTUREN

NVIDIA und Red Hat bringen die Vorteile der Unternehmens-IT von Red Hat Enterprise Linux® und Red Hat OpenShift auf NVIDIA DGX™ Systeme, NVIDIAs Infrastrukturplattform, die speziell für die besonderen Anforderungen von KI entwickelt wurde. Unternehmen können diese universellen Systeme für alle KI-Workloads innerhalb des vertrauten Management-Paradigmas von Red Hat Enterprise Linux einsetzen- mit von der IT entwickelten Methoden und optimierter KI-Software von NVIDIA. Als Mitglied des NVIDIA DGX-Ready Software Programms ist Red Hat OpenShift für die Verwendung mit DGX-Systemen zertifiziert.

NVIDIA DGX H100

Demnächst erhältlich

NVIDIA GPU OPERATOR FÜR RED HAT OPENSHIFT

Der NVIDIA GPU Operator für Red Hat OpenShift vereinfacht und beschleunigt rechenintensive ML/DL-Modellierungsaufgaben für Datenwissenschaftler und Inferenzaufgaben in Rechenzentren, Edge- und Public Clouds. Der GPU Operator ermöglicht Red Hat OpenShift die Planung von Workloads, die NVIDIA GPUs erfordern, genauso einfach wie die Planung von CPU oder Speicher für traditionelle Workloads. Zu den typischen Anwendungsfällen, die von der GPU-Beschleunigung profitieren können, gehören Bild- und Spracherkennung, konversationelle KI und visuelle Suche.

Die gemeinsame Lösung ist mit NVIDIA-zertifizierten Systemen und Red Hat Enterprise Linux®-zertifizierten Servern kompatibel.

BESCHLEUNIGTES und sicheres NETWORKING
​​​​​​​FÜR MODERNE RECHENZENTREN

Beim Aufbau moderner Rechenzentren ist es unerlässlich das Hardware und Software Hand in Hand gehen. Die Zusammenarbeit von NVIDIA® und Red Hat® ermöglicht das Anbieten beschleunigter Netzwerklösungen, die eine robuste, skalierbare und sichere Infrastruktur für moderne Workloads schaffen. Dies kann Ihnen bei der Bereitstellung einer optimierten softwaredefinierten Infrastruktur,  Beschleunigung dieser sowie bei der Entwicklung von Anwendungen in kürzerer Zeit helfen, was zu einer verbesserten betrieblichen Effizienz und Wettbewerbsdifferenzierung führt.

Die Bereitstellung einer standardisierten und zugänglichen Infrastruktur für die digitale Transformation von Unternehmen ist eine Muss. Die Zusammenarbeit der beiden Unternehmen hilft Ihnen, um Netzwerk-Hardware-Innovationen für Cloud-natives Computing durch Red Hat OpenShift und Cloud-Networking durch OpenStack bereitzustellen. Durch den Einsatz von NVIDIA-Technologien wie GPUDirect RDMA, ASAP2 (Accelerated Switching and Packet Processing) und dem Morpheus AI Cybersecurity Framework sind Unternehmen für die nächste Welle von Anwendungen gewappnet.

REKORDVERDÄCHTIGE STAC-A2 MARKTRISIKO-BENCHMARK

NVIDIA® und Red Hat® haben bei der Entwicklung des neuesten STAC-A2-Teilnehmers zusammengearbeitet, und STAC hat eine unabhängige Prüfung durch Dritte durchgeführt. Hier sind die ersten öffentlichen STAC-A2-Ergebnisse mit Red Hat OpenShift. Im Vergleich zu allen anderen bisher öffentlich gemeldeten Ergebnissen hat diese auf Red Hat OpenShift und NVIDIA DGX A100 basierende Lösung mehrere neue Rekorde für Leistungsmetriken und Energieeffizienz aufgestellt:


  • höchste Energieeffizienz 
  • höchste Flächeneffizienz
  • höchster Durchsatz
  • schnellste Warm- und Kaltstartzeiten im großen Greeks-Benchmark
  • schnellste Warmlaufzeit im Greeks-Benchmark
  • höchste maximale Pfade
  • höchste maximale Assets

Nachfolgend finden Sie ein Übersichtsdiagramm der Benchmark-Konfiguration, die verwendet wurde.

STAC-A2 Konfiguration