Diese Website benutzt Cookies, die für den technischen Betrieb der Website erforderlich sind und stets gesetzt werden. Andere Cookies, die den Komfort bei Benutzung dieser Website erhöhen, der Direktwerbung dienen oder die Interaktion mit anderen Websites und sozialen Netzwerken vereinfachen sollen, werden nur mit Ihrer Zustimmung gesetzt.
Konfiguration
Technisch erforderlich
Diese Cookies sind für die Grundfunktionen des Shops notwendig.
"Alle Cookies ablehnen" Cookie
"Alle Cookies annehmen" Cookie
Ausgewählter Shop
CSRF-Token
Cookie-Einstellungen
Individuelle Preise
Kunden-Wiedererkennung
Kundenspezifisches Caching
Session
Währungswechsel
Komfortfunktionen
Diese Cookies werden genutzt um das Einkaufserlebnis noch ansprechender zu gestalten, beispielsweise für die Wiedererkennung des Besuchers.
Merkzettel
Statistik & Tracking
Endgeräteerkennung
Google Analytics
Partnerprogramm
Sendinblue Tracking Cookies
Software
Tab 1 Content
NVIDIA NGC
Der NGC-Katalog beschleunigt End-to-End-Workflows mit Containern in Unternehmensqualität, vortrainierten KI-Modellen und branchenspezifischen SDKs, die vor Ort, in der Cloud oder am Netzwerkrand eingesetzt werden können.
Ermöglichen Sie eine schnelle und einfache Entwicklung mit gängigen Open-Source-Tools, um eine effiziente Anpassung, Implementierung und Verifizierung auf BlueField DPU zu ermöglichen.
NVIDIA Data Center GPU Manager (DCGM) ist eine Tool-Suite für die Verwaltung und Überwachung von NVIDIA-GPUs in Cluster-Umgebungen für Rechenzentren. Sie umfasst aktive Zustandsüberwachung, umfassende Diagnosen, Systemwarnungen und Governance-Richtlinien einschließlich Energie- und Taktmanagement....
Ganglia Monitoring System
Ein skalierbares, verteiltes Open-Source-Überwachungssystem für Hochleistungscomputersysteme wie Cluster und Grids. Es wurde sorgfältig entwickelt, um einen sehr geringen Overhead pro Knoten und eine hohe Gleichzeitigkeit zu erreichen. Ganglia wird derzeit auf Tausenden von Clustern auf der ganzen Welt eingesetzt und kann auf Cluster mit mehreren Tausend Knoten skaliert werden.
Slurm
Slurm ist ein Open-Source-Workload-Manager, der speziell für die anspruchsvollen Anforderungen des High Performance Computing entwickelt wurde. Slurm ist in Regierungslabors, Universitäten und Unternehmen auf der ganzen Welt im Einsatz. In der Top-500-Computerliste vom November 2014 führte Slurm das Workload-Management auf sechs der zehn leistungsstärksten Computer der Welt durch, darunter der GPU-Gigant Piz Daint, der über 5.000 NVIDIA-GPUs nutzt.
Run:AI
Die Compute Management Platform von Run:AI automatisiert die Orchestrierung, Planung und Verwaltung von GPU-Ressourcen für KI-Workloads. Die Kubernetes-basierte Plattform gibt Datenwissenschaftlern Zugriff auf die gesamte gepoolte Rechenleistung, die sie zur Beschleunigung von KI benötigen - vor Ort oder in der Cloud. IT- und MLOps-Teams erhalten Transparenz und Kontrolle über die Planung und dynamische Bereitstellung von GPUs und können die Auslastung der bestehenden Infrastruktur um mehr als das Zweifache steigern.
Moab HPC Suite
Moab® HPC Suite ist eine Plattform zur Workload- und Ressourcen-Orchestrierung, die komplexe, optimierte Workload-Planungsentscheidungen und Verwaltungsaktionen mit mehrdimensionalen Richtlinien automatisiert, die die Entscheidungsfindung in der Praxis nachahmen. Diese Richtlinien sorgen für ein Gleichgewicht zwischen der Maximierung der Auftragsdurchgängigkeit und -auslastung und der Einhaltung von SLAs und Prioritäten. Die Moab HPC Suite hat sich bei der Verwaltung der modernsten, vielfältigsten und datenintensivsten Systeme der Welt bewährt und ist die bevorzugte Workload-Management-Lösung für HPC-Einrichtungen der nächsten Generation.
Cloud Native Unterstützung
Die Compute Management Platform von Run:AI automatisiert die Orchestrierung, Planung und Verwaltung von GPU-Ressourcen für KI-Workloads. Die Kubernetes-basierte Plattform gibt Datenwissenschaftlern Zugriff auf die gesamte gepoolte Rechenleistung, die sie zur Beschleunigung von KI benötigen - vor Ort oder in der Cloud. IT- und MLOps-Teams erhalten Transparenz und Kontrolle über die Planung und dynamische Bereitstellung von GPUs und können die Auslastung der bestehenden Infrastruktur um mehr als das Zweifache steigern.
NVIDIA Triton Inference Server
Triton Inference Server optimiert die KI-Inferenz, indem es Teams ermöglicht, trainierte KI-Modelle aus jedem Framework auf jeder GPU- oder CPU-basierten Infrastruktur einzusetzen, auszuführen und zu skalieren. Er bietet KI-Forschern und Datenwissenschaftlern die Freiheit, das richtige Framework für ihre Projekte zu wählen, ohne die Produktionsbereitstellung zu beeinträchtigen. Es hilft Entwicklern auch, hochleistungsfähige Inferenzen in der Cloud, vor Ort, auf Edge- und Embedded-Geräten bereitzustellen.
NVIDIA Magnum IO
Die neue Recheneinheit ist das Rechenzentrum, dessen Herzstück die NVIDIA-GPUs und NVIDIA-Netzwerke sind. Beschleunigtes Computing erfordert eine beschleunigte Eingabe/Ausgabe (IO), um die Leistung zu maximieren. NVIDIA Magnum IO™, das IO-Subsystem des modernen Rechenzentrums, ist die Architektur für parallele, asynchrone und intelligente Rechenzentrums-IO, die die Speicher- und Netzwerk-IO-Leistung für Multi-GPU- und Multi-Node-Beschleunigung maximiert.
NVIDIA DOCA
Beschleunigt die Entwicklung von Netzwerk-, Speicher- und Sicherheitsanwendungen und -diensten auf BlueField DPUs.
NVIDIA Morpheus
Bietet Cybersicherheitsteams einen vollständigen Einblick in Sicherheitsbedrohungen.
BlueField SNAP
BlueField SNAP bringt virtualisierten Speicher in Bare-Metal-Clouds und macht Composable Storage einfach, indem es die Disaggregation von Speicher ermöglicht.
What Just Happened
Fortschrittliche Streaming-Telemetrie-Technologie, die in Echtzeit Einblicke in Probleme im Netzwerk bietet und eine schnelle und einfache Lösung ermöglicht.
AI Enterprise
Unternehmen modernisieren ihre Rechenzentren, um KI-gesteuerte Anwendungen und Data Science auszuführen. NVIDIA und VMware machen es einfacher denn je, eine Vielzahl verschiedener KI-Workloads in der modernen Hybrid-Cloud zu entwickeln und bereitzustellen....
Führen Sie komplette Data-Science-Workflows mit Hochgeschwindigkeits-GPU-Rechenleistung aus und parallelisieren Sie das Laden von Daten, die Datenmanipulation und das maschinelle Lernen für 50-mal schnellere End-to-End-Pipelines für Data Science....
NVIDIA Fleet Command™ ist ein verwaltende Cloud-Service, der KI-Anwendungen sicher über eine verteilte Edge-Infrastruktur bereitstellt, verwaltet und skaliert....
NVIDIA Omniverse™ ist eine offene Plattform, die für die Zusammenarbeit von virtuellen 3D-Designern und physikalisch korrekte Simulationen in Echtzeit entwickelt wurde. Komplexe visuelle Workflows können gemeinsam bearbeitet und erweitert werden.
NVIDIA Clara™ Holoscan ist die KI-Computing-Plattform für Medizinprodukte, die Hardwaresysteme für Sensor- und Netzwerkkonnektivität mit geringer Latenz, optimierte Bibliotheken für Datenverarbeitung und KI ...
Sprach-KI verändert die Art und Weise, wie Unternehmen mit ihren Kunden interagieren und sie unterstützen, in allen Branchen. NVIDIA® Riva bietet hochmoderne Modelle, vollständig beschleunigte Pipelines und Tools, um Echtzeitanwendungen wie virtuelle Assistenten, Callcenter-Agenten und Videokonferenzen mit Sprach-KI-Funktionen zu erweitern....
NVIDIA Maxine ist eine Suite von GPU-beschleunigten SDKs, die Audio- und Videokommunikation mit KI neu erfinden und Standardmikrofone und -kameras für klare Online-Kommunikation verbessern....
Software verwandelt ein Fahrzeug in eine intelligente Maschine. Das offene NVIDIA DRIVE® SDK bietet Entwicklern alle Bausteine und Algorithmen, die für autonomes Fahren benötigt werden. Es ermöglicht Entwicklern die effiziente Erstellung und Implementierung einer Vielzahl modernster AV-Anwendungen....
NVIDIA Metropolis besteht aus einem Anwendungsframework, einer Reihe von Entwicklertools und einem Partnerökosystem, das visuelle Daten und KI zusammenbringt, um die betriebliche Effizienz und Sicherheit in einer Vielzahl von Branchen zu verbessern....
Merlin ermöglicht es Datenwissenschaftlern, Ingenieuren für maschinelles Lernen und Forschern, leistungsstarke Empfehlungsprogramme in großem Umfang zu erstellen. Merlin umfasst Bibliotheken, Methoden und Tools, die die Erstellung von Empfehlungsprogrammen durch die Bewältigung gängiger Herausforderungen in den Bereichen Vorverarbeitung, Feature-Engineering, Training und Inferenz rationalisieren....
Die NVIDIA Isaac™ Robotics Platform kann diese Herausforderungen mit einer End-to-End-Lösung angehen, um Kosten zu senken, die Entwicklung zu vereinfachen und die Markteinführung zu beschleunigen....
NVIDIA Aerial™ ist ein Anwendungs-Framework für die Entwicklung hochleistungsfähiger, softwaredefinierter, cloud-nativer 5G-Anwendungen, um die steigende Nachfrage der Verbraucher zu erfüllen. Optimieren Sie Ihre Ergebnisse mit paralleler Verarbeitung auf der GPU für Basisbandsignale und Datenfluss....
Das NVIDIA HPC Software Development Kit (SDK) enthält die bewährten Compiler, Bibliotheken und Software-Tools, die für die Maximierung der Entwicklerproduktivität sowie der Leistung und Portabilität von HPC-Anwendungen unerlässlich sind....
Treiben Sie Ihre digitale Transformation mit intelligenten sysGen Arbeitsplatzplattformen in einem der sichersten Rechenzentren der Welt in Bremen voran. Sichern Sie Ihre Arbeitskontinuität.
Multi-Instance GPU (MIG) erweitert die Leistung und den Wert jedes NVIDIA A100 Tensor Core Grafikprozessors. MIG kann den A100-Grafikprozessor in bis zu sieben Instanzen partitionieren, die jeweils vollständig isoliert sind und über einen eigenen Speicher mit hoher Bandbreite, Cache und Rechenkerne verfügen....
Diese Website benutzt Cookies, die für den technischen Betrieb der Website erforderlich sind und stets gesetzt werden. Andere Cookies, die den Komfort bei Benutzung dieser Website erhöhen, der Direktwerbung dienen oder die Interaktion mit anderen Websites und sozialen Netzwerken vereinfachen sollen, werden nur mit Ihrer Zustimmung gesetzt.