Schnellere Erkenntnisse können Zeit, Kosten und sogar Leben retten. Deshalb wollen Unternehmen in jeder Branche die von Milliarden von IoT-Sensoren generierten Daten nutzen, um sich zu verändern. Um dies zu erreichen, brauchen sie leistungsstarke, verteilte Rechenleistung und eine sichere, einfache Verwaltung. NVIDIA Edge Computing-Lösungen vereinen NVIDIA-zertifizierte Systeme™, eingebettete Plattformen, KI-Software und schlüsselfertige Management-Services, die für KI am Netzwerkrand entwickelt wurden.
Setzen Sie daher auf Edge-Computing-Lösungen, die leistungsstarke, verteilte Rechenleistung, sichere und einfaches Remote-Management sowie Kompatibilität mit branchenführenden Technologien bieten.

Vorteile von Edge Computing

Die Verwendung von KI im Edge-Bereich bietet Unternehmen viele Vorteile. Durch die Verarbeitung von Daten in Echtzeit können Unternehmen schnell auf Änderungen in ihren Betriebsabläufen oder Märkten reagieren. Ein weiterer Vorteil der Verwendung von KI im Edge-Bereich besteht darin, dass Unternehmen in der Lage sind, ihre Daten sicher zu verarbeiten. Da Edge-Computing lokal stattfindet, sind die Daten nicht so anfällig für Angriffe von außen wie bei der Übertragung von Daten an ein zentrales Rechenzentrum. Darüber hinaus kann die Verwendung von KI im Edge-Bereich dazu beitragen, die Effizienz von Unternehmen zu steigern. Zum Beispiel können Hersteller mithilfe von Edge-Computing und KI den Zustand ihrer Produktionsanlagen überwachen und Wartungsbedarf vorausschauend planen. Dadurch können Ausfallzeiten minimiert und die Effizienz der Produktion gesteigert werden. 

Insgesamt bietet die Verwendung von KI im Edge-Bereich viele Vorteile, einschließlich verbesserte Effizienz, Qualitätskontrolle und Sicherheit. Durch die Verarbeitung von Daten in Echtzeit können Unternehmen schnell auf Änderungen in ihren Betriebsabläufen reagieren und Ausfallzeiten minimieren.​​​​​​​

Geringere Latenzzeit

Die Verlagerung von KI-Computing an den Ort, an dem die Daten generiert werden, anstatt sie zu sammeln und zur Verarbeitung in ein zentrales Rechenzentrum oder eine Cloud hochzuladen, verringert die Latenzzeit und ermöglicht Erkenntnisse in Echtzeit.

Verbesserte Sicherheit und Datenschutz

Da Edge Computing die Verarbeitung von Daten vor Ort ermöglicht, ist es weniger notwendig, sensible Daten an die öffentliche Cloud zu senden. Darüber hinaus werden die Daten gesammelt und verarbeitet.

Geringere Kosten

Die Erzeugung von immer mehr Daten erhöht die Bandbreitenanforderungen und die Kosten für die Datenspeicherung. Durch den Einsatz von Edge Computing und lokaler Datenverarbeitung müssen weniger Daten in die und aus der Cloud übertragen werden.

Größere Reichweite

Für herkömmliches Cloud Computing ist ein Internetzugang erforderlich. Beim Edge Computing werden die Daten jedoch ohne Internetzugang verarbeitet, wodurch sich die Reichweite auf bisher unzugängliche, abgelegene Standorte ausdehnt.

Lösungen für Edge-Computing

NVIDIA bietet eine breite Palette von Lösungen für Unternehmen, die Edge Computing für den Aufbau intelligenter Infrastrukturen
​​​​​​​einsetzen möchten.

NVIDIA-zertifizierte Systeme an der Grenze

NVIDIA-Certified Systems™ bilden die wesentliche Plattform für Edge Computing und bieten Einzelhändlern, Herstellern, Krankenhäusern und anderen Edge-Standorten eine optimierte Lösung für die Bereitstellung von KI-Anwendungen. Diese Systeme bieten die Leistung und Sicherheit, die für Scale-Out-Bereitstellungen erforderlich sind, und ermöglichen Unternehmen eine Vereinfachung mit getesteten Konfigurationen, die für Edge Computing entwickelt wurden.
Mehr Informationen

NVIDIA Jetson für eingebettete Systeme

NVIDIA ® Jetson™ wird von Entwicklern verwendet, um bahnbrechende KI-Produkte in allen Branchen zu entwickeln, und von Studenten und Enthusiasten für praktisches KI-Lernen und erstaunliche Projekte. Die Jetson-Plattform umfasst kleine, energieeffiziente Entwickler-Kits und Produktionsmodule, die eine leistungsstarke Beschleunigung des NVIDIA CUDA-X™ Software-Stacks bieten.
Mehr Informationen

NVIDIA Fleet Command
​​​​​​​

NVIDIA Fleet Command™ wurde speziell für KI entwickelt und ist eine schlüsselfertige Lösung für das KI-Lifecycle-Management. Sie beseitigt die Komplexität des Aufbaus und der Wartung einer Edge-Softwareplattform, indem sie optimierte Bereitstellungen, Over-the-Air-Updates und detaillierte Überwachungsfunktionen bietet. Mehrschichtige Sicherheitsprotokolle schützen geistiges Eigentum und Anwendungskenntnisse von der Cloud bis zum Edge. Durch die ständige Überwachung auf Leistung, Unregelmäßigkeiten und Sicherheitsvorfälle werden Unternehmen von der Aufgabe entlastet, diese Funktionen zu entwickeln und zu betreiben. Mit Fleet Command können Unternehmen innerhalb von Minuten von Null auf KI umstellen.
Mehr Informationen

NVIDIA Operators

Mit dem NVIDIA GPU Operator können Infrastrukturteams den Lebenszyklus von GPUs bei der Verwendung mit Kubernetes auf Clusterebene verwalten, wodurch die Notwendigkeit entfällt, jeden Knoten einzeln zu verwalten. Der GPU Operator ist als Helm-Diagramm verpackt und installiert und verwaltet den Lebenszyklus von Softwarekomponenten, damit die GPU-beschleunigten Anwendungen auf Kubernetes ausgeführt werden können. Die enthaltenen Komponenten sind NVIDIA GPU Feature Discovery, der NVIDIA-Treiber, das Kubernetes-Geräte-Plug-in, das NVIDIA Container Toolkit und der NVIDIA Data Center GPU Manager (DCGM) zur Überwachung. NVIDIA Network Operator ist für die Automatisierung der Bereitstellung und Verwaltung der Host-Netzwerkkomponenten in einem Kubernetes-Cluster zuständig. Er umfasst das Kubernetes-Geräte-Plug-in, den NVIDIA-Treiber, den NVIDIA-Peer-Memory-Treiber sowie die Container-Netzwerkschnittstellen (CNIs) Multus und Macvlan. Diese Komponenten wurden bisher manuell installiert, werden jetzt aber durch den Network Operator automatisiert, was den Bereitstellungsprozess rationalisiert und eine beschleunigte Datenverarbeitung mit verbesserter Kundenerfahrung ermöglicht.

NVIDIA EGX Plattform

Die NVIDIA EGX™-Plattform ermöglicht es der Unternehmens-IT, verschiedene Anwendungen auf einer leistungsstarken und kostengünstigen Infrastruktur bereitzustellen. Die Plattform ist eine Kombination aus hochleistungsfähigem GPU-Computing und schnellen, sicheren Netzwerken in NVIDIACertified Systems™, die von unseren Partnern gebaut und verkauft werden. Die EGX-Plattform ermöglicht es Unternehmen, sich auf die Zukunft vorzubereiten und gleichzeitig die Kosten zu senken, indem sie auf eine einzige, einheitliche Architektur für einfache Verwaltung, Bereitstellung, Betrieb und Überwachung standardisiert werden. Die EGX-Plattform unterstützt eine breite Palette von beschleunigten Anwendungen für Edge-KI, die schnellere Erkenntnisse liefern, wo sie am wichtigsten sind.
Mehr Informationen

NVIDIA Metropolis

NVIDIA Metropolis™ ist ein Anwendungsframework mit einem umfangreichen Satz an Entwickler-Tools und einem Partner-Ökosystem, das visuelle Daten und KI zusammenbringt, um die betriebliche Effizienz und Sicherheit in einer Vielzahl von Branchen zu verbessern. Es hilft dabei, die Datenflut, die von Billionen von Sensoren in der Infrastruktur erzeugt wird, sinnvoll zu nutzen, um Probleme zu lösen, z. B. im reibungslosen Einzelhandel, bei der optimierten Bestandsverwaltung, bei der Verkehrsplanung in Smart Cities, bei der optischen Inspektion in Fabrikhallen, bei der Patientenversorgung in Gesundheitseinrichtungen und vielem mehr. Mit modernster Technologie und einem umfangreichen Entwickler-Ökosystem können Unternehmen KI- und IoT-Anwendungen schnell erstellen, bereitstellen und skalieren - vom Edge bis zur Cloud.
Mehr Informationen

NVIDIA Plattform für beschleunigtes Rechnen

NVIDIA bietet ein Portfolio von zertifizierten Systemen mit Ampere Tensor Core GPUs für Inferenz-Engines. Der A2 ist eine Einstiegslösung mit geringer Leistungsaufnahme, ideal für Far-Edge-Server. Der A100 bietet die höchste Inferenzleistung und der A30 eine optimale Inferenzleistung für Mainstream-Server. Diese zertifizierten Systeme bieten führende Inferenzleistung in Cloud, Rechenzentren und Edge-Bereichen und ermöglichen KI-fähige Anwendungen mit weniger Servern und geringerem Stromverbrauch. NVIDIA bietet auch ein umfassendes Portfolio an Grafikprozessoren, Systemen und Netzwerken für optimale Leistung, Skalierbarkeit und Sicherheit in Rechenzentren.

Vorteile für verschiedene Anwendungsbereiche

Die Verwendung von KI im Edge-Bereich ist für Unternehmen in der Industrie und im Maschinenbau besonders relevant, da diese Branchen typischerweise mit großen Datenmengen arbeiten und komplexe Abläufe und Maschinen betreiben. Hier sind einige spezifische Anwendungen von KI im Edge-Bereich für diese Branchen:

Vorausschauende Wartung

Mithilfe von Edge-Computing und KI können Hersteller den Zustand ihrer Maschinen in Echtzeit überwachen und Wartungsbedarf vorausschauend planen. Dadurch können Ausfallzeiten minimiert und die Effizienz der Produktion gesteigert werden.

Qualitätskontrolle

Durch die Verwendung von KI im Edge-Bereich können Hersteller in Echtzeit Daten von Sensoren und Kameras sammeln und analysieren, um die Qualität ihrer Produkte zu überwachen. Abweichungen können so schnell erkannt werden und die Produktion kann entsprechend angepasst werden.

Prozessoptimierung

Edge-Computing und KI können dazu beitragen, Prozesse zu optimieren, indem sie Daten aus verschiedenen Quellen in Echtzeit sammeln und analysieren. Zum Beispiel können Hersteller mithilfe von KI und Edge-Computing den Energieverbrauch ihrer Maschinen überwachen und optimieren, um die Kosten zu senken.

Sicherheit

Durch die Verwendung von KI im Edge-Bereich können Hersteller die Sicherheit ihrer Anlagen und Mitarbeiter verbessern. Sensoren können in Echtzeit Daten sammeln und KI kann diese Daten analysieren, um potenzielle Gefahren zu erkennen und zu verhindern.
Mehr erfahren

Konvergente NVIDIA-Beschleuniger

Hier kommen starke Leistung, erweiterte Netzwerkfunktionen und robuste Sicherheit in einem Paket zusammen.
In einer einzigartigen, effizienten Architektur verbinden konvergierte Beschleuniger von NVIDIA die starke Leistung von NVIDIA-Grafikprozessoren mit dem verbesserten Netzwerk und der Sicherheit von NVIDIA Smart Network Interface Cards (SmartNICs) und Datenverarbeitungseinheiten (DPUs). Maximale Leistung und erhöhte Sicherheit für E/A-intensive, GPU-beschleunigte Workloads vom Rechenzentrum bis zum Edge.

Datenblatt für konvergierte Beschleuniger von NVIDIA lesen (PDF)

NVIDIA A30X

Der NVIDIA A30X kombiniert die NVIDIA A30 Tensor Core GPU mit der BlueField-2 DPU. Mit MIG kann die GPU in bis zu vier GPU-Instanzen partitioniert werden, von denen jede einen separaten Dienst ausführt.

Das Design dieser Karte bietet ein ausgewogenes Verhältnis von Rechen- und Input/Output (IO)-Leistung für Anwendungsfälle wie 5G vRAN und KI-basierte Cybersicherheit. Mehrere Dienste können auf der GPU ausgeführt werden, wobei der integrierte PCIe-Switch für niedrige Latenzzeiten und vorhersehbare Leistung sorgt.

NVIDIA A100X

Der NVIDIA A100X vereint die Leistung der NVIDIA A100 Tensor Core GPU mit der BlueField-2 DPU. Mit MIG kann jede A100 in bis zu sieben GPU-Instanzen partitioniert werden, so dass noch mehr Dienste gleichzeitig ausgeführt werden können.

Die A100X ist ideal für Anwendungsfälle, in denen die Rechenanforderungen intensiver sind. Beispiele hierfür sind 5G mit massiven MIMO-Fähigkeiten (Multiple-Input und Multiple-Output), KI-on-5G-Implementierungen und spezialisierte Workloads wie Signalverarbeitung und Multi-Node-Training.

Registrieren Sie sich für das NVIDIA Converged Accelerator Developer Kit

Sind Sie daran interessiert, die nächste Generation von KI- und Cybersicherheitsanwendungen zu entwickeln? Möchten Sie zu den ersten gehören, die praktische Erfahrungen mit den neuen Converged Accelerators sammeln? Melden Sie sich an, um Informationen über das Converged Accelerator Developer Kit zu erhalten und frühzeitig Zugang zu den Hardware- und Softwarekomponenten zu bekommen.
Verfügbarkeitsbenachrichtigung