Willkommen auf der neuen Website von sysGen. Bitte nutzen Sie unser Kontaktformular falls Sie Fragen zu unseren Inhalten haben.

Achtung: Aufgrund ständiger Preiserhöhungen aller Hersteller ist eine aktuelle Preiskalkulation online derzeit nicht möglich. Daher möchten wir darauf hinweisen, dass alle Preise bei Anfragen über unsere Website vom endgültigen Angebot abweichen können!

Führen Sie komplette Data-Science-Workflows mit Hochgeschwindigkeits-GPU-Rechenleistung aus und parallelisieren Sie das Laden von Daten, Datenmanipulation und maschinelles Lernen für 50-mal schnellere End-to-End-Pipelines für die Datenwissenschaft.

WARUM RAPIDS?

Heute sind Data Science und maschinelles Lernen zum weltweit größten Compute-Segment geworden. Geringfügige Verbesserungen der Genauigkeit von Analysemodellen bedeuten Milliardengewinne für das Unternehmen. Um die besten Modelle zu erstellen, müssen Datenwissenschaftler mühsam trainieren, evaluieren, iterieren und erneut trainieren, um hochpräzise Ergebnisse und leistungsstarke Modelle zu erhalten. Mit RAPIDS™ dauern Prozesse, die bisher Tage dauerten, nur noch Minuten und machen es einfacher und schneller, wertschöpfende Modelle zu erstellen und einzusetzen.
Workflows haben viele Iterationen der Umwandlung von Rohdaten in Trainingsdaten, die in viele Algorithmuskombinationen eingespeist werden,
die einer Hyperparameter-Abstimmung unterzogen werden, um die richtigen Kombinationen von Modellen, Modellparametern und Datenmerkmalen für optimale Genauigkeit und Leistung zu finden.

AUFBAU EINES LEISTUNGSSTARKEN ÖKOSYSTEMS

RAPIDS ist eine Suite von Open-Source-Softwarebibliotheken und APIs für die Ausführung von Data-Science-Pipelines vollständig auf GPUs - und kann Trainingszeiten von Tagen auf Minuten reduzieren. RAPIDS basiert auf NVIDIA® CUDA-X AI™ und vereint jahrelange Entwicklung in den Bereichen Grafik, maschinelles Lernen, Deep Learning, High-Performance Computing (HPC) und mehr.

SCHNELLERE AUSFÜHRUNGSZEIT

In der Datenwissenschaft geht es vor allem darum, schnell zu Ergebnissen zu kommen. RAPIDS nutzt NVIDIA CUDA® unter der Haube, um Ihre Workflows zu beschleunigen, indem die gesamte Data-Science-Trainings-Pipeline auf GPUs ausgeführt wird. Dies reduziert die Trainingszeit und die Häufigkeit der Modellbereitstellung von Tagen auf Minuten.

DIE GLEICHEN WERKZEUGE VERWENDEN

Indem RAPIDS die Komplexität der Arbeit mit der GPU und sogar die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentrumsarchitektur verbirgt, schafft es einen einfachen Weg, um Datenwissenschaft zu betreiben. Da immer mehr Datenwissenschaftler Python und andere Hochsprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Code-Änderung entscheidend für eine schnelle Verbesserung der Entwicklungszeit.

ÜBERALL IM MASSSTAB LAUFEN

RAPIDS can run anywhere - in the cloud or on-premises. You can easily scale it from a workstation to multi-GPU servers to multi-node clusters and deploy it in production with Dask, Spark, MLFlow, and Kubernetes.

BLITZSCHNELLE LEISTUNG BEI GROSSEN DATEN

Die Ergebnisse zeigen, dass GPUs dramatische Kosten- und Zeiteinsparungen für kleine und große Big-Data-Analyseprobleme bieten. Unter Verwendung vertrauter APIs wie Pandas und Dask ist RAPIDS bei einer Größe von 10 Terabyte auf GPUs bis zu 20-mal schneller als die beste CPU-Baseline. Mit nur 16 NVIDIA DGX A100 wird die Leistung von 350 CPU-basierten Servern erreicht. Damit ist die NVIDIA-Lösung 7x kostengünstiger und liefert gleichzeitig eine Leistung auf HPC-Niveau.

SCHNELLERER DATENZUGRIFF, WENIGER DATENBEWEGUNG

Übliche Datenverarbeitungsaufgaben haben viele Schritte (Datenpipelines), die Hadoop nicht effizient verarbeiten kann. Apache Spark löste dieses Problem, indem es alle Daten im Systemspeicher hielt, was flexiblere und komplexere Datenpipelines ermöglichte, aber neue Engpässe einführte. Die Analyse selbst einiger hundert Gigabyte (GB) an Daten konnte auf Spark-Clustern mit Hunderten von CPU-Knoten Stunden, wenn nicht Tage dauern. Um das wahre Potenzial von Data Science auszuschöpfen, müssen GPUs im Zentrum des Rechenzentrumsdesigns stehen, das aus diesen fünf Elementen besteht: Rechenleistung, Netzwerk, Speicher, Bereitstellung und Software. Im Allgemeinen sind End-to-End-Workflows für Data Science auf GPUs 10-mal schneller als auf CPUs.

ENTWICKLUNG DER DATENVERARBEITUNG

STROMSCHNELLEN ÜBERALL

RAPIDS bietet eine Grundlage für ein neues High-Performance-Data-Science-Ökosystem und senkt durch Interoperabilität die Einstiegshürde für neue Bibliotheken. Die Integration mit führenden Data-Science-Frameworks wie Apache Spark, cuPY, Dask und Numba sowie mit zahlreichen Deep-Learning-Frameworks wie PyTorch, TensorFlow und Apache MxNet trägt dazu bei, die Akzeptanz zu erweitern und die Integration mit anderen zu fördern.

BlazingSQL ist eine hochleistungsfähige verteilte SQL-Engine in Python, die auf RAPIDS aufbaut, um massive Datenmengen auf GPUs zu ETLen.

NVTabular basiert auf RAPIDS und beschleunigt das Feature-Engineering und Preprocessing für Empfehlungssysteme auf GPUs.

Basierend auf Streamz, geschrieben in Python und aufgebaut auf RAPIDS, beschleunigt cuStreamz die Streaming-Datenverarbeitung auf GPUs.

Integriert in RAPIDS, ermöglicht Plotly Dash die interaktive visuelle Analyse von Multi-Gigabyte-Datensätzen in Echtzeit, sogar auf einer einzigen GPU.

Der RAPIDS Accelerator für Apache Spark bietet eine Reihe von Plug-ins für Apache Spark, die GPUs zur Beschleunigung der Verarbeitung über RAPIDS und UCX-Software nutzen.

TECHNOLOGIE ALS HERZSTÜCK

RAPIDS basiert auf CUDA-Primitiven für die Low-Level-Rechenoptimierung, macht aber die GPU-Parallelität und die hohe Speicherbandbreite über benutzerfreundliche Python-Schnittstellen zugänglich. RAPIDS unterstützt durchgängige Data-Science-Workflows, vom Laden und Vorverarbeiten von Daten bis hin zu maschinellem Lernen, Graphanalysen und Visualisierung. Es ist ein voll funktionsfähiger Python-Stack, der für Big-Data-Anwendungsfälle in Unternehmen skalierbar ist.

LADEN VON DATEN UND AUFBEREITUNG

RAPIDS’s data loading, preprocessing, and ETL features are built on Apache Arrow for loading, joining, aggregating, filtering, and otherwise manipulating data, all in a pandas-like API familiar to data scientists. Users can expect typical speedups of 10X or greater.

MASCHINELLES LERNEN

Die maschinellen Lernalgorithmen und mathematischen Primitive von RAPIDS folgen einer vertrauten Scikit-Learn-ähnlichen API. Beliebte Tools wie XGBoost, Random Forest und viele andere werden sowohl für Einzel-GPU- als auch für große Rechenzentrums-Implementierungen unterstützt. Bei großen Datensätzen können diese GPU-basierten Implementierungen 10-50x schneller abschließen als ihre CPU-Äquivalente.

Graph Analytics

Die Graphenalgorithmen von RAPIDS wie PageRank und Funktionen wie NetworkX nutzen effizient die massive Parallelität von GPUs, um die Analyse großer Graphen um das über 1000-fache zu beschleunigen. Erforschen Sie bis zu 200 Millionen Kanten auf einem einzigen NVIDIA A100 Tensor Core Grafikprozessor und skalieren Sie auf Milliarden von Kanten auf NVIDIA DGX™ A100 Clustern.

Visualization

Die Visualisierungsfunktionen von RAPIDS unterstützen GPU-beschleunigtes Cross-Filtering. Inspiriert von der JavaScript-Version des Originals, ermöglicht es die interaktive und superschnelle mehrdimensionale Filterung von über 100 Millionen Zeilen tabellarischer Datensätze.

DEEP-LEARNING-EINBINDUNG

Während Deep Learning in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Empfehlungssysteme effektiv ist, gibt es Bereiche, in denen die Verwendung nicht zum Mainstream gehört. Bei Problemen mit tabellarischen Daten, die aus Spalten mit kategorialen und kontinuierlichen Variablen bestehen, werden üblicherweise Techniken wie XGBoost, Gradient Boosting oder lineare Modelle verwendet. RAPIDS rationalisiert die Vorverarbeitung von tabellarischen Daten auf GPUs und bietet eine nahtlose Übergabe der Daten direkt an alle Frameworks, die DLPack unterstützen, wie PyTorch, TensorFlow und MxNet. Diese Integrationen eröffnen neue Möglichkeiten für die Erstellung umfangreicher Workflows, auch solche, die bisher nicht in Frage kamen, wie z. B. die Rückführung von neuen Funktionen, die von Deep-Learning-Frameworks erstellt wurden, in Machine-Learning-Algorithmen.

MODERNE RECHENZENTREN FÜR DATA SCIENCE

Es gibt fünf wichtige Bestandteile für den Aufbau von KI-optimierten Rechenzentren im Unternehmen.
Der Schlüssel zum Design ist die Platzierung von GPUs im Zentrum.

Compute

Mit ihrer enormen Rechenleistung sind Systeme mit NVIDIA-GPUs der zentrale Compute-Baustein für KI-Rechenzentren. NVIDIA DGX Systeme liefern bahnbrechende KI-Leistung und können im Durchschnitt 50 Dual-Socket-CPU-Server ersetzen. Dies ist der erste Schritt, um Datenwissenschaftlern die branchenweit leistungsstärksten Tools für die Datenexploration an die Hand zu geben.

Software

Indem RAPIDS die Komplexität der Arbeit mit der GPU und die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentrumsarchitektur verbirgt, schafft es eine einfache Möglichkeit, Datenwissenschaft zu betreiben. Da immer mehr Datenwissenschaftler Python und andere Hochsprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Code-Änderung entscheidend für eine schnelle Verbesserung der Entwicklungszeit.

Networking

Remote Direct Memory Access (RDMA) in NVIDIA Mellanox® Netzwerkkarten-Controllern (NICs), NCCL2 (NVIDIA collective communication library) und OpenUCX (ein Open-Source-Framework für Punkt-zu-Punkt-Kommunikation) hat zu enormen Verbesserungen bei der Trainingsgeschwindigkeit geführt. Mit RDMA können Grafikprozessoren mit bis zu 100 Gigabit pro Sekunde (Gb/s) direkt über Knoten hinweg miteinander kommunizieren, so dass sie sich über mehrere Knoten erstrecken und so arbeiten können, als wären sie auf einem einzigen großen Server.

EINSATZBEREICH

Unternehmen setzen auf Kubernetes und Docker-Container für die Bereitstellung von Pipelines im großen Maßstab. Die Kombination von containerisierten Anwendungen mit Kubernetes ermöglicht es Unternehmen, die Prioritäten zu ändern, welche Aufgabe am wichtigsten ist, und verleiht den KI-Rechenzentren mehr Ausfallsicherheit, Zuverlässigkeit und Skalierbarkeit.

Storage

GPUDirect® Storage ermöglicht sowohl NVMe als auch NVMe over Fabric (NVMe-oF) das Lesen und Schreiben von Daten direkt auf die GPU unter Umgehung von CPU und Systemspeicher. Dadurch werden die CPU und der Systemspeicher für andere Aufgaben frei, während jede GPU Zugriff auf eine Größenordnung mehr Daten mit bis zu 50 Prozent höherer Bandbreite erhält.