Führen Sie komplette Data-Science-Workflows mit Hochgeschwindigkeits-GPU-Rechenleistung aus und parallelisieren Sie das Laden von Daten, Datenmanipulation und maschinelles Lernen für 50-mal schnellere End-to-End-Pipelines für die Datenwissenschaft.
Rapaids Image

WARUM RAPIDS?

Heute sind Data Science und maschinelles Lernen zum weltweit größten Compute-Segment geworden. Geringfügige Verbesserungen der Genauigkeit von Analysemodellen bedeuten Milliardengewinne für das Unternehmen. Um die besten Modelle zu erstellen, müssen Datenwissenschaftler mühsam trainieren, evaluieren, iterieren und erneut trainieren, um hochpräzise Ergebnisse und leistungsstarke Modelle zu erhalten. Mit RAPIDS™ dauern Prozesse, die bisher Tage dauerten, nur noch Minuten und machen es einfacher und schneller, wertschöpfende Modelle zu erstellen und einzusetzen.
Rapids Workflow Image
Workflows haben viele Iterationen der Umwandlung von Rohdaten in Trainingsdaten, die in viele Algorithmuskombinationen eingespeist werden,
die einer Hyperparameter-Abstimmung unterzogen werden, um die richtigen Kombinationen von Modellen, Modellparametern und Datenmerkmalen für optimale Genauigkeit und Leistung zu finden.

AUFBAU EINES LEISTUNGSSTARKEN ÖKOSYSTEMS

RAPIDS ist eine Suite von Open-Source-Softwarebibliotheken und APIs für die Ausführung von Data-Science-Pipelines vollständig auf GPUs - und kann Trainingszeiten von Tagen auf Minuten reduzieren. RAPIDS basiert auf NVIDIA® CUDA-X AI™ und vereint jahrelange Entwicklung in den Bereichen Grafik, maschinelles Lernen, Deep Learning, High-Performance Computing (HPC) und mehr.

Kürzere Verarbeitungszeiten

Bei der Datenwissenschaft geht es um die Beschleunigung der Ergebnisse. RAPIDS nutzt NVIDIA CUDA®. So können Sie Ihre Arbeitsabläufe beschleunigen, indem Sie die gesamte Pipeline zum Trainieren der Datenwissenschaft auf GPUs ausführen. Dadurch verringert sich die Trainingszeit und die Frequenz der Modelbereitstellung von Tagen auf Minuten.

Dieselben Tools verwenden

Indem die Komplexität der Arbeit mit dem Grafikprozessor und sogar die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentren verborgen werden, schafft RAPIDS eine einfache Möglichkeit der Datenwissenschaft. Da immer mehr Datenwissenschaftler Python und andere hochrangige Sprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Codewechsel unerlässlich, um die Entwicklungszeit rasch zu verbessern.

Überall skaliert ausführen

RAPIDS kann an jedem beliebigen Ort – in der Cloud oder vor Ort – ausgeführt werden. Sie können ganz einfach von einer Workstation auf Server mit mehreren Grafikprozessoren skalieren und es in der Produktion mit Dask, Spark, MLFlow und Kubernetes bereitstellen.

Unternehmenstaugliche Datenwissenschaft

Der Zugriff auf zuverlässigen Support ist für Unternehmen, die Datenwissenschaft für geschäftskritische Erkenntnisse nutzen, oft essenziell. Der NVIDIA Enterprise Support ist mit NVIDIA AI Enterprise, einer End-to-End-KI-Softwaresuite, global verfügbar und umfasst garantierte Reaktionszeiten, vorrangige Sicherheitsbenachrichtigungen, regelmäßige Updates und Kontakt zu KI-Experten von NVIDIA.

BLITZSCHNELLE LEISTUNG
​​​​​​​BEI GROSSEN DATEN

Die Ergebnisse zeigen, dass GPUs dramatische Kosten- und Zeiteinsparungen für kleine und große Big-Data-Analyseprobleme bieten. Unter Verwendung vertrauter APIs wie Pandas und Dask ist RAPIDS bei einer Größe von 10 Terabyte auf GPUs bis zu 20-mal schneller als die beste CPU-Baseline. Mit nur 16 NVIDIA DGX A100 wird die Leistung von 350 CPU-basierten Servern erreicht. Damit ist die NVIDIA-Lösung 7x kostengünstiger und liefert gleichzeitig eine Leistung auf HPC-Niveau.
Rapids Server Image

SCHNELLERER DATENZUGRIFF, WENIGER DATENBEWEGUNG

Übliche Datenverarbeitungsaufgaben haben viele Schritte (Datenpipelines), die Hadoop nicht effizient verarbeiten kann. Apache Spark löste dieses Problem, indem es alle Daten im Systemspeicher hielt, was flexiblere und komplexere Datenpipelines ermöglichte, aber neue Engpässe einführte. Die Analyse selbst einiger hundert Gigabyte (GB) an Daten konnte auf Spark-Clustern mit Hunderten von CPU-Knoten Stunden, wenn nicht Tage dauern. Um das wahre Potenzial von Data Science auszuschöpfen, müssen GPUs im Zentrum des Rechenzentrumsdesigns stehen, das aus diesen fünf Elementen besteht: Rechenleistung, Netzwerk, Speicher, Bereitstellung und Software. Im Allgemeinen sind End-to-End-Workflows für Data Science auf GPUs 10-mal schneller als auf CPUs.

ENTWICKLUNG DER DATENVERARBEITUNG

Rapids Workflow Image

RAPIDS vielseitig einsätzbar

RAPIDS bietet eine Grundlage für ein neues High-Performance-Data-Science-Ökosystem und senkt durch Interoperabilität die Einstiegshürde für neue Bibliotheken. Die Integration mit führenden Data-Science-Frameworks wie Apache Spark, cuPY, Dask und Numba sowie mit zahlreichen Deep-Learning-Frameworks wie PyTorch, TensorFlow und Apache MxNet trägt dazu bei, die Akzeptanz zu erweitern und die Integration mit anderen zu fördern.
Blazing Sql Logo Icon

dask-sql ist eine verteilte SQL-Engine in Python, die ETL in großem Maßstab mit RAPIDS zur GPU-Beschleunigung ausführt.

Blazing Sql Logo Icon

Auf RAPIDS basierend beschleunigt NVTabular die Funktionstechnik und die Vorverarbeitung für Empfehlungssysteme auf Grafikprozessoren.

Blazing Sql Logo Icon

Basierend auf Streamz und RAPIDS und in Python geschrieben beschleunigt cuStreamz das Streamen der Datenverarbeitung auf GPUs.

Blazing Sql Logo Icon

Integriert in RAPIDS ermöglicht Pender Strich die interaktive visuelle Analyse von Datensätzen mit mehreren Gigabyte selbst auf einer einzelnen GPU in Echtzeit.

Blazing Sql Logo Icon

Der RAPIDS Accelerator für Apache Spark bietet eine Reihe von Plug-ins für Apache Spark, die GPUs nutzen, um die Verarbeitung über RAPIDS und UCX-Software zu beschleunigen.

Anaconda Logo Icon
BlazingSql Logo Icon
Capital One Logo Icon
CuPy Logo Icon
Chainer Logo Icon
Deppwave Logo Icon
Gunrock Logo Icon
Quansight Logo Icon
Walmart Logo Icon
Booz Logo Icon
Capital One Logo Icon
databricks Logo Icon
databricks Logo Icon
graphistry Logo Icon
H2O.ai Logo Icon
Booz Logo Icon
Ibm Logo Icon
iguazio Logo Icon
Inria Logo Icon
Kintica Logo Icon
Omnisci Logo Icon
Preferred Network Logo Icon
PyTorch Logo Icon
Uber Logo Icon
Ursa Labs Logo Icon
Walmart Logo Icon
Arrow Logo Icon
blazinSql Logo Icon
CuPy Logo Icon
Dask Logo Icon
GoAi Logo Icon
nuclio Logo Icon
Numba Logo Icon
Learn Logo Icon
dmic XGBoost Logo Icon

TECHNOLOGIE ALS HERZSTÜCK

RAPIDS basiert auf CUDA-Primitiven für die Low-Level-Rechenoptimierung, macht aber die GPU-Parallelität und die hohe Speicherbandbreite über benutzerfreundliche Python-Schnittstellen zugänglich. RAPIDS unterstützt durchgängige Data-Science-Workflows, vom Laden und Vorverarbeiten von Daten bis hin zu maschinellem Lernen, Graphanalysen und Visualisierung. Es ist ein voll funktionsfähiger Python-Stack, der für Big-Data-Anwendungsfälle in Unternehmen skalierbar ist.

LADEN VON DATEN UND AUFBEREITUNG

Die Datenlade-, Vorverarbeitungs- und ETL-Funktionen von RAPIDS basieren auf Apache Arrow, um Daten zu laden, zu verbinden, zu aggregieren, zu filtern und anderweitig zu manipulieren, und das alles in einer Pandas-ähnlichen API, die Datenwissenschaftlern vertraut ist. Die Benutzer können mit typischen Geschwindigkeitssteigerungen von 10x oder mehr rechnen.

MASCHINELLES LERNEN

Die maschinellen Lernalgorithmen und mathematischen Primitive von RAPIDS folgen einer vertrauten Scikit-Learn-ähnlichen API. Beliebte Tools wie XGBoost, Random Forest und viele andere werden sowohl für Einzel-GPU- als auch für große Rechenzentrums-Implementierungen unterstützt. Bei großen Datensätzen können diese GPU-basierten Implementierungen 10-50x schneller abschließen als ihre CPU-Äquivalente.

GRAFIKANALYSEN

Die Graphenalgorithmen von RAPIDS wie PageRank und Funktionen wie NetworkX nutzen effizient die massive Parallelität von GPUs, um die Analyse großer Graphen um das über 1000-fache zu beschleunigen. Erforschen Sie bis zu 200 Millionen Kanten auf einem einzigen NVIDIA A100 Tensor Core Grafikprozessor und skalieren Sie auf Milliarden von Kanten auf NVIDIA DGX™ A100 Clustern.

VISUALISIERUNG

Die Visualisierungsfunktionen von RAPIDS unterstützen GPU-beschleunigtes Cross-Filtering. Inspiriert von der JavaScript-Version des Originals, ermöglicht es die interaktive und superschnelle mehrdimensionale Filterung von über 100 Millionen Zeilen tabellarischer Datensätze.

Rapids Software Stack Image

DEEP-LEARNING-EINBINDUNG

Während Deep Learning in Bereichen wie Computer Vision, Verarbeitung natürlicher Sprache und Empfehlungssysteme effektiv ist, gibt es Bereiche, in denen die Verwendung nicht zum Mainstream gehört. Bei Problemen mit tabellarischen Daten, die aus Spalten mit kategorialen und kontinuierlichen Variablen bestehen, werden üblicherweise Techniken wie XGBoost, Gradient Boosting oder lineare Modelle verwendet. RAPIDS rationalisiert die Vorverarbeitung von tabellarischen Daten auf GPUs und bietet eine nahtlose Übergabe der Daten direkt an alle Frameworks, die DLPack unterstützen, wie PyTorch, TensorFlow und MxNet. Diese Integrationen eröffnen neue Möglichkeiten für die Erstellung umfangreicher Workflows, auch solche, die bisher nicht in Frage kamen, wie z. B. die Rückführung von neuen Funktionen, die von Deep-Learning-Frameworks erstellt wurden, in Machine-Learning-Algorithmen.

MODERNE RECHENZENTREN FÜR DATA SCIENCE

Es gibt fünf wichtige Bestandteile für den Aufbau von KI-optimierten Rechenzentren im Unternehmen.
Der Schlüssel zum Design ist die Platzierung von GPUs im Zentrum.

Compute

Mit ihrer enormen Rechenleistung sind Systeme mit NVIDIA-GPUs der zentrale Compute-Baustein für KI-Rechenzentren. NVIDIA DGX Systeme liefern bahnbrechende KI-Leistung und können im Durchschnitt 50 Dual-Socket-CPU-Server ersetzen. Dies ist der erste Schritt, um Datenwissenschaftlern die branchenweit leistungsstärksten Tools für die Datenexploration an die Hand zu geben.

Software

Indem RAPIDS die Komplexität der Arbeit mit der GPU und die Kommunikationsprotokolle hinter den Kulissen innerhalb der Rechenzentrumsarchitektur verbirgt, schafft es eine einfache Möglichkeit, Datenwissenschaft zu betreiben. Da immer mehr Datenwissenschaftler Python und andere Hochsprachen verwenden, ist die Bereitstellung von Beschleunigung ohne Code-Änderung entscheidend für eine schnelle Verbesserung der Entwicklungszeit.

Networking

Remote Direct Memory Access (RDMA) in NVIDIA Mellanox® Netzwerkkarten-Controllern (NICs), NCCL2 (NVIDIA collective communication library) und OpenUCX (ein Open-Source-Framework für Punkt-zu-Punkt-Kommunikation) hat zu enormen Verbesserungen bei der Trainingsgeschwindigkeit geführt. Mit RDMA können Grafikprozessoren mit bis zu 100 Gigabit pro Sekunde (Gb/s) direkt über Knoten hinweg miteinander kommunizieren, so dass sie sich über mehrere Knoten erstrecken und so arbeiten können, als wären sie auf einem einzigen großen Server.

EINSATZBEREICH

Unternehmen setzen auf Kubernetes und Docker-Container für die Bereitstellung von Pipelines im großen Maßstab. Die Kombination von containerisierten Anwendungen mit Kubernetes ermöglicht es Unternehmen, die Prioritäten zu ändern, welche Aufgabe am wichtigsten ist, und verleiht den KI-Rechenzentren mehr Ausfallsicherheit, Zuverlässigkeit und Skalierbarkeit.

Storage

GPUDirect® Storage ermöglicht sowohl NVMe als auch NVMe over Fabric (NVMe-oF) das Lesen und Schreiben von Daten direkt auf die GPU unter Umgehung von CPU und Systemspeicher. Dadurch werden die CPU und der Systemspeicher für andere Aufgaben frei, während jede GPU Zugriff auf eine Größenordnung mehr Daten mit bis zu 50 Prozent höherer Bandbreite erhält.

Ohne Rechenleistung mussten die Datenwissenschaftler ihre Algorithmen „dumm stellen“, um schnell genug zu liefen.
​​​​​​​Das ist nun vorbei: GPUs erlauben es uns, zuvor Unmögliches zu tun.
Bill Groves, Chief Data Officer, Walmart
Die globalen Modelle der NASA erzeugen Terabytes an Daten. Vor RAPIDS wurde eine Schaltfläche gedrückt und sechs oder sieben Stunden auf die Ergebnisse gewartet. Die Beschleunigung des Trainingszyklus war für die Entwicklung der Modelle ein völlig neuer Ansatz.
Dr. John Keller, NASA Goddard Space Flight Center
Mit einer 100-fachen Verbesserung der Trainingszeiten und einer Kosteneinsparung von 98 Prozent sieht Capital One RAPIDS.ai und Dask als den nächsten großen Durchbruch für Datenwissenschaft und maschinelles Lernen.
Mike McCarty, Director of Software Engineering, Capital One Center for Machine Learning