Systeme und Informatikanwendungen Nikisch GmbHsysGen GmbH - Am Hallacker 48a - 28327 Bremen - info@sysgen.de

Willkommen auf der neuen Website von sysGen. Bitte nutzen Sie unser Kontaktformular falls Sie Fragen zu unseren Inhalten haben.

KEYNOTE NOVEMBER 9 CONFERENCE & TRAINING NOVEMBER 8-11,2021ZUR ANMELDUNG
Aufgrund der sich ausweitenden Chipkrise und den daraus resultierenden, deutlichen Preiserhöhungen großer IT-Hersteller sind aktuelle Online-Preiskalkulationen derzeit nicht möglich. Wir weisen daher darauf hin, dass Preisanfragen über unsere Website vom endgültigen Angebot abweichen können!

SIEBEN UNABHÄNGIGE INSTANZEN AUF EINER EINZIGEN GPU

Multi-Instance GPU (MIG) erweitert die Leistung und den Wert jedes NVIDIA A100 Tensor Core Grafikprozessors. MIG kann den A100-Grafikprozessor in bis zu sieben Instanzen partitionieren, die jeweils vollständig isoliert sind und über einen eigenen Speicher mit hoher Bandbreite, Cache und Rechenkerne verfügen. Jetzt können Administratoren jede Arbeitslast unterstützen, von der kleinsten bis zur größten, und für jeden Job eine GPU in der richtigen Größe mit garantierter Servicequalität (QoS) anbieten. Außerdem können dadurch Auslastungen optimiert und die Reichweite der beschleunigten Rechenressourcen auf jeden Benutzer ausgeweitet werden.

LEISTUNGSÜBERSICHT

AUSWEITUNG DES ZUGRIFFS Auf GPUS
​​​​​​​für MEHRere NUTZER

Mit MIG können Sie bis zu 7x mehr GPU-Ressourcen auf einer einzigen A100-GPU erreichen. MIG bietet Forschern und Entwicklern mehr Ressourcen und Flexibilität als je zuvor.

GPU-AUSLASTUNG OPTIMIEREN

MIG bietet die Flexibilität, viele verschiedene Instanzgrößen auszuwählen, was die Bereitstellung von GPU-Instanzen in der richtigen Größe für jeden Workload ermöglicht, was letztendlich zu einer optimalen Auslastung und Maximierung der Investitionen im Rechenzentrum führt.

GLEICHZEITIGE AUSFÜHRUNG
​​​​​​​GEMISCHTER workloads

MIG ermöglicht die gleichzeitige Ausführung von Inferenz-, Trainings- und High-Performance-Computing (HPC)-Workloads auf einer einzigen GPU mit deterministischen Latenzzeiten und Durchsatz.

WIE DIE TECHNOLOGIE FUNKTIONIERT

Ohne MIG konkurrieren verschiedene Aufgaben, die auf demselben Grafikprozessor ausgeführt werden, z. B. verschiedene KI-Inferenzanfragen, um dieselben Ressourcen wie die Speicherbandbreite. Eine Aufgabe, die eine größere Speicherbandbreite beansprucht, lässt andere verhungern, was dazu führt, dass mehrere Aufgaben ihre Latenzziele verfehlen. Mit MIG werden Aufgaben gleichzeitig auf verschiedenen Instanzen ausgeführt, die jeweils über dedizierte Ressourcen für Rechenleistung, Speicher und Speicherbandbreite verfügen, was zu einer vorhersehbaren Leistung mit hoher Servicequalität und maximaler GPU-Auslastung führt.

ULTIMATIVE FLEXIBILITÄT IM RECHENZENTRUM ERREICHEN

Ein NVIDIA A100-Grafikprozessor kann in MIG-Instanzen unterschiedlicher Größe partitioniert werden. So könnte ein Administrator beispielsweise zwei Instanzen mit je 20 Gigabyte (GB) Speicher oder drei Instanzen mit 10 GB oder sieben Instanzen mit 5 GB erstellen. Oder eine Mischung aus beidem. So kann der Systemadministrator den Benutzern für verschiedene Arten von Arbeitslasten GPUs in der richtigen Größe zur Verfügung stellen.

MIG-Instanzen können auch dynamisch rekonfiguriert werden, so dass Administratoren die GPU-Ressourcen entsprechend den sich ändernden Benutzer- und Geschäftsanforderungen verschieben können. So können beispielsweise sieben MIG-Instanzen tagsüber für Inferenzen mit geringem Durchsatz verwendet und nachts zu einer großen MIG-Instanz für Deep-Learning-Training umkonfiguriert werden.

AUSSERGEWÖHNLICHE QUALITÄT DER DIENSTLEISTUNGEN

Jede MIG-Instanz verfügt über einen dedizierten Satz von Hardwareressourcen für Datenverarbeitung, Speicher und Cache, die eine garantierte Servicequalität (QoS) und Fehlerisolierung für die Arbeitslast bieten. Das bedeutet, dass ein Fehler in einer Anwendung, die auf einer Instanz läuft, keine Auswirkungen auf Anwendungen hat, die auf anderen Instanzen laufen. Außerdem können auf verschiedenen Instanzen unterschiedliche Arten von Workloads ausgeführt werden: interaktive Modellentwicklung, Deep Learning-Training, KI-Inferenz oder HPC-Anwendungen. Da die Instanzen parallel ausgeführt werden, laufen auch die Arbeitslasten parallel, jedoch getrennt und isoliert auf derselben physischen A100-GPU.

MIG eignet sich hervorragend für Workloads wie die Entwicklung von KI-Modellen und Inferenzen mit niedriger Latenz. Diese Workloads können die Funktionen der A100 in vollem Umfang nutzen und passen in den jeder Instanz zugewiesenen Speicher.

MIG IN AKTION SEHEN

GEBAUT FÜR IT UND DEVOPS

MIG ermöglicht eine feinkörnige GPU-Bereitstellung durch IT- und DevOps-Teams. Jede MIG-Instanz verhält sich für Anwendungen wie ein eigenständiger Grafikprozessor, so dass keine Änderungen an der CUDA® Plattform vorgenommen werden müssen. MIG kann in allen wichtigen Enterprise-Computing-Umgebungen eingesetzt werden.