AMD Instinct™-Beschleuniger der Serie MI300 - Führende generative KI-Beschleuniger und Rechenzentrums-APUs
AMD Instinct™-Beschleuniger der Serie MI300 - Führende generative KI-Beschleuniger und Rechenzentrums-APUs
AMD Instinct™-Beschleuniger der Serie MI300
Das exponentielle Datenwachstum und der zunehmende Bedarf an Echtzeit-Ergebnissen sind die Haupttreiber hinter den Fortschritten in der Branche, die ständig neue Grenzen der Innovation erreicht, um die vielfältigen und komplexen Anforderungen von KI- und HPC-Anwendungen zu erfüllen. Sowohl KI als auch HPC erfordern eine Architektur mit hoher Rechenleistung, großem Speicher und hoher Bandbreite, aber ihre Nutzung unterscheidet sich leicht.
Für KI-Anwendungen ist eine hohe Rechengeschwindigkeit bei weniger Genauigkeit und großem Speicher entscheidend, um Modelle zu trainieren, Vorhersagen zu treffen und generative KI zu skalieren. Im Gegensatz dazu benötigen HPC-Anwendungen präzise Berechnungen und Ressourcen für die Verarbeitung großer Datenmengen und komplexe Simulationen, die für wissenschaftliche Entdeckungen unerlässlich sind.
Die brandneue AMD Instinct™ MI300-Serie mit AMD CDNA™ 3-Architektur bietet maßgeschneiderte Lösungen für die spezifischen Anforderungen von KI und HPC. Mit der aktualisierten AMD ROCm™ 6-Softwareplattform können Partner schnell skalierbare Lösungen für eine Vielzahl moderner Workloads entwickeln und damit einige der drängendsten Herausforderungen der Welt auf äußerst effiziente Weise bewältigen.
Plattform der AMD Instinct™ MI300-Serie
Eine Rechenzentrums-APU (MI300A) und eine separate GPU (MI300X)
AMD Instinct™ MI300A APU:
speziell entwickelte HPC-APU
Der AMD Instinct MI300A APU-Beschleuniger ist für die Verarbeitung großer Datensätze optimiert und eignet sich ideal für rechenintensive Modellierung und Analysen. Er verwendet ein innovatives 3D-Chiplet-Design, das 3D-gestapelte "Zen 4" x86-CPUs und AMD CDNA 3 GPU-XCDs mit High-Bandwidth-Speicher (HBM) kombiniert. Mit 24 CPU-Kernen und 14.592 GPU-Stream-Prozessoren bietet diese fortschrittliche Architektur bahnbrechende Leistung, Dichte und Energieeffizienz für beschleunigte HPC- und KI-Anwendungen. Der MI300A wird in großen und skalierbaren Rechenzentren und Supercomputern weltweit eingesetzt, darunter auch der Zwei-Exaflop-Supercomputer El Capitan, der zu den schnellsten der Welt gehören wird. Dies ermöglicht Fortschritte in verschiedenen Bereichen wie Gesundheitswesen, Energie, Klimawissenschaft, Transport und wissenschaftlicher Forschung.
AMD Instinct™ MI300X Beschleuniger:
entwickelt für modernste KI
Der AMD Instinct MI300X Beschleuniger wurde speziell für große Sprachmodelle und andere fortschrittliche KI-Anwendungen entwickelt, die Training und Inferenz auf umfangreiche Datensätze erfordern. Im Vergleich zum MI300A ersetzt der MI300X drei "Zen 4"-CPU-Chiplets durch zwei zusätzliche AMD CDNA 3 XCD-Chiplets und fügt 64 GB HBM3-Speicher hinzu, was den Arbeitsspeicher auf bis zu 192 GB erhöht. Diese Optimierungen ermöglichen eine verbesserte Ausführung größerer KI-Modelle direkt im Speicher, was es Cloud-Anbietern und Unternehmen ermöglicht, mehr Inferenzjobs pro GPU auszuführen, die Anzahl der benötigten GPUs zu reduzieren, die Inferenzleistung zu steigern und die Gesamtbetriebskosten zu senken.