iX 3/2022
S. 112
Wissen
Rechenbeschleuniger

Ohne zusätzliche Hardware: KI-Inferenz in IBMs Power10-Prozessor

Im Kern beschleunigt

Berthold Wesseler

Zu den Power10-Erweiterungen zählt der Matrix Math Accelerator für schnelle KI-Inferenz. Damit verlagert IBM KI-Berechnungen von der GPU in die CPU und rückt sie näher an die Anwendungen. Intel, AMD und ARM wollen folgen.

Dem Power10-Prozessor hatte IBM einige Erweiterungen für rechen-, speicher- und bandbreitenintensive Workloads spendiert. Auf jedem Prozessor des neuen Power-Server-Topmodells E1080 sind erstmals die Matrix Math Accelerators (MMA) für die beschleunigte Ausführung von Vektor- und Matrixberechnungen untergebracht, wie sie moderne Anwendungen wie Deep Learning oder SAP HANA benötigen.

Ebenfalls an Bord ist eine Implementierung der Memory Inception, die ein hochperformantes Hauptspeicher-Clustering erlaubt. Doch während bei der Memory Inception noch an dem Zusammenspiel von Hardware und Betriebssystem gefeilt wird, sind MMAs beim E1080 bereits in Gebrauch. Auch insgesamt hat IBM den Schwerpunkt bei den Verbesserungen des Power10 auf KI gelegt – neben mehr Performance, höherer Energieeffizienz und verbesserten Speicher- und I/O-Architekturen.

Kommentieren