Google: Supercomputer mit mehr als 4000 TPUs

Googles TPU v4 bietet deutliche Steigerung bei der Skalierung der Machine-Learning-Leistung bei gleichzeitigem Anstieg der Effizienz.

In Pocket speichern vorlesen Druckansicht 40 Kommentare lesen

(Bild: Google)

Lesezeit: 1 Min.
Von
  • Sven Scharpe

Google teilt neue Details zu seinem selbst entwickelten Chip Tensor Processing Unit v4 (TPU) mit, welcher in den Supercomputern des Alphabet-Konzerns zum Einsatz kommt. Der Internetriese verspricht eine um den Faktor 10 verbesserte Skalierung bei der ML-Systemleistung sowie eine gleichzeitige Steigerung der Energieeffizienz im Vergleich zur Vorgängergeneration v3. Stellt man Googles TPU v4 anderen aktuellen ML-Domain-Specific-Accelerators (DSA) gegenüber, soll die Effizienz zwei- bis dreimal besser ausfallen und erheblich weniger CO2 emittiert werden.

Google setzt seine Custom-Chips primär für das Training künstlicher Intelligenz ein, laut eigenen Angaben werden bereits mehr als 90 Prozent aller Arbeiten in diesem Bereich von TPUs berechnet. In einer wissenschaftlichen Abhandlung beschreibt das Unternehmen, wie mehr als 4000 dieser Prozessoren zu einem Supercomputer verschaltet werden können. Für die Verbindung der einzelnen Chips greift Google auf selbst entwickelte proprietäre optische Schalter zurück. Alle Informationen hierzu finden sich in der Ankündigung des Konzerns.

(sve)