iX 7/2021
S. 64
Review
Peripheres Rechnen

Im Speicher rechnen mit Computational Storage

Zusammengeführt

Daniel Menzel

Offloading hat CPUs bereits beim TCP/IP-Verkehr entlastet, indem die Netzadapter einen Großteil der Arbeit übernahmen. Jetzt sollen Prozessoren auf SSDs Ähnliches erledigen: Daten komprimieren, den Zugriff optimieren und womöglich Datenbanken bedienen.

Spricht man über die Performanceschübe der IT, dürften die wenigsten zuerst an Storage denken. Dabei hat sich hier viel getan: Mit SSDs wechselt die Technik von Magnetscheiben gerade zu Halbleiterspeichern, und mit NVMe (Non-Volatile Memory Express) steht ein Übertragungsprotokoll zur Verfügung, das mindestens so schnell ist wie der Speicher. Nun unternehmen Hersteller den nächsten Evolutionsschritt: NVMe-SSDs erhalten Coprozessoren – mit einer Funktionsspanne von Verschlüsselung und Kompression bis zur Ausführung eines ganzen Betriebssystems.

Doch wozu das Ganze? Es ließe sich trefflich argumentieren, eine einzelne NVMe-SSD im U.2-Format könne heute schon 2,5 GByte/s und mehr lesen und schreiben. Im RAID-Verbund kommt man, genug Kleingeld vorausgesetzt, im Ruler-Format pro Höheneinheit auf etwa 50 GByte/s (siehe ix.de/zc54). Ein passend dimensioniertes Netz müsste also 400 GBit/s transportieren können – ein Durchsatz, den 2021 kaum ein Rechenzentrum bietet. Zudem sind übliche CPUs ohnehin fähig, Datenstreams mit GZIP zu komprimieren und mit AES zu ver- und entschlüsseln.

Kommentieren