Nach nichtmal einem Jahr: Neue Intel-Server-CPUs Xeon SP in fünfter Generation

Intel erneuert einen Teil seiner Server-Prozessoren und bringt 32 neue Xeon-CPUs mit Emerald-Rapids-Architektur, mehr Cache und Kernen, aber weniger Tiles.

In Pocket speichern vorlesen Druckansicht 3 Kommentare lesen

(Bild: c't / csp)

Lesezeit: 4 Min.

Erst am 10. Januar 2023 hatte Intel nach langer Verzögerung die vierte Xeon-Scalable-Generation auf den Markt gebracht. Nach nur gut 11 Monaten erneuert die Firma das Portfolio bereits und bringt 32 neue Xeon-Prozessoren zwischen 624 und 11.600 US-Dollar [Update: Die Spanne beträgt 415 für den 3508U bis 12.400 US-Dollar für den 8593Q] auf den Markt. Die Prozessoren passen in dieselben Server-Boards, sodass sich bestehende Systeme leicht upgraden lassen. OEM-Hersteller müssen zudem keine neuen Mainboards entwickeln, sondern nur für die neuen CPUs validieren.

Intel spricht von bis zu 21 Prozent mehr Leistung in allgemeinen Workloads, vergleicht dabei aber die aktuellen 64-Kerner mit 56-Kernern der Vorgängergeneration. Die auch beim Vergleich der jeweiligen Topmodelle - also 60-Kerner vs. 64-Kerner vorhandene, höhere Performance kommt hauptsächlich durch den 25 Prozent schnelleren Ultra Path Interconnect (UPI) der Prozessoren, 7 Prozent mehr Kerne, 17 Prozent schnelleren DDR5-Speicher und dreimal so viel Level-3-Cache zustande. Ein weiteres neues Feature ist die Unterstützung von Speichererweiterung durch Memory Buffer via Compute Express Link (CXL 1.1). Dadurch lassen sich zwei zusätzliche Speicherkanäle errichten. Die können entweder separat angesteuert und so etwa In-Memory-Datenbanken deutlich beschleunigen oder gemeinsam mit dem DDR5-Speicher im Interleave-Verfahren als einheitlicher Speicherbereich genutzt werden.

Emerald Rapids: Wafer mit XCC-Chips.

(Bild: c't)

Intel erneuert allerdings nur CPUs für 1- und 2-Sockel-Systeme. Spezialversionen, zum Beispiel für 4- oder 8-Sockel-Server oder solche mit integriertem HBM-Stapelspeicher, sind nicht unter den neuen. Laut Intel haben solche Server durch die längere Validierung auch längere Nutzungszeiten.

Die spezifizierte Verlustleistung bleibt bei bis zu 350 Watt, allerdings haben die neuen Xeon-Modelle einen neuen Energiesparmodus, der bei geringer bis mittlerer Auslastung bis zu 110 Watt sparen soll. Daneben macht Intel noch Rechnungen auf, bei denen Betreiber über die Total Cost of Ownership (TCO) gegenüber älteren Xeon-Prozessoren von der dritten bis hinunter zur ersten Generation Hunderttausende US-Dollar und Tonnen an CO₂-Emissionen sparen können.

Im kommenden Jahr sollen dann Sierra Forrest für Cloud-Computing mit bis zu 288 Effizienzkernen pro Fassung sowie Granite Rapids mit bislang unbestimmter Anzahl an Performance-Kernen folgen.

Die neuen Xeons hören auf den Codenamen Emerald Rapids und haben mit ihren Vorgängern einiges gemeinsam. So setzt Intel wieder auf einen Chiplet-Ansatz, um auf die höchstmögliche Kernzahl von nunmehr 64 zu kommen. Die setzen sich allerdings aus zwei minimal unterschiedlichen anstatt zuvor vier Chips zusammen. Dieses sogenannte Xtreme Core Count-Die (XCC) hat noch einen Reservekern sowie vier DDR5-Speicherkontroller, physisch vorhanden sind im Prozessor also 66 CPU-Kerne und acht Speicherkanäle. Daneben gibt es noch ein monolithisches Medium-Core-Count-Die, welches tatsächlich aber etwas größer als ein einzelnes XCC ist. Dieses stellt 32 (von 34 physisch vorhandenen) Kerne bereit, aber nur 60 statt 160 MByte Last-Level-Cache. Außerdem gibt es noch das EE-LCC, ein energieeffizientes Low-Core-Count-Die mit nur 20 Kernen.

Emerald Rapids - bestehend aus zwei XCC-Chips.

(Bild: c't)

Wie schon in Sapphire Rapids haben auch die Emerald-Rapid-Chips Funktionsblöcke zur Beschleunigung spezieller Funktionen. Manche, wie die Advanced Matrix Extensions (AMX), deren Matrix-Multiplizierer sich speziell zur KI-Beschleunigung eignen, sind direkt in der Befehlssatzarchitektur (ISA) enthalten, stehen also in jedem Core zur Verfügung. Dazu kommen Hardwareblöcke für Spezialfunktionen: Quick Assist Technology (QAT), Dynamic Stream Acceleration (DSA), Dynamic Load Balancer (DLB) und der In-Memory Analytics Accelerator (IAA). Ein XCC hat zwei von jedem dieser Blöcke, die MCCs haben je zwei QAT und DLB sowie je einen DSA und IAA.

Die Anzahl der aktivierten Funktionsblöcke ist abhängig von den jeweiligen Xeon-Modellen. Die Maximalbestückung mit je vier aktiven Blöcken gibt es beim 36-kernigen Xeon Gold 6554S, dem einzigen Modell, das Intel speziell für Storage und Hyperconverged Infrastructure (HCI) anbietet.

Die komplette Modellpalette der Xeon-Reihe mit Emerald-Rapids-Architektur.

(Bild: Intel)

Weitere Details zu den Xeon SP der fünften Generation finden Sie in einer der kommenden Ausgaben der c't.

Hinweis: Intel hat zur Xeon-Vorstellung Reise- und Hotelkosten für den Autor übernommen.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmmung wird hier ein externer Preisvergleich (heise Preisvergleich) geladen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen (heise Preisvergleich) übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Update 15.12.2023: Bezug der Prozentangabe im Vergleich zwischen vierter und fünfter Xeon-Generation präzisiert. (csp)