banner
Nachrichtenzentrum
Beeindruckende Erfahrung im Grafikdesign.

AMD spricht auf der ISSCC 2023 über Stacking Compute und DRAM

Dec 19, 2023

Auf der ISSC 2023 diskutierte Dr. Lisa Su, CEO von AMD, über das Stapeln von Komponenten und warum eine fortschrittliche Verpackung erforderlich ist, um in Zukunft Zettascale-Computing zu erreichen. Ein Teil der Diskussion drehte sich um das Gedächtnis. Da wir gerade ein paar Artikel zum Thema Gedächtnis veröffentlicht haben, wollten wir kurz auf STH eingehen.

Einer der größten Hürden beim Aufbau größerer Systeme ist die Speicherzugriffsleistung. Dies geschah in zwei Formen, vor allem durch schnellere Schnittstellen sowie durch die einfache Hinzufügung weiterer Speicherkanäle zu den Servern. Hier ist AMDs Diagramm von etwa 2007 bis 2023.

Wir haben vor Kurzem die Steigerung der Speicherbandbreite pro Kern und pro Sockel für Intel großer Leistungssprung.

Eine der größten Herausforderungen liegt auf der I/O-Seite, wo die Energieeffizienz zwar besser wird, der Kanalverlust jedoch zu einer größeren Herausforderung wird.

Die Nettoauswirkung davon ist, dass die Umstellung von DRAM auf DRAM aus energetischer Sicht immer kostspieliger wird. Wir haben bereits Fälle gesehen, in denen HBM in Pakete für CPUs und GPUs integriert wurde, aber es gibt auch andere Technologien. Dazu gehören die Verwendung gemeinsam verpackter Optiken und das 3D-Chip-Stacking.

Auf der ISSCC 2023 zeigte AMD das Konzept, den Speicher durch die Verwendung eines Silizium-Interposers (ähnlich wie GPUs heute HBM integrieren) näher an die Rechenleistung zu bringen, um die Zukunft des Stapelns von Speicher auf der Rechenleistung zu ermöglichen. Das Verschieben von Daten durch einen 3D-Stack verbraucht viel weniger Strom als der Versuch, Signale an DDR5-DIMM-Steckplätze zu leiten.

Im Talk wurde der kommende AMD Instinct MI300 besprochen. Einer der interessanten Aspekte dieser Präsentation war die 3D-Anordnung der Infinity Cache- und Infinity Fabric-Chips unterhalb der CPU- und GPU-Kerne im MI300.

Als Referenz: Beim 3D-SRAM-Stacking, das wir in der aktuellen Milan-X- und bald auch in der Ryzen 7000X3D-Serie sehen, wird das SRAM über dem CPU-Chip platziert. Der MI300 würde dies ändern und den Cache unterhalb des CPU-Chips platzieren. Die Kühlung stellt eine große Herausforderung dar, daher ist es sinnvoll, die heißen Rechenkacheln näher an einen Flüssigkeitskühlblock zu bringen.

Ein weiteres kurzes Thema, das während des Vortrags besprochen wurde, war die Verarbeitung im Gedächtnis. Wir haben auf der Hot Chips 33 über das Samsung HBM2-PIM und den Aquabolt-XL berichtet und AMD sagte, dass man gemeinsam mit Samsung an der Erforschung von Computing im Speicher arbeitet. Die Idee hier ist noch dramatischer, da Daten nicht aus dem Speicher verschoben werden müssen, um sie zu berechnen.

Das scheint noch etwas weiter entfernt zu sein als einige der Verpackungsverbesserungen für den Speicher.

Das Verschieben von Daten innerhalb eines Systems und innerhalb eines Racks wird für die Branche immer wichtiger. Dieser Energie- und Leistungsaufwand für die Datenbewegung beeinträchtigt die Gesamteffizienz eines Systems. Daher arbeitet die gesamte Branche daran, über das typische CPU-Modell mit angeschlossenem DRAM hinauszugehen und auf neue Architekturen umzusteigen. Da der Vortrag Anfang dieser Woche stattfand, wollten wir ihn an diesem Wochenende einfach mit den STH-Lesern teilen, um darüber nachzudenken.