/Project 47: AMD packt Petaflop-Rechner ins Rack

Project 47: AMD packt Petaflop-Rechner ins Rack

Project 47: AMD packt Petaflop-Rechner ins Rack


Susanne Nolte

(Bild: AMD)

Im Rahmen der SIGGRAPH 2017 und der hauseigenen Capsaicin-Veranstaltung hat AMD sein Project 47 präsentiert. Es handelt sich um einen ein Petaflop/s schnellen Prototyp, der vor allem durch seinen niedrigen Stromverbrauch punkten soll.

Wohl nicht ohne Hintergedanken hat AMD die SIGGRAPH 2017 genutzt, um auf dem hauseigenen Capsaicin-Event sein Project 47 vorzustellen. Denn diesmal ging es nicht um einzelne Komponenten wie die Epyc-CPUs oder die Radeon RX Vega, die AMD auf seiner vorigen Präsentation Capsaicin & Cream auf der Game Developers Conference 2017 zeigte. Vielmehr präsentierte der Konzern den Prototyp eines Supercomputers, der beim Machine Learning (ML), Deep Learning (DL) oder im High Performance Computing (HPC) zum Einsatz kommen soll. Da bildete die 44. Konferenz der SIGGRAPH (Special Interest Group on Graphics and Interactive Techniques) der ACM (Association for Computing Machinery) genau den richtigen Rahmen.

Alle Hardware in ein Rack

Was AMD als Project 47 präsentierte, ist schnell in Zahlen gegossen: Kern des Projekts ist ein Rack, das ein Petaflop/s Rechenleistung, also eine Billiarde oder 1015 Floating Point Operations per Second liefern soll. Dazu bestückt AMD das Rack mit 20 2U-Server-Knoten, die der taiwanische ODM (Original Design Manufacturer) Inventec auf Grundlage seiner Server der P-Serie beisteuert.



Project 47: AMD packt Petaflop-Rechner ins Rack

AMDs Project 47 soll ein Petaflop/s in einem Rack liefern.

Vergrößern

Bild: AMD



Jeder Server ist bestückt mit einer CPU vom Typ AMD Epyc 7601 und vier GPUs vom Typ ATI Radeon Instinct MI25 sowie 500 GByte DDR4-RAM und einer InfiniBand-EDR-Karte (Enhanced Data Rate). Außer den 100 GBit/s schnellen IB-HCAs (Host Channel Adapters) liefert Mellanox die dazugehörigen Kabel und den InfiniBand-Switch, über den die Kommunikation zwischen den Knoten stattfindet. Samsung trägt zum Projekt nicht nur die RAM-Module, sondern auch den High Bandwidth Memory 2 (HBM2) für die Radeon-Instinct-Karten und NVMe-SSDs bei.

Designziel war es, in einem Single-Sockel-Knoten möglichst viel Arbeitsspeicher, GPUs und andere PCIe-Adapter unterzubringen, ohne ihn um eine zweite CPU erweitern zu müssen. Das, wie das Epyc-Design selbst, soll vor allem beim Stromsparen helfen. Dadurch liefern aber die GPUs mit etwa 95 Prozent den Löwenanteil der Rechenleistung, was eine hohe Parallelisierung der Anwendungen voraussetzt. AMD selbst gibt für eine MI25 12,3 Teraflop/s Single Precision Floating Point (FP32) oder 24,6 Teraflop/s Half Precision Floating Point (FP16) an.

Anschluss an HPC-Geschichte

Zum bislang letzten Mal, als sich AMD ernsthaft mit Petaflop-Rechnern beschäftigte, installierten die Texaner zusammen mit IBM im Los Alamos National Laboratory das erste Petaflop-System der Welt, das mit seinen 6480 Dual-Core-Opteron-CPUs unter dem Namen Roadrunner eineinhalb Jahre lang die Top500 anführte.

Inzwischen liegt die Latte höher: Um den seit Juni 2016 an der Spitze der Top500 thronenden und 93 Petaflop/s schnellen Sunway TaihuLight zu überbieten, wären 94 Epyc-Racks notwendig, was etwa den selben Platz des chinesischen Eigenbaus einnehmen würde. Der derzeit Zweitplazierte namens Tianhe-2 oder MilkyWay-2, der mit seinen 33 Petaflop/s von November 2014 bis November 2015 die Top500 anführte, ist ebenfalls ein chinesischer Eigenbau und würde mit AMDs Konzept auf 33 Racks schrumpfen.

Noch wichtiger als der Platzbedarf dürften für Betreiber von HPC-, ML- oder DL-Systemen allerdings die Kosten sein. Die Anschaffungs- beziehungsweise Designkosten für den fertigen Supercomputer dürften durch die vorgefertigten Module im Vergleich zu Eigenentwicklungen und -bauten deutlich geringer ausfallen. Konkurrenz könnten eher vorgefertigte Systeme wie die CX-Serie von Cray, die HPC-Powerewdge-Linie von Dell EMC, die Apollo- und SGI-Systeme von HPE oder die Bluegenes von IBM sein.

Geringere Kosten und niedriger Stromverbrauch

Punkten will AMD vor allem bei den Betriebskosten, also vornehmlich den Stromkosten. Allerdings scheint das System stärker auf Anwendungen des Machine und Deep Learning als auf den traditionellen HPC-Bereich abgestellt zu sein, der stärker mit dem 64-bittigen Double Precision Floating Point (FP64) arbeitet. Genau damit arbeitet der für die Top500 und Green500 relevante Linpack-Benchmark. Der momentane Green500-Spitzenreiter TSUBAME 3.0 erreicht damit eine Energieeffizienz von 14,1 Gigaflops/Watt (FP64). AMD gibt für Project 47 satte 30 Gigaflops/W bei FP32-Operationen an, allerdings sind FP64-Operationen nicht die Stärke der Radeon Instinct MI25.

Den Vertrieb und die Lieferung von Project-47-Systemen sollen Inventec und deren Distributor AMAX ab dem vierten Quartal 2017 übernehmen. Preise nannte AMD nicht.


(fo)