myGully.com Boerse.SH - BOERSE.AM - BOERSE.IO - BOERSE.IM Boerse.BZ .TO Nachfolger
Zurück   myGully.com > Talk > News
Seite neu laden

[Technik] Supercomputer Aurora: Das Sorgenkind macht weiterhin Probleme

Willkommen

myGully

Links

Forum

 
Antwort
Themen-Optionen Ansicht
Ungelesen 14.05.24, 11:00   #1
ziesell
das Muster ist das Muster
 
Registriert seit: Apr 2011
Ort: Oimjakon
Beiträge: 2.643
Bedankt: 2.786
ziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkteziesell leckt gerne myGully Deckel in der Kanalisation! | 205905013 Respekt Punkte
Standard Supercomputer Aurora: Das Sorgenkind macht weiterhin Probleme

Zitat:
Supercomputer Aurora: Das Sorgenkind macht weiterhin Probleme

Auf dem Papier ist Aurora der leistungsfähigste Supercomputer der Welt, real ist er eine Enttäuschung. Die Erklärungen des Betreibers sind dürftig.



Mehr als zehn Monate ist es her, dass der Supercomputer Aurora fertig installiert wurde – aber noch immer kann nur ein Teil des Systems den Benchmark High Performance Linpack (HPL) absolvieren. Lediglich 87 Prozent des Systems rechneten, und dieses Teilsystem erreichte gerade einmal 51 Prozent seiner theoretischen Maximalleistung. Was bei der Novemberausgabe der Top-500-Liste, deren Grundlage der HPL ist, noch verständlich war, offenbart im Mai 2024 größere Probleme. Bei einer Vorabpräsentation haben wir danach gefragt.

Statt einer Antwort erklärte uns der Projektverantwortliche des Argonne National Laboratory (ANL), der Aurora-Betreiber, erst einmal, wir hätten die Maximalleistung, angegeben als RPeak, nicht verstanden. Außerdem seien knapp über 50 Prozent davon im HPL durchaus normal. Dabei hat Aurora noch ein weiteres Problem: Auch energetisch ist der Computer unglaublich ineffizient, er benötigt mit rund 38,7 Megawatt für eine geringere Rechenleistung fast doppelt so viel Energie wie der weiterhin führende Frontier.

Der ANL-Verantwortliche begründet das mit einer anderen Optimierung: Frontier sei auf Berechnungen mit doppelter Genauigkeit (64-Bit-Gleitkommazahlen, FP64) ausgelegt, von denen aber "nur wenige wissenschaftliche Anwendungen profitieren". Daher habe Aurora einen anderen Schwerpunkt, nämlich höhere Leistung bei geringerer Genauigkeit. Und Frontier sei nur in diesem speziellen Benchmark effizienter, da der HPL von den Beschleunigern für Matrixmultiplikationen der verbauten MI250X von AMD profitiere.

Nebelkerzen statt Aufklärung

Bei genauerer Betrachtung sind diese Aussagen, freundlich formuliert, gewagt. Selbst für einen neu installierten Computer sind 51 Prozent der Maximalleistung im HPL kein gutes Ergebnis. Denn eigentlich ist der HPL, im Vergleich mit echten wissenschaftlichen Anwendungen, sehr leicht zu parallelisieren: Es ist lediglich eine große Matrixmultiplikation. Beim Benchmark High Performance Conjugate Gradient (HPCG), einer Alternative zum HPL, die reale Anwendungen besser abbilden soll, ist Aurora mit 5,6 Petaflops noch deutlich stärker abgeschlagen – Frontier kommt auf 14 Petaflops.

Aber bleiben wir beim HPL: Andere Systeme schneiden dabei deutlich besser ab. Der später geplante, aber eher fertiggestellte Frontier kam bei der ersten Einreichung auf 65 Prozent seiner Maximalleistung. Der japanische Fugaku schaffte aus dem Stand gar über 80 Prozent. Nur die im November 2023 erstmals gelistete Beschleunigerpartition des spanischen Marenostrum stieg ebenfalls mit 51 Prozent ein – kommt mittlerweile aber auf 70 Prozent.

Beim Design verschätzt?

Dass Aurora bei der Rechenleistung einen anderen Schwerpunkt hat, ist korrekt: Die Rechenleistung mit 16-Bit-Datentypen ist bei den verbauten Datacenter GPU Max von Intel über 16-mal höher als mit FP64. Entsprechend kann sich Aurora zumindest im HPL-Mxp knapp auf Platz 1 retten, schöpft aber auch hier sein Potenzial nur mittelmäßig aus. Diese sogenannte Mixed-Precision-Variante des HPL rechnet nicht durchgängig mit den genauen 64-Bit-Zahlen, sondern zunächst mit geringerer Genauigkeit. Anschließend werden die Ergebnisse an die exakten Werte angenähert.

Solche Verfahren gewinnen zwar an Bedeutung; zu behaupten, viele wissenschaftliche Anwendungen würden die klassischen 64-Bit-Gleitkommazahlen nicht nutzen, verkennt aber schlicht die Realität. Die sieht oft so aus, dass Anwendungen, teils seit Jahrzehnten, von einer kleinen Community entwickelt und gepflegt werden. Entsprechend langsam werden Neuerungen umgesetzt, nicht einmal die Nutzung von GPU-Beschleunigern ist daher selbstverständlich – und für einige Anwendungen auch gar nicht sinnvoll.

In Anwendungen, die auf Aurora laufen, dürfte aber mehr Arbeitszeit fließen – bei diesem eingeschränkteren Fokus ist dann zumindest denkbar, dass Mixed Precision für Geschwindigkeitszuwächse sorgt. Das müssen aber konkrete Beispiele zeigen.

Schlicht falsch ist die Behauptung zu den Matrixeinheiten der bei Frontier genutzten MI250X: Die können beim eingereichten HPL-Ergebnis nicht gerechnet haben. Andernfalls müsste RPeak hier bei über 3 Exaflops liegen. Auch das Ergebnis des HPL-Mxp widerspricht dieser Aussage, hier rechnet Frontier 8,3-mal schneller als im normalen HPL, die Matrixeinheiten rechnen mit 16- und 8-Bit-Datentypen aber nur viermal schneller als mit FP64.

Der deutlich höhere Speedup zeigt, dass der HPL von den normalen Vektoreinheiten berechnet wurde – eine sinnvolle Entscheidung, da von den Matrixeinheiten tatsächlich nicht jede Anwendung profitiert. Sie für den Benchmark zu verwenden, würde ein falsches Bild von Frontiers Leistung vermitteln.

Es ist ein sehr komplexes System

Das einzige ernsthafte Statement zu Aurora war leider, dass es sich um ein sehr komplexes System mit vielen Freiheitsgraden handelt. Und gerade deshalb wären ehrliche Antworten wünschenswert, was genau denn die Inbetriebnahme eines derart komplexen Systems so herausfordernd macht. Schließlich werden künftige Systeme nicht einfacher – Aurora könnte ein Vorbote sein, dass das Konzept des Supercomputers an seine Grenzen stößt.

Da wäre es schon interessant zu wissen, ob Hewlett Packard Enterprises Probleme mit der bislang größten Installation seines Slingshot-Netzwerks hat, ob Intel noch an der Software feilen muss, ob es Flaschenhälse im Hardware-Design gibt, ob die Energieversorgung oder die Kühlung zum Problem wird oder, oder, oder ... Zumindest soll Aurora aber schon produktiv genutzt werden – fragt sich nur, wie effizient. Der schlechte Wert im HPCG stimmt da wenig optimistisch.

[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
[ Link nur für registrierte Mitglieder sichtbar. Bitte einloggen oder neu registrieren ]
ziesell ist offline   Mit Zitat antworten
Antwort


Forumregeln
Du kannst keine neue Themen eröffnen
Du kannst keine Antworten verfassen
Du kannst keine Anhänge posten
Du kannst nicht deine Beiträge editieren

BB code is An
Smileys sind An.
[IMG] Code ist An.
HTML-Code ist Aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 19:11 Uhr.


Sitemap

().