von: Ludger Schmitz (freier Journalist) | am: 20.06.2011 | Kommentare: 1

Schon mal einen Supercomputer gesehen? Nicht auf einem Foto, sondern richtig. Nur mal unbedacht die hübsche runde, rote Sitzbank im Münchner Deutschen Museum der Technik zum Ausruhen genutzt? Das war eine Cray I. Der Anfang des Supercomputings. Deren Rechenpower dürften die PCs in meiner Wohnung insgesamt auch schaffen. High Performance Computing sieht heute anders aus: eine Fabrikhalle voller Schränke. Erst wenn man sie öffnet, sieht man die Server darin. Aber vorher sollte man den Gehörschutz über die Ohren ziehen; denn es wird infernalisch laut. Und etwas mulmig wird einem angesichts der vielen Schilder mit Warnungen: Im Brandfall warnt eine Sirene, dass man in 30 Sekunden die Halle verlassen haben muss, bevor der schlagartig sämtlicher Sauerstoff entzogen wird.

Ich habe vor wenigen Jahren gleich drei Supercomputer in einer einzigen Halle des Forschungszentrums Jülich gesehen. Zwei der Schrankwände waren in der Liste der zehn schnellsten Rechner der Welt. Heute sind sie noch in der zu finden, aber eher unter „ferner liefen“. Denn die neue „Top 500“ des High Performance Computings ist erschienen. Auch wenn die Jülicher Rechner nicht mehr in den Top Ten stehen, Deutschland hat eine beachtliche Menge Supercomputer in dieser Liste und steht in der Länderbilanz sogar auf Platz Zwei hinter den deutlich dominierenden USA.

Da frage ich mich schon, warum ich immer noch keinen endgültigen Einkommenssteuerbescheid für das Jahr 2009 habe. Oder warum Politiker in allen möglichen Ecken und Nischen ihrer Etatplanungen ganz überraschende Lücken entdecken. Vielleicht sollte man die Superrechner doch nicht so schnell in die Museen stellen? Nein, ich warte lieber weiter auf das Finanzamt.

Denn die alten „Number-Cruncher“ haben auch noch was anderes in Massen gefressen: Strom. Die heutige Nummer Eins der Rechenmonster verbraucht zehn Megawatt. Da hätte man früher gleich ein Atomkraftwerk daneben gebaut. Der Stromverbrauch der Top-500-Systeme ist zwar rasant gestiegen, ihre Effizienz aber auch: Pro Watt bringen sie jetzt eine Leistung von 464 Mflops (Millionen Gleitkomma-Berechnungen) – vor nur sechs Monaten waren es 268 Mflops. Wenn es nicht so wäre, wäre Supercomputing bald unbezahlbar.

Das wäre es ohnehin wahrscheinlich schon, gäbe es nicht einen weiteren Sparansatz: Linux. Für eine Cray oder eine SGI musste man einst alljährlich einige Millionen Lizenzgelder locker machen. Heute zahlen die Supercomputeranwender den Support quasi aus der Portokasse. Das war ein Grund für den Sturm von Linux durch die High-Perfomance-Klasse. Der andere: Die Anwender können das Betriebssystem selbst tunen – und im Supercomputing findet man eigentlich nur Tuner. Muss noch einmal erwähnt werden, dass Linux überaus stabil läuft?

All das zusammen hat die Supercomputer-Landschaft eingehend umgestaltet. Nicht mehr die Crays bestimmen das Bild, sondern Cluster aus kostengünstigeren IA64-Servern. Und auf denen läuft Linux – inzwischen auf 91 Prozent aller Top-500-Superrechner.

Kommentare

Naja, es gibt da noch Plan 9: http://doc.cat-v.org/plan_9/blue_gene/

Auf http://go.cs.bell-labs.com/fastos/doc/lanl.bglport.pdf findet man auch das Pro und Kontra (Linux ist zu fett, zu viele Layer (I/O, Filesystem usw.), macht zu viel – „pointless 1-second timer for a blinking cursor“ – und Plan 9 ist besser in High Performance).

Kommentar schreiben

Über Dich

Dein Kommentar

*