ICT-News Dach

ISC’17 und die Really Big Data

Holm Landrock

Holm LandrockBottom Line (für ICT-Anwenderunternehmen):

Supercomputing ist auch künftig eine Domäne der Anwender aus dem technisch-wissenschaftlichen bzw. akademischen sowie dem militärischen Umfeld. Auf der ISC’17 trafen sich Forscher, Wissenschaftler und industrielle Anwender zu einem fundierten Meinungsaustausch. Ein Highlight war die Veröffentlichung der 49. Top-500-Liste der Supercomputer, begleitet von der Green-500-Liste.

Bottom Line (für ICT-Anbieterunternehmen):

Nur wenige können in der Königsklasse der elektronischen Datenverarbeitung mitspielen. Deswegen ist der Wettbewerb um eine Positionierung in der Top-500-Liste spannend, vor allem, weil sichtbar wird, welche Nationen und Unternehmen sich in der Forschung besonders stark engagieren. Daraus lässt sich ableiten, wer im Wettbewerb bei den Spitzentechnologien für Prozessoren, Co-Prozessoren, Interconnects, Compiler und Storage die Nase vorn hat.

 

Die gerade zu Ende gegangene Internationale Supercomputing Conference 2017 – ISC‘17 – hat mit 3.200 Teilnehmern aus 60 Ländern die Vorjahresrekorde erneut gebrochen. Ganz generell zeigt dies, wie wichtig heute Rechenleistung für die unterschiedlichsten fortgeschrittenen Anwendungen wie KI, Big Data Analytics und technisch-wissenschaftliche Simulationen ist. In seinem Grußwort betonte der Vertreter des Bundesministerium für Bildung und Forschung Prof Dr. Wolf-Dieter Lukas auch, dass der deutsche Bundestag durchaus im Gegensatz zu Parlamenten in anderen Ländern eine Erhöhung der Budgets für Hochleistungs-IT anstrebt. Lukas ist optimistisch, dass wir in Deutschland mindestens einen Supercomputer mit einer Leistung von mehr als einem ExaFLOPS nach Linpack haben werden und er hofft, dass wir sogar mehr als einen dieser Exascale-Rechner haben werden.

Dem entgegen steht allerdings der deutsche Föderalismus. Da wird weiter fein das eigene Süppchen gekocht. Initiativen wie das HLRN (Hochleistungsrechenzentrum Nord) leiden trotz der Zusammenlegung von Länderbudgets an der in absoluten Zahlen dann trotzdem recht niedrigen Summe. Auch die Vermietung von nicht für akademische Aufgaben genutzter Rechenleistung an Unternehmen aus der freien Wirtschaft ist problematisch: Wird dafür Geld verlangt, ist es eine Doppelfinanzierung der aus Steuergeldern bezahlten Supercomputer, wird dafür kein Geld verlangt, ist es eine Quersubventionierung der Unternehmen. Das sieht in der Volksrepublik China schon anders aus.

Die kommunistische Partei Chinas hat ein anscheinend unbegrenztes Budget für Supercomputer und diese schießen wie Pilze aus dem Boden. Dabei verwenden die Chinesen immer mehr eigene Technik aus inländischen Ressourcen. Das ist leicht, weil beispielsweise Umsiedlungen für die Erschließung von Bodenschätzen keine jahrelangen Verhandlungen mit den Eigentümern erfordern. Da wird einfach festgelegt, welche Bauern gefälligst in das Hochhaus zu ziehen haben. In den letzten fünf Jahren hat es die Kommunistische Partei geschafft, eine nahezu komplett eigene Mikroelektronikindustrie auszubauen. Das Land verfügt ja auch über ein enorme personelle Ressourcen und hunderttausende hochqualifizierte Mathematiker, Informatiker und Ingenieure. Deshalb hat China inzwischen auch die Top Ten gut besetzt. Die Nummer eins der weltweiten Liste der Top-500-Supercomputer ist der Sunway mit 93 PetaFLOPS.

Mit dem Piz Daint aus der Schweiz ist ein Computer aus Europa (geografisch) jedoch nicht aus Europa (bezogen auf die EU) auf Platz 3 und somit unter den Top Ten.

„Für einen europäischen Supercomputer, der da mithalten kann, bräuchten wir zunächst Applikationen, die überzeugen. Dann gibt es auch die Steuergelder. Seit einigen Jahren geht es bei der Vergabe der Mittel für Supercomputer eben nicht mehr um Prestige, sondern um einen konkreten Nutzen“, so Erich Strohmeier gegenüber Experton Group.

Bedeutet das, dass die EU aufgrund des relativ eher geringen Risikos von Erdbeben in weiten Teilen Europas oder aufgrund der bereits vorhandenen Rechner für wichtige Aufgaben wie Klimaforschung und medizinische Forschung, für Engineering und Raumfahrt einfach mehr Rüstungsforschung, darunter besonders Atomwaffensimulationen, fördern muss?

Seit einigen Jahren wird der Stromverbrauch dieser Rechengiganten kritisch betrachtet, weshalb auch die Green-500-Liste der Supercomputer immer mehr beachtet wird. Dort hält der japanische Tsubame-3.0-Supercomputer mit einer Leistung von 14,11 GigaFLOPS pro Watt, das entspricht einer Gesamtleistung im ExaFLOPS-Bereich bei einem Stromverbrauch von weniger als 100 MW, die Spitzenposition. Mitentwickler Prof. Satoshi Matsuoka war unter den Rednern der Eröffnungssession übrigens der einzige, der seinen Steuerzahlern dafür dankte, dass sie diese Leistung überhaupt erst möglich machen. Die effizientesten Systeme haben fast ausnahmslos Intel-XEON-Prozessoren, oft in Kombination mit NVIDIA-Tesla-Coprozessoren. Die nächste spannende Schwelle von 50 GigaFLOPS pro Watt wird, so Matsuoka, voraussichtlich im Jahr 2020 überschritten.

Nicht uninteressant sind einige historische Betrachtungen, die auch Erich Strohmeier hervorhob: So betrug die Durchschnittsleistung der 500 leistungsfähigsten Supercomputer 1992 rund 400 MegaFLOPS und heute, 25 Jahre später, rund 432 TeraFLOPS (für Kopfrechner: Mega – Giga – Tera, und das in 25 Jahren). Obwohl diese Kurve seit einigen Jahren abflache, sei der ExaFLOPS-Superrechner bis spätestens 2025 zu erwarten.

Die schon genannte Volksrepublik China liefert mittlerweile ein Drittel der Gesamtleistung aller Top-500-Supercomputer. Ein weiteres Drittel der Gesamtrechenleistung liefern die USA. Gemessen an der Gesamtzahl aller Hersteller sind es sogar 40 Prozent der Top-500-Liste, die aus China kommen. Deshalb ist es umso bemerkenswerter, dass einzig und allein Hewlett-Packard in der Lage war, in den letzten drei Jahren überhaupt ein System nach China zu verkaufen.

Mit der Übernahme von SGI ist HPE übrigens auch der größte Supercomputer-Hersteller weltweit: Mit 29 Prozent hat HPE die meisten Systeme in der Top-500-Liste. Nach Leistung ist es übrigens Cray mit 160 PetaFLOPS, was mit 21 Prozent das größte Kuchenstück ergibt.

Der Top-500-Liste und der Green-500-Liste liegt der Linpack-Benchmark zugrunde, der unter bestimmten Aspekten nicht die Gesamtleistung des Systems darstellen kann. Ein Team um Prof. Jack Dongarra von der tennesseeianischen staatlichen Universität hat den HPCG-Benchmark entwickelt. An diesem Benchmark wurden mittlerweile 109 Systeme getestet. Der japanische K des RIKEN-Instituts ist demnach die Nummer 1, der Tianhe-2 aus China ist die Nummer 2 und der Piz Daint aus der Schweiz ist die Nummer 3. Die Nummer 1 der Top-500, gemäß Linpack, ist nach HPCG erst auf Platz fünf zu finden.

Heute tragen wir ein Vielfaches der Rechenleistung von Apollo 11 (Sie erinnern sich, das war die Mission des ersten bemannten Flugs zum Mond und zurück vor ziemlich genau 48 Jahren) in einem Smartphone mit uns herum. Die Rechner in der Top-500-Liste, in der Green-500-Liste und in der Liste mit den schnellsten Rechnern gemäß HPCG-Benchmark sind trotzdem meilenweit dem voraus, was in den meisten Büros und in der typischen Rechenzentrums-IT zu finden ist. Deshalb und wegen der Impulse für die Unternehmens-IT ist es spannend, die Entwicklung der Supercomputer zu beobachten.