Jahresberichte sind schon lange das Aushängeschild vieler Forschungseinrichtungen. Früher dominierten dort trockene und eher schwer verständliche Berichte von Wissenschaftlern. Inzwischen ist es üblich geworden, Profi-Schreiber zu engagieren, um die komplexen Inhalte aus der Forschung für Leser leichter verdaulich zu machen. So haben auch Corporate-Publishing-Agenturen dieses Geschäftsfeld im Visier, nachdem sie die Konsumgüter-Industrie und Technologie-Unternehmen beackert haben. Ein Trend: In Jahresberichten von den Menschen in der Forschung zu erzählen. Auf diese Weise soll dann auch das Interesse für ihre Forschungsthemen geweckt werden. Doch dabei gibt es zwei Probleme. Erstens: Wissenschaft ist heutzutage überwiegend Teamarbeit – und die Arbeit von Teams lässt sich viel schlechter erzählen als die „Heldenreise“ eines Einzelnen. Zweitens: Immer noch rümpfen manche Wissenschaftler die Nase, wenn Kollegen ins Rampenlicht gestellt werden. Dass der Erzähl-Ansatz über eine Forscherin trotzdem manchmal funktionieren kann, zeigt Frank Fricks Text „Die Computer-Diplomatin“ aus dem Jahresbericht 2015 (hier als PDF-Datei herunterladbar) des Forschungszentrums Jülich. (Gegenteilige Meinungen per Kommentar durchaus erwünscht!)
Die Computer-Diplomatin
Über 50 Wissenschaftler und Wissenschaftlerinnen aus 20 Forschungseinrichtungen und Unternehmen, verteilt über sieben europäische Länder, entwickeln gemeinsam eine neue und innovative Art von Supercomputer: Er soll besonders schnell und flexibel rechnen und dabei wenig Energie verbrauchen. Die Partner aus unterschiedlichen Arbeitsbereichen und Kulturen für ein gemeinsames Projekt an einen Tisch bringen, erfordert besondere Kompetenzen. Dr. Estela Suarez vom Jülich Supercomputer Centre (JSC) bringt diese mit. Sie koordiniert die Arbeiten und verantwortlich dafür, dass das Vorhaben reibungslos realisiert wird.
Astrophysiker beschäftigen sich mit der Physik von Himmelerscheinungen, Kometen und fernen Galaxien. Das könnte zu der Annahme verleiten, sie seien eher keine Spezialisten für irdische Probleme und menschliches Handeln. Auf Estela Suarez trifft das nicht zu: Die promovierte Astrophysikerin sorgt von Jülich aus seit 2011 dafür, dass über fünfzig Wissenschaftler – verteilt in ganz Europa – mit vollem Einsatz an einem Strang ziehen. Die meisten von ihnen sind Computer- und Software-Spezialisten. Ihr gemeinsames Ziel: Eine neue Generation von Superrechnern.
Estela Suarez selbst sieht eine ihrer wesentlichen Aufgaben darin, die Kommunikation zwischen den Wissenschaftler-Teams anzuregen und zu lenken. „Hardware-Hersteller, Software-Entwickler und Anwender haben ihre jeweils eigene, spezielle Sichtweise und sprechen darüber hinaus völlig unterschiedliche Sprachen“, erläutert sie. „Ich versuche zu erreichen, dass sich alle trotzdem verstehen.“ Offenbar mit Erfolg: „Estela findet immer den richtigen Ton im Umgang mit uns Nerds“, sagt Prof. Norbert Eicker vom Jülich Super Computing Centre (JSC). Er weiß, dass Computerexperten oft als geniale Sonderlinge gelten, als wenig kommunikationsfreudig und nur bedingt tauglich für das Alltagsleben.
Viele Denkweisen, viele Nationalitäten
Wenn sich die Diskussion zwischen den Projektpartnern festfährt, ist die Projektmanagerin Estela Suarez gefordert. „Typischerweise hat jeder recht. Es gibt nur unterschiedliche Sichtweisen und Interessen, um das Projektziel zu erreichen“, stellt sie fest. „Dabei wirken sich die Unterschiede in der Denkweise stärker auf das Projekt aus, als die Differenzen, die sich aus den verschiedenen Nationalitäten der Wissenschaftler ergeben.“ Wobei die gebürtige Spanierin auch in diesem Punkt Brücken baut. Sie spricht Spanisch, Englisch, Französisch, Italienisch und Deutsch. „Das kann schon ein Vorteil sein, wenn man die Wissenschaftler in ihrer Landessprache ansprechen kann“, sagt sie. Für die Gesprächsatmosphäre ist das förderlich, auch wenn die gemeinsame Projektsprache Englisch ist.
Das Projekt, das solche Kompetenzen erfordert, heißt DEEP-ER. Estela Suarez koordiniert das Vorhaben, ebenso wie dessen Vorläufer DEEP. Das Kürzel bedeutet „Dynamical Exascale Entry Platform, ER „Extended Reach“. Die Silbe „Exa“ steht dabei für die Zahl 10 hoch 18, also für eine Trillion. So viele Fließkommarechnungen pro Sekunde (Flops) sollen die Supercomputer der nächsten Generation bewältigen. Flops wiederum sind ein Maß für die Leistungsfähigkeit von Computern, etwa so wie die Kilowatt-Angabe – früher PS – für die Motorleistung eines Formel-1-Rennwagens steht. Die Rechenkraft eines Exascale-Computers würde etwa der von zehn Millionen aktuellen PCs entsprechen.
DEEP startete im Dezember 2011 mit 16 Partnern. Als im April 2012 Projektleiter Wolfgang Gürich vom JSC in den Ruhestand ging, stand die Nachfolgerin schnell fest: Estela Suarez. Auf diese Aufgabe war sie gezielt vorbereitet worden. Gürich hatte darüber hinaus seine Erfahrung in der Organisation von Projekten sowie dem Management von Wissenschaftler-Gruppen an sie weitergegeben. „Er war sozusagen mein persönlicher Mentor und zeigte mir viele Kniffe“, erinnert sich Suarez. Sie koordiniert seit Oktober 2013 auch das ergänzende Vorhaben DEEP-ER. Beide Projekte liefen fast zwei Jahre parallel, bis DEEP im Sommer 2015 endete.
„Es war fantastisch, zu erleben, wie das exzellente interdisziplinäre und internationale DEEP-Team eine völlig neue Rechner-Architektur realisierte, die in einer Diskussionsrunde als Idee an einer Tafel entstand“, erklärt Suarez. Diese Architektur ist wichtig, um die nächste Generationen von Supercomputern zu ermöglichen.
Schritt ins Exascale-Zeitalter
Denn um in das Exascale-Zeitalter einzutreten, muss die Leistung der derzeit schnellsten Computer der Welt um rund das 1000-fache erhöht werden. „Das ist schwierig, denn die bisherigen Rezepte stoßen an ihre Grenzen“, sagt Suarez. Im Grunde geht es bei allen Ansätzen darum, immer mehr Aufgaben parallel zu rechnen. Ein Weg sind Cluster. Hier werden Einzelrechner – auch Rechenknoten genannt – über ein schnelles Netzwerk zusammengeschaltet. Beispielsweise wird dann eine Simulation in mehrere gleichartige Teilaufgaben zerstückelt, die auf die Einzelrechner verteilt werden. Das beschleunigt die Lösung der Teilaufgaben enorm und damit die gesamte Berechnung.
Ein anderer Ansatz ist die Nutzung von speziellen Beschleuniger-Prozessoren. Sie verfügen im Vergleich zu Clustern-Prozessoren über viel mehr Rechenkerne, die aber einzeln deutlich leistungsschwächer sind. Solche Beschleuniger-Prozessoren eignen sich besonders gut, um viele weniger anspruchsvolle Teilaufgaben auszulagern und zu berechnen.
JSC-Leiter Thomas Lippert war 2010 der Erste, der sich fragte: „Was wäre, wenn man die zwei unterschiedliche Rechnerarchitekturen miteinander verknüpfen würde?“ Aus dieser Idee heraus entwickelten JSC-Wissenschaftler das sogenannte Cluster-Booster-Konzept. Dessen Ansatz in Kürze: Die Programmteile, die nicht so gut parallelisiert werden können, laufen auf einer Cluster-Architektur. Die einfachen, parallelisierten Programmteile übernimmt ein neuartiges System aus Beschleuniger-Prozessoren, das die Forscher entwickelt und „Booster“, getauft haben. Ein spezielles Softwaresystem erleichtert die Verteilung der Programmteile über Cluster und Booster und steuert die Kommunikation untereinander.
Jeder der Partner profitiert
Nun galt es, das Konzept in die Praxis umzusetzen. Die Jülicher Wissenschaftler sprachen darüber mit ausgewählten Unternehmen und europäischen Forschungseinrichtungen. Denn ein ambitioniertes Projekt in dieser Größenordnung lässt sich nur in einer Kooperation mit Partnern umsetzen, deren Kompetenzen und Fragestellungen sich ergänzen. „Schließlich muss neben der neuartigen Hardware auch die sogenannte Middleware entwickelt werden. Diese sorgt dafür, dass Forscher ihre Programme trotz der komplizierten Rechner-Architektur weitgehend wie gewohnt erstellen und laufen lassen können“, erläutert Suarez. „Eine solche Entwicklung kann nur im Verbund von erfahrenen Partnern unterschiedlicher Wissensgebiete geleistet werden.“
Zudem sei es wichtig, die Anwender des Supercomputers einzubeziehen – Forscher, die beispielsweise das Klima, das menschliche Gehirn oder Materialeigenschaften simulieren. Sie profitieren wiederum, weil sie ihre Software frühzeitig modernisieren und an künftige Supercomputer-Architekturen anpassen können. Für die Hardware- und die Middleware-Hersteller ist die Zusammenarbeit mit den Forschungseinrichtungen und Anwendern die perfekte Möglichkeit, neue Produkte bis zur Marktreife zu entwickeln und zu erproben. „Die Zusammenarbeit in den Projekten nutzt einfach jedem der Partner enorm“, sagt Suarez.
In einem nächsten Schritt galt es, Fördergelder bei der Europäischen Union zu beantragen. Estela Suarez, erst kurz zuvor nach Jülich gekommen, fügte die Entwürfe der Partner zu einem einheitlichen Arbeitsprogramm zusammen, stimmte das zu beantragende Budget dafür ab und verhandelte nach dem positiven Urteil der Gutachter mit der EU über die Einzelheiten der Förderung. Letztlich erhielt DEEP mit seinen Partnern 8,5 Millionen Euro Fördergelder, für DEEP-ER, das bis April 2017 läuft, noch einmal 6,5 Millionen.
Prototyp präsentiert
Trotz dieser guten Ausgangssituation sind Projekte wie DEEP und DEEP-ER keine Selbstläufer, sondern benötigen einen fähigen Koordinator. Thomas Lippert betont, dass jemand nur dann ein solches Projekt erfolgreich managen kann, wenn er den Spirit des Forschungsthemas versteht und es auch inhaltlich mitgestalten kann. „Die Projektpartner würden mangelnde Kompetenz schnell erkennen und dann den Koordinator links liegen lassen“, so Lippert. Estela Suarez hatte das wissenschaftliche Programmieren schon während ihres Studiums fasziniert. Während ihrer astrophysikalischen Doktorarbeit hatte sie ein Simulationsprogramm für einen Detektor auf einem Satelliten geschrieben. „Die Kenntnisse über Computer-Architekturen hat sie sich anschließend in Jülich außergewöhnlich schnell angeeignet“, erinnert sich Gürich.
Offenbar macht Suarez bei ihrer Computer-Diplomatie vieles richtig: Die Projektpartner präsentierten 2015 einen Prototyp mit einer Rechenleistung von 500 Billionen Flops, der nach dem Cluster-Booster-Prinzip aufgebaut ist. Sie testeten ihn und konnten dabei belegen, dass er so energieeffizient arbeitet wie erhofft – und dabei sehr flexibel eingesetzt werden kann.
Anfang 2016 stellten die Wissenschaftler einen zweiten, kleineren Prototyp vor, den sogenannten GreenICE-Booster. Bei ihm kommt eine besonders innovative Kühlung zum Einsatz. Die elektronischen Baugruppen sind von einer speziellen, nichtleitenden Flüssigkeit umgeben, die schon bei moderaten Temperaturen von 50 Grad Celsius verdampft: Der Phasenübergang von flüssig zu gasförmig maximiert den Kühleffekt. Dadurch wird keine Abwärme mehr an den Raum abgegeben. Der Energiebedarf der Kühlung sinkt so auf einen Anteil von etwa einem Prozent am gesamten Energieverbrauch. Bei herkömmlichen luftgekühlten Systemen kann dieser Anteil dagegen bis zu 25 Prozent betragen. Außerdem kommt beim GreenICE-Booster eine Netzwerk-Technologie zum Einsatz, die noch leistungsfähiger ist als bei seinem größeren Bruder.
Im Projekt DEEP-ER geht es nun zum einen darum, ein besonders effizientes System für die Dateneingabe und die Datenausgabe zu entwickeln. Manche Anwendungen – etwa Klimasimulationen – spucken nach den Berechnungen nicht nur wenige Zahlen aus, sondern eine Unmenge an Daten. Gibt es dadurch Engpässe, verlangsamt sich trotz gewaltiger Rechenleistung das Gesamtsystem. Zum anderen arbeiten die Wissenschaftler daran, den Cluster-Booster-Rechner ausfallsicherer zu machen. Das ist vor allem dann wichtig, wenn künftig nach diesem Konzept gebaute Computer mit mehr Prozessoren ausgestattet werden als die Prototypen. Denn mit der Vielzahl der Prozessoren steigt die Wahrscheinlichkeit, dass einer von ihnen während einer laufenden Simulation ausfällt.
Bei den vielen Kooperationspartnern im Projekt gab es dagegen keine Ausfälle. „Deren Engagement und deren Bereitschaft, kommunikative und inhaltliche Grenzen zu überwinden, haben es ermöglicht, dass aus einer Idee Realität wurde“, sagt Suarez.