Forschen mit Weitblick

Foto: iStock/Easyturn
Über digitale Methoden und virtuelle Labore diskutierten Wissenschaftler auf der Jahrestagung 2017 des Helmholtz-Zentrums Hereon. Zwei Beispiele: Röntgenaufnahmen, die von Hereon-Materialforschern an der Röntgenquelle PETRAIII bei DESY gemacht werden, verschlingen schnell mehrere Terabyte Speicherplatz. Das Datenarchiv, auf das Klimaforscher zurückgreifen, speichert so viele Daten wie etwa 135.000 Notebooks. Wie Küstenforscher und Materialforscher am Hereon mit großen Datenmengen arbeiten und was sie daraus lernen, wird von Küstenforscher Dr. Volker Matthias und Materialforscher Dr. Martin Müller erklärt.
Volker Matthias leitet die Abteilung Chemietransportmodellierung am Institut für Küstenforschung

Foto: Hereon/ Christian Schmid
Herr Matthias, Sie möchten verstehen, wie sich Schiffsabgase in Küstenregionen verbreiten. Warum?
Allein auf der Nordsee sind an jedem Tag rund 1000 Schiffe unterwegs. Sie stoßen Schadstoffe wie Ruß, Schwefeldioxid und Stickoxide aus. Seit einiger Zeit dürfen Schiffe auf Nord- und Ostsee nur noch mit schwefelarmen Treibstoff en fahren. Das hat ihre Schwefeldioxid-Emissionen deutlich verringert. Aber bei den Stickoxiden geht nach wie vor ein erklecklicher Teil der Emissionen aufs Konto der Seefahrt. Diese Stickoxide tragen unter anderem zur Bildung von Ozon und Feinstaub bei – insbesondere in Hafenstädten: Schätzungen zufolge stammt ein Drittel der Stickoxidbelastung in Hamburg von Schiffen. Mit unserer Forschung wollen wir herausfinden, wie groß der Anteil der Schiff fahrt an den Schadstoff emissionen im Detail ist und wie effektiv Gegenmaßnahmen sein können, etwa die Verwendung von Katalysatoren.
Wie helfen Ihnen Computersimulationen, sogenannte Chemietransportmodelle, bei diesen Arbeiten?
Unsere Simulationen sind mit jenen Computermodellen vergleichbar, die man für die Wettervorhersage nutzt. Dabei berücksichtigen wir zusätzlich Schadstoffemissionen, Stofftransporte und chemische Reaktionen. Unsere Simulationen funktionieren auf der Basis eines Gitters: Wir teilen die Atmosphäre in mehrere 100.000 Gitterzellen ein, und für jede dieser Zellen berechnet der Computer einen Satz chemischer Reaktionsgleichungen. Anschließend tauschen die Zellen ihre Resultate miteinander aus – so simulieren wir den Stofftransport. Zunächst läuft unsere Simulation mit einem groben Raster für ganz Europa, mit 64 × 64 Kilometer großen Gitterzellen. Den Nord- und Ostseeraum berechnen wir dann genauer, mit Gitterzellen von 16 × 16 Kilometern. Am Ende simulieren wir die Nordseeküste mit unserer derzeit besten Auflösung von 4 × 4 Kilometern.
Wir füttern unsere Modelle mit meteorologischen Daten und den möglichst genauen Abschätzungen für die Emissionen aus Verkehr, Industrie, Haushalten und Landwirtschaft. Den Schadstoffausstoß der Schiffe können wir dabei besonders genau erfassen, indem wir jede einzelne Schiffsbewegung berücksichtigen. Dann lassen wir zwei Simulationen laufen: Eine mit allen Schadstoffquellen, die andere ohne die Schiffsemissionen. Aus der Differenz lässt sich dann der Anteil der Schifffahrt recht genau ableiten.

Rechner im Deutschen Klimarechenzentrum in Hamburg. Foto: Hereon/ Christian Schmid
Mit welchen Computern arbeiten Sie?
Zum einen rechnen wir mit dem hauseigenen Computer-Cluster. Er umfasst rund 2500 Prozessoren, von denen wir 200 bis 300 gleichzeitig nutzen. Außerdem können wir auf den Computer des Deutschen Klimarechenzentrums (DKRZ) zurückgreifen. Für unsere Rechnungen benötigen wir nicht nur viel Speicherplatz, sondern auch Computer, die die Daten schnell wegschreiben können. Bei einer einzigen Simulation kommt ein Datensatz von etwa einem Terabyte heraus, die Rechenzeit beträgt mehrere Tage bis zu einer Woche.
Zu welchen Ergebnisse sind Sie bislang gelangt?
Unter anderem konnten wir zeigen, wie verschiedene Emissionsquellen zusammenwirken. So können Schiffsabgase mit den Ammoniak-Emissionen aus der Landwirtschaft reagieren und Feinstaub-Partikel bilden. Außerdem haben wir mit unseren Simulationen in die Zukunft geschaut und verschiedene Szenarien berechnet. Ein Beispiel: Ab 2021 dürfen alle neu gebauten Schiffe auf Nord- und Ostsee nur noch ein Viertel der heutigen Stickoxid-Menge ausstoßen. Wie wirkt sich das im Jahr 2030 aus, wie 2040? Für das Jahr 2040 sagen unsere Simulationen voraus, dass die Stickoxid-Belastung um bis zu 80 Prozent sinkt, wobei wir zusätzlich angenommen haben, dass die Schiffe deutlich weniger Treibstoff verbrauchen. Für 2030 allerdings sieht man noch nicht so viel, dann nämlich sind noch viele alte Schiffe unterwegs, für die der schärfere Grenzwert nicht gilt. Wollte man eine schnellere Verbesserung erreichen, müsste man darüber nachdenken, ältere Schiffe mit Katalysatoren nachzurüsten.

Atmosphärensimulation. Copyright: Hereon/ KBT
Und welche Pläne hegen Sie für die Zukunft?
Unter anderem möchten wir die Auflösung unserer Modelle verbessern, von derzeit 4 x 4 auf 1 x 1 Kilometer. Dann könnte man Regionen wie den Hamburger Hafen besser abbilden. Dazu braucht es schlicht mehr Rechenpower. Außerdem planen wir, typische Big Data-Methoden zu verwenden: Um die Emissionen aus dem Straßenverkehr genauer zu erfassen, könnten man Verkehrsinformationen oder die Daten von Toll Collect nutzen. Und um zu sehen, welche Schadstoff e zu verschiedenen Jahreszeiten aus der Landwirtschaft stammen, könnte man auf Satellitendaten zugreifen.
Vielen Dank für das Gespräch.
Am Institut für Werkstoffforschung leitet Prof. Martin Müller das „German Engineering Materials Science Centre“ GEMS

Foto: Hereon/ Christian Schmid
Herr Müller, am Helmholtz-Zentrum Hereon nimmt GEMS eine Sonderstellung ein. Was ist das Besondere?
Unsere Labors befinden sich nicht in Geesthacht. Stattdessen betreiben wir mehrere Messinstrumente an zwei Großanlagen – an PETRA III bei DESY in Hamburg sowie am FRM II in Garching bei München. Der Speicherring PETRA III erzeugt extrem brillantes Röntgenlicht, der Forschungsreaktor FRM II liefert Neutronen. Beides sind hocheffiziente Werkzeuge, um das Innere von Werkstoffen zu analysieren.
Was tragen Sie zu den Arbeiten der Hereon-Werkstoffforscher bei?
Gemeinsam mit dem Institutsteil von Prof. Norbert Huber haben wir uns angesehen, was genau beim Laserschweißen passiert. Mit gebündelter Röntgenstrahlung können wir beobachten, wie der Laserstrahl das Material aufschweißt und wie die Schweißnaht anschließend erstarrt. Ein weiteres Beispiel: In einen der Messplätze haben wir eine Maschine für das Rührreibschweißen integriert – ein maßgeblich am Hereon entwickeltes Verfahren. Mit dem Röntgenstrahl von PETRA III lässt sich genauestens verfolgen, wie der Prozess abläuft. Und in letzter Zeit arbeiten wir mit dem Team von Prof. Regine Willumeit-Römer zusammen, um neuartige metallische Biomaterialien zu untersuchen: Wie zersetzt sich eine Knochenschraube aus Magnesium, und zwar bei Bedingungen, wie sie im menschlichen Körper herrschen?
Welche Datenmengen fallen bei diesen Experimenten an?
Schon eine einzelne Aufnahme kann mehrere Gigabyte umfassen. Doch wollen wir den Ablauf eines Prozesses verfolgen, müssen wir Tausende von Bildern kurz nacheinander aufnehmen. Da kommen dann schnell mehrere Terabyte zusammen – mit den künftigen Detektor-Generationen dürften es sogar Petabyte sein. Entsprechend hoch sind die Anforderungen an Rechner, Datenspeicher und -leitungen. Das gilt auch für die Auswertung der Daten, etwa bei der Darstellung von 3D-Bildern. Um diese Herausforderungen zu meistern, arbeiten wir eng mit den Rechenzentren von DESY und dem FRM II zusammen.

Automatischer Probenwechsler an einer Hereon-Beamline am GEMS. Foto: Hereon/ Christian Schmid
Wie schnell lassen sich die Messdaten anzeigen, wie rasch sind sie für die Experimentatoren verfügbar?
Unser Ziel ist es, die Daten quasi live bzw. mit einer Zeitverzögerung von nur wenigen Minuten auszuwerten.
Hierbei helfen unter anderem schnelle Algorithmen für die Datenreduktion. Der Vorteil dieser schnellen Auswertung: Die Forscher sehen schon während den Messungen, in welche Richtung ihr Experiment läuft. Dadurch können sie rechtzeitig erkennen, wann ein Versuch in eine falsche Richtung läuft. Sie können ihre Messstrategie optimieren, sodass sie schneller und mit weniger Experimenten zum Ziel kommt. In manchen Fällen ist das bei GEMS schon möglich. In Zukunft wollen wir das deutlich ausbauen.
Welche Rolle könnten dabei Big-Data-Methoden spielen, etwa die automatische Erkennung von Mustern in Bilddaten?
Methoden wie das „Machine Learning“ dürften ein hohes Potenzial besitzen. Die Vision: Algorithmen erkennen in den Messdaten bestimmte Muster und können dadurch automatisch Bescheid geben, in welche Richtung das Experiment läuft. Bei der Gesichtserkennung auf Bildern haben Internetkonzerne wie Google bereits bewiesen, dass die Technologie funktioniert. Für uns geht es nun darum, sie auf den Wissenschaftsbereich zu übertragen. Dabei hilft uns eine Initiative der Helmholtz-Gemeinschaft – der „Helmholtz-Inkubator Information & Data Science“. Hier kommen Wissenschaftler aus völlig unterschiedlichen Fachbereichen zusammen, die vor ähnlichen Problemen stehen: Wie lässt sich aus großen Datenmengen möglichst schnell herausdestillieren, welche Messstrategie die richtige ist?
Vielen Dank für das Gespräch.
Um den Umgang mit großen Datenmengen – Big Data – in der Wissenschaft zu verbessern, entstand die neue Initiative des Helmholtz-Präsidenten, der „Helmholtz Inkubator Information & Data Science“. Der Inkubator setzt sich zusammen aus 36 IT- und Data Science Experten aus allen Helmholtz-Zentren und wird von Fachleuten aus der forschenden Industrie unterstützt.
Die beiden Interviews führte der Wissenschaftsjournalist Frank Grotelüschen.
Erschienen in der in2science #4 (Juni 2017)