04. Feb. 2019
Gewitter wie dieses vor Madeira sind zu klein für Klimamodelle.

Gewitter wie dieses vor Madeira sind zu klein für Klimamodelle.

Die moderne Klimaforschung ertrinkt in der Datenflut aus Satelliten, Sensornetzen und Modellrechnungen. Das gilt nicht nur für die Wissenschaftler, sondern gerade auch für ihre wichtigsten Instrumente, die Klimamodelle. Um die wachsende Informationsmenge verarbeiten und auch in ihre Projektionen einspeisen zu können, setzen Forscher inzwischen auf Künstliche Intelligenz. Mit Verfahren wie data mining und machine learning wollen sie den größtmöglichen Nutzen aus den Beständen ziehen.

"Klimavorhersagen sind im Großen und Ganzen recht zuverlässig: Wir wissen, dass es wärmer wird", sagt Tapio Schneider, "was wir aber nicht genau wissen ist, wieviel es wärmer wird, wo es mehr regnen wird, wieviel mehr extreme Niederschläge es geben wird und so weiter." Der Professor für Klimadynamik am California Institute of Technology in Pasadena, der seit seinem Diplom an der Universität Freiburg in den USA forscht, bemängelt wie viele seiner Zunft die Zielgenauigkeit der derzeitigen Klimamodelle. Die sind sich einig bei allgemeinen Trends, doch schon bei der genauen Stärke dieser Trends kommen die mehr als 20 Modelle, die beispielsweise für den aktuellen 5. IPCC-Sachstandsbericht verwendet wurden, zu dramatisch unterschiedlichen Ergebnissen.

Schematische Darstellung des dreidimensionalen Gitternetzes, das ein konventionelles Klimamodell über die Erdoberfläche wirft.

Schematische Darstellung des dreidimensionalen Gitternetzes, das ein konventionelles Klimamodell über die Erdoberfläche wirft.

Bild: NOAA/CC0
Heranziehendes Gewitter über Tiefenbach bei Heilbronn.

Heranziehendes Gewitter über Tiefenbach bei Heilbronn.

Bild: Wikimedia/David87Hercules/CC BY-SA 4.0
Ergebnis der Niederschlagssimulation mit dem GFDL CM2.1. Modell.

Ergebnis der Niederschlagssimulation mit dem GFDL CM2.1. Modell.

Bild: NOAA/CC0
1 / 3

Schematische Darstellung des dreidimensionalen Gitternetzes, das ein konventionelles Klimamodell über die Erdoberfläche wirft.

Bild: NOAA/CC0

Heranziehendes Gewitter über Tiefenbach bei Heilbronn.

Bild: Wikimedia/David87Hercules/CC BY-SA 4.0

Ergebnis der Niederschlagssimulation mit dem GFDL CM2.1. Modell.

Bild: NOAA/CC0

Ursache für die die breite Fächerung sind vor allem kleinräumige Wetterphänomene, die durch die Maschen der grobskaligen weltumspannenden Modelle fallen und deshalb "annäherungsweise" erfasst werden. Zu ihnen gehören Niederschlagsgebiete, Unwetter und vor allem Wolken. Gerade die Wolken sind ein Paradebeispiel für die Probleme, die globale Klimamodelle mit den kleinräumigen Phänomenen haben. Sie kühlen die unterste Schicht unserer Atmosphäre, in der sich das Wetter abspielt, indem sie je nach Helligkeit mehr oder weniger Sonnenlicht in den Weltraum zurückstrahlen. Die besonders hochragenden und weißen Stratocumulus-Wolken zum Beispiel senken nach Schneiders Angaben durch ihre Reflektion die Temperatur der Troposphäre um acht Grad. "Ein Großteil der Unsicherheiten in der Klimamodellierung kommt daher, dass man nicht genau weiß, wie sich zum Beispiel Wolken ändern werden, wenn sich das Klima ändert", sagt der Klimaforscher

Rechenzentren stoßen an technische Grenzen

Mit der konventionellen Art der Modellierung stoßen die Klimaforscher aber an Grenzen der Computertechnik, wenn sie Wolken flächendeckend für den Globus berechnen wollten. "Ich habe einmal ausgerechnet, wie schnell ein Computer sein müsste, damit man insbesondere niedrige Wolken global berechnen kann", meint Tapio Schneider, "die Antwort ist, dass der Rechner 1000 Trillionen Mal schneller sein müsste als der schnellste Rechner, den wir haben. Und das ist einfach nicht machbar." Das liegt daran wie die Modelle funktionieren. Sie brauchen eindeutige Anweisungen und arbeiten diese Zeile für Zeile ab, je kleiner und zahlreicher die Elemente, desto mehr Zeilen Computercode müssen ausgeführt werden. Und es geht nicht allein um Rechenpower für die Berechnung, für die Modelle müssen auch entsprechend große Datenmengen aus den Speichern mit Höchstgeschwindigkeit in die Prozessoren geschaufelt werden, die Ergebnisse müssen ebenso schnell wieder zurückgeschickt und abgespeichert werden.

Weil die Computerindustrie ihre Maschinen gar nicht schnell genug verbessern kann, um mit dem Rechenbedarf der Klimaforscher mithalten zu können, suchen Wissenschaftler wie Tapio Schneider nach anderen Wegen, die Leistungsfähigkeit der Klimamodellierung zu verbessern. "Künstliche Intelligenz oder allgemein Methoden aus den Datenwissenschaften kommen ins Spiel, wenn man Wolken akkurat darstellen will, ohne sie direkt global zu berechnen", so Schneider. In seinem Labor in Pasadena forschen er und sein Team an einem neuen Klimamodell, das sehr stark auf "machine learning" setzt. Es ist eine Art Gegenentwurf zu den derzeitigen Klimamodellen: Der Computer erhält ein eher schlankes Modellgerüst vorgegeben, hat dafür aber statistische Analyse-Software an Bord, mit der er aus der Flut der Beobachtungsdaten, die auf ihn einprasselt, Muster und Gesetzmäßigkeiten herausfiltert. Entsprechend dieser Erkenntnisse verändert die Künstliche Intelligenz das Modell und passt es fortwährend an die neuen statistischen Muster an.

Wissenschaften ertrinken in Datenflut

Das Maschinelle Lernen funktioniert umso besser, je größer die Datensätze sind. Derzeit liegt genau darin ein Problem der Klimawissenschaften. Sie drohen in der Fülle der Beobachtungs- und Modelldaten schier zu ertrinken. Immer neue Erdbeobachtungssatelliten überschwemmen die Datenzentren mit ihren Daten. Daneben gibt es immer dichter gewebte Sensornetze auf der Oberfläche, die sich bis in die eisigen   Bergregionen, Urwälder und Tiefseeebenen ausgedehnt haben. "Es ist eine titanische Datenmenge, wir arbeiten mit Dutzenden von Petabyte", seufzt William Collins, Direktor des Instituts für Klima- und Ökosystemforschung am Lawrence-Berkeley National Laboratory in Berkeley, Kalifornien. Zum Vergleich: Die British Library, mit rund 170 Millionen Medien mehr als fünfmal größer als die Deutsche Nationalbibliothek und größte Bibliothek der Welt, umfasst rund zehn Terabyte, ein Tausendstel der Datenmenge, mit der Collins tagtäglich hantiert.  

"Unsere Herausforderung ist, dass sich die Menge der Daten, die wir zu analysieren haben, exponentiell vervielfacht, und das mitten in einem Live-Klimaexperiment", so Collins, "wir brauchen also dringend neue Wege, diese Datenmenge zu analysieren." Bereits jetzt ist es eine Illusion, die Daten, die permanent generiert werden, ausschließlich von Wissenschaftlern analysieren zu lassen. Menschen werden sich mehr und mehr auf die Anleitung, Überwachung und Kontrolle beschränken müssen, die direkte Datenanalyse werden selbstlernende Computer übernehmen. "Wir brauchen Hilfe von Computersystemen, denen wir nicht genau sagen müssen, was zu tun ist, sondern die selbständig in den Daten nach Mustern suchen, die wir vielleicht nicht erwartet hätten", betont der US-Klimaforscher.

Künstliche Intelligenz soll bei Analyse helfen

Damit stehen die Geowissenschaftler beileibe nicht allein da. Physiker und Materialwissenschaftler, Genetiker und Mediziner, Geistes- und Sozialwissenschaftler setzen mittlerweile auf Künstliche Intelligenz, um ihre Datenbestände auszuwerten. Und sie folgen dabei nur einem Trend, der aus der Industrie kommt. Internetgiganten wie Google und Amazon machen vor, wie man aus ungeheuren Datenmassen weitreichende Erkenntnisse herauskitzelt. Dank "machine learning" können Computer heute Sprache fast so gut verstehen wie Menschen. Maschinelles Lernen, so die große Hoffnung, könnte in der Klimaforschung ähnlich viel bewegen wie seit 2012 für die Spracherkennung.

Das Verhalten des Kohlenstoffkreislaufs ist eine der entscheidenden Unbekannten, wenn es um die Frage geht, wie schnell die Treibhausgasemissionen den planetaren Thermostaten nach oben regeln. Derzeit nehmen Ozeane und Ökosysteme an Land rund die Hälfte des vom Menschen in die Luft freigesetzten Kohlendioxids auf und halbieren so unseren Treibhauseffekt. "Jetzt ist die Frage, wie sieht das in 50 oder 100 Jahren aus, geht das immer so weiter", erklärt Markus Reichstein, Direktor am Max-Planck-Institut für Biogeochemie in Jena. Werden die Senken schwächeln und sich gar in Quellen verwandeln, die unser Kohlendioxidproblem noch verschärfen? In den Permafrostgebieten ist diese Frage bereits heute akut. Wenn sie sich in dieser Schärfe für die Ozeane stellt, sollte die Menschheit zumindest akkurate Prognoseinstrumente zur Hand haben, um zu wissen, was auf sie zukommt.

In den klassischen, auf physikalischen Gleichungen und biologischen Annahmen beruhenden Klimamodellen, wird das in Millionen Zeilen Computercode gefasst. Doch eindeutige Antworten liefern diese herkömmlichen  Simulationen trotzdem nicht. "Einige Modelle sagen vorher, dass bis Ende des nächsten Jahrhunderts die Ökosysteme weiterhin das Kohlendioxid aus der Atmosphäre herausziehen, weil die Photosyntheseleistung ansteigt", so Reichstein, "andere Modelle haben gesagt: Nee, das sieht ganz anders aus, es werden Wälder absterben." Letztendlich stellen die Modelle den Menschen damit vor die Entscheidung, welcher Simulation er glauben will. Immer detailliertere Modelle und immer leistungsfähigere Computer haben daran bislang nichts geändert.

Data Mining führt zu neuen Erkenntnissen

Von "data mining" und "machine learning" erhoffen sich die Klimaforscher daher Unterstützung. "In jüngerer Zeit haben wir so viele Daten, dass wir die Möglichkeit haben, Gesetzmäßigkeiten nicht nur aus der Theorie abzuleiten, sondern direkt aus den Daten, dass wir bestimmte Muster ableiten können, die wir in den Daten sehen, die uns etwas über das Erdsystem sagen, eventuell Dinge erkennen lassen, die von der Theorie noch gar nicht abgedeckt sind", berichtet Markus Reichstein. So soll sich die Schere der Modellvorhersagen schließlich doch soweit schließen lassen, dass sich eine brauchbare Prognose herausschält.

Die meisten Wissenschaftler arbeiten daran, Elemente des Maschinellen Lernens in bestehende Programme einzufügen. Tapio Schneiders Gruppe am Caltech in Kalifornien geht mindestens einen Schritt weiter. Das Team baut ein Klimamodell komplett neu auf, bei dem Künstliche Intelligenz eine entscheidende Rolle spielt. Finanziell unterstützt werden er und sein Team unter anderem von Eric Schmidt, dem Vorstandsvorsitzenden der Google-Muttergesellschaft Alphabet und auch vom Microsoft-Mitbegründer Paul Allen. Grundlage des Projekts ist ein "schlankes" Klimamodell. "Unser Modell wird die wesentlichen Prozesse, die andere Klimamodelle haben, auch haben: also auch Meereis, einen Ozean, ein Landmodell, Biosphäre und so weiter", sagt Schneider, "aber der Neuanfang hat den Vorteil, dass man sich gut überlegen kann, wie man diese Prozesse modelliert."

Schneiders Gruppe setzt auf Vereinfachung: Alle Parameter, die mittlerweile ausreichend umfassend gemessen werden, brauchen im Rechner nicht mehr modelliert zu werden, sondern fließen aus den Beobachtungsdaten ein. Das gilt etwa für die Wasserdampfmenge in der Atmosphäre, die Sonnenlicht-Reflektion durch die Erdoberfläche oder den Kohlendioxidverbrauch der Pflanzen. Das Klimamodell soll diese Prozesse nicht im Detail simulieren, stattdessen wird Künstliche Intelligenz die Beobachtungsdaten in die Simulationsläufe integrieren und in der Datenflut nach Mustern suchen. Aus all dem lernt dann das Klimamodell.

Datengrundlage muss stimmen

Damit all diese Pläne funktionieren, muss die Datengrundlage stimmen. Denn auch Künstliche Intelligenz kann aus schlechten Daten nur Schlechtes lernen. Unter anderem fehlen derzeit Satelliten, die messen, wo genau in der Atmosphäre sich Wasserdampf befindet. Ob die verfügbaren Informationen für Tapio Schneiders Klimamodell ausreichen, um Wolken in den Griff zu bekommen, wird sich daher erst noch zeigen.

Mindestens ebenso wichtig wie die korrekte Datengrundlage ist die Nachprüfbarkeit. Und da hat Künstliche Intelligenz zumindest derzeit noch ein Problem. Machine-Learning-Systeme sind darauf angelegt, ihre eigenen Regeln zu entwickeln, doch sie sind nicht sehr mitteilsam, wenn es um Erklärung dieser Regeln geht. Es läuft wie in einer Black Box, ohne dass die Forscher erklären können, was passiert. Wenn Künstliche Intelligenz eine wesentliche Rolle in der Klimaforschung spielen soll, wird sie sich aber deren Regeln anpassen müssen. "Seit der Entwicklung der modernen Naturwissenschaften haben wir immer darauf geachtet, dass die Experimente und die Methoden zur Analyse der Experimente reproduzierbar sind", betont William Collins vom Lawrence Berkeley National Lab.

Das müsse auch für die Algorithmen gelten, nach denen die Künstliche Intelligenz vorgeht. Schließlich geht es auch um gesellschaftliche und politische Entscheidungen – sei es das Abschalten von Kohlekraftwerken, den Aufbau einer regenerativen Energieversorgung oder um Investitionen in Deiche für den Schutz gegen den steigenden Meeresspiegel. Zahllose teure und tief in Volkswirtschaften eingreifende Maßnahmen beruhen letztendlich auf den Klimaprojektionen. Eine Black Box kann nicht akzeptiert werden – und so wird auf diesem Gebiet intensiv geforscht.