Benutzerspezifische Werkzeuge
Sie sind hier: Startseite Vermischtes Presse Temperaturschwankungen des letzten Millenniums wahrscheinlich groesser als bisher angenommen

Temperaturschwankungen des letzten Millenniums wahrscheinlich groesser als bisher angenommen

erstellt von redaktion zuletzt verändert: 17.11.2016 13:35 — abgelaufen

Uebliche Methoden zur Rekonstruktion vergangener Klimaveraenderungen, die auf der Analyse von sogenannten Proxydaten fuer das Palaeoklima - u. a. von Baumringen, Korallen und Eiskernen - beruhen, unterschaetzen wahrscheinlich die tatsaechlichen Temperaturschwankungen um einen Faktor bis zu 2, moeglicherweise sogar noch mehr.

Diese Schlussfolgerung ergibt sich aus der Studie einer internationalen Forschergruppe koordiniert von Prof. Dr. Hans von Storch, Leiter des Instituts fuer Kuestenforschung des GKSS Forschungszentrums in Geesthacht. Sie wurde auf der Grundlage von Methoden zur Klimarekonstruktion und Computer-Simulationen des Klimas des letzten Millenniums erstellt. Ergebnisse dieser Studie wurden jetzt in der Zeitschrift "Science" veroeffentlicht.

Die vorgestellte Studie stellt eine Neuabschaetzung der vergangenen Temperaturschwankungen dar. Sie stellt weder Behauptungen in Frage hinsichtlich der Identifizierung von Signalen der von Menschen gemachten Klimaaenderungen in den letzten Jahrzehnten, die auf der Geschwindigkeit der Veraenderungen beruhen, noch hinsichtlich wahrscheinlicher oder moeglicher zukuenftiger Klimaaenderungen.

Das Ergebnis ist von weitreichender Bedeutung, da Temperatur-Rekonstruktionen, die auf Proxy-Daten basieren, benutzt werden, um den Klimawandel der letzten 1000 Jahre abzuschaetzen, besonders durch das Intergovernmental Panel on Climate Change in seinem Third Assessment Report.

Die neuen Ergebnisse zeigen, dass solche Rekonstruktionen, die ueblicherweise benutzt werden, um die juengsten extremen Klimaaenderungen hervorzuheben, wahrscheinlich irrefuehrend sind. Sie unterschaetzen die Temperaturschwankungen von Jahrhunderten moeglicherweise ganz erheblich.

Vor Beginn der beobachteten Erwaermung der letzten 150 Jahre durchliefen die Temperatur-Reihen der vergangenen 1000 Jahre Kaelte- und Waermeperioden, teilweise als Folge von veraenderter solarer Einstrahlung und Vulkanaktivitaet. Die am besten dokumentierte Kaelteperiode war das sogenannte Late Maunder Minimum um 1700, das in vielen historischen Quellen aus West-Europa dokumentiert ist.

Das Wissen um die Groessenordnung dieser vergangenen Schwankungen ist unverzichtbar fuer eine Beurteilung der von Menschen gemachten Klimaveraenderung im Vergleich zu natuerlichen Schwankungen. Umfassende, gemessene Temperaturreihen liegen allerdings erst seit etwa 150 Jahre vor.

Deshalb werden zur Abschaetzung vergangener Temperaturschwankungen Proxy-Daten verwendet, die zum Beispiel aus Baumringen, Korallen und historischen Dokumenten abgeleitet werden. Solche Daten unterliegen jedoch nicht nur klimatischen, sondern auch nicht-klimatischen Einfluessen, wie zum Beispiel biologischen oder sozialen. Sie erschweren die physikalische Interpretation. In diesem Sinne enthalten Proxy-Daten auch nichtnutzbare Informationen, die als "Noise" bezeichnet werden. Proxy-Daten sind ausserdem nur begrenzt verfuegbar und nicht gleichmaessig ueber den Globus verteilt.

Um die vergangene Temperatur global oder fuer die Nordhemisphaere aus begrenzt aufgeloesten Proxy-Daten zu rekonstruieren, werden statistische Methoden verwendet, die die raeumliche und saisonale Dichte sowie deren begrenzten Informationsgehalt der Proxies beruecksichtigen.

Wie gut sind die Rekonstruktionen? Ein direkter Test ihrer Qualitaet ist nicht moeglich, da die realen Temperaturen der Vergangenheit nicht bekannt sind. Daher hatte die Wissenschaftlergruppe die Idee, mit Klimamodellen, wie sie zum Beispiel fuer Klimaaenderungs-Szenarios des 21. Jahrhunderts benutzt werden, eine plausible Entwicklung des Klimas der letzten Jahrhunderte zu simulieren und dann die statistischen Methoden in dieser virtuellen Welt zu testen.

Hierfuer wurden virtuelle Proxy-Daten aus den Modell-Daten abgeleitet, welche die gleichen statistischen Eigenschaften haben und gleiche Orte repraesentieren wie reale Proxy-Daten. Der Vorteil ist, dass in dieser virtuellen Welt alles bekannt ist und die "rekonstruierte" Temperatur verglichen werden kann mit der "realen" Temperatur.

Um eine Zufaelligkeit der Ergebnisse zu vermeiden, die resultieren wuerde, wenn nur ein Klima-Modell und nur eine einzige Rekonstruktionsmethode angewendet werden wuerde, wurde die Untersuchung mit Daten aus zwei verschiedenen Klima-Modellen und mit mehreren statistischen Rekonstruktionsmethoden durchgefuehrt.

Die wesentliche Schlussfolgerung dieser Studie ist, dass viele statistische Methoden, die auf einer linearen Regression beruhen, die dekadischen und hundertjaehrigen Temperaturschwankungen deutlich unterschaetzen. Angewendet auf die Modell-Daten ergeben diese Methoden eine Schaetzung der vergangenen Modell-Temperaturen, die mit der realen Modell-Temperatur wenig zu tun haben. Auch der Fehler-Bereich beschreibt den wirklichen Fehler nicht richtig.

Zu der Forschergruppe gehoeren Julie Jones und Eduardo Zorita vom GKSS Forschungszentrum Geesthacht - Deutschland -, Yegor Dimitriev vom Institute of Numerical Mathematics in Moskau - Russland -, Fidel Gonzalez-Rouco der Universidad Complutense in Madrid - Spanien - und Simon Tett vom Hadley Centre for Climate prediction in Exeter - Grossbritannien -. Die Arbeit wurde unterstuetzt vom Deutschen Klimaforschungsprogramm DEKLIM, vom Forschungsprojekt der Europaeischen Kommission SO&P;, durch GMR Kontakte - Grossbritannien - und vom spanischen CICYT. Die Klimasimulationen wurden durchgefuehrt am Deutschen Klimarechenzentrum mit dem Klimamodell ECHO-G des Max-Planck Institutes fuer Meteorologie und seine Modell & Daten Gruppe und am Hadley Centre for Climate Prediction mit dem Klimamodell HadCM3 - unterstuetzt von Defra -.

Pressemitteilung des GKSS-Forschungszentrums Geesthacht GmbH, 01.10.2004