|
Klaus
|
|
wikipe Autor *1931 in Hamburg dnb Person dnb Name (38) dnb Nummer (26) detopia Klimabuch |
Die Launen der Medien Zur Kritik an der Klimaforschung Die Zeit am 1.8.1997
Eine
Antwort auf den Artikel 'Die Launen der Sonne'
|
Home planck institut meteorologie 2021 dlf physik-nobelpreistraeger-und-klimapionier-klaus-hasselmann dlf 2021 Audio 2022 Ich-mache-mir-grosse-Sorgen-um-unsere-Demokratie-6581232.html TP URL-1997 zeit.de/1997/32/Die_Launen_der_Medien Original |
Mit dem Klimaproblem tun sich manche Journalisten schwer. Wie vermittelt man eine "Katastrophe", die sich erst in fünfzig bis hundert Jahren einstellt und über die Wissenschaftler mit tötender Monotonie seit zwanzig Jahren immer wieder dasselbe sagen? Über die unablässig Konferenzen veranstaltet werden, ohne daß sich für den Zeitungsleser überhaupt etwas Wahrnehmbares ändert – weder im Klima noch in der Politik?
Jetzt steht die Konferenz in Kyoto vor der Tür. Was kann man denn da bloß noch schreiben? Nun, es muß halt ein neuer Zugang gefunden werden. Eine Story.
Die prognostizierte Klimaänderung als eine Schreckenskatastrophe darzustellen, die uns unmittelbar bevorsteht (Kölner Dom unter Wasser, Bayern eine Wüste) oder sogar schon eingetreten ist (Überflutungen in Brandenburg), ist nicht mehr originell. Außerdem wurde dies schon zu oft von Meteorologen dementiert. Der umgekehrte Ansatz ist reizvoller: Es gibt gar kein Klimaproblem. Das Ganze ist nur eine grandiose Erfindung der Wissenschaftler, um Forschungsgelder anzulocken.
Aber auch diese Masche ist inzwischen von der Industrielobby weidlich ausgeschlachtet worden. Außerdem kann man den Leser nicht für beliebig dumm verkaufen. Daß Wissenschaftler die Bedeutung ihres Forschungsgebiets hervorheben und sich um Forschungsgelder bemühen, ist selbstverständlich. Daß aber über tausend Experten sich weltweit verschwören, um in den Berichten des IPCC der UNO schlicht Unwahres zu verbreiten, ist wohl kaum glaubhaft.
In seinem Bericht <Die Launen der Sonne> (ZEIT Nr. 31/97) hat Dirk Maxeiner einen Ausweg aus diesem Dilemma gefunden: Die Wissenschaftler haben selbst entdeckt, daß sie sich geirrt haben, die Klimakatastrophe ist ihnen wie ihre erwärmten Polkappen unter den Füßen weggeschmolzen.
Zwar muß man den Fakten dafür erheblich Gewalt antun, aber den Zielen der journalistischen Unterhaltung zuliebe sollte dies wohl erlaubt sein. Einen Aufhänger wird man sicherlich im Internet finden. In der Tat, da steht doch im neuen Buch von Nigel Calder, daß Variationen der Sonne für Klimaschwankungen verantwortlich sind. Kein sonderlich origineller Gedanke, aber wie wäre es, hieraus zu schließen, daß es den Treibhauseffekt nicht geben kann?
Logische Klippen türmen sich auf, aber die können sicherlich durch geschickte Vernebelung verdeckt werden.
Als erstes müßte man das Problem der natürlichen Klimavariabilität, mit dem sich Calder befaßt, mit dem IPCC-Thema der globalen Treibhauserwärmung zusammenmischen. Richtig, auch der Laie wird hier stutzig – aber vielleicht doch nicht, wenn man das Ganze geschickt vermengt mit der Nachweisfrage, bei der ja in der Tat beide Probleme zusammenwirken.
Hat doch Hasselmann in seinem jüngsten Science-Artikel die vorsichtige IPCC-Aussage unterstrichen, daß die Erkennung der vom Menschen verursachten Klimaänderung vor dem nur unzureichend bekannten Hintergrund der natürlichen Klimavariabilität heute zwar mit einer gewissen Wahrscheinlichkeit gelungen, aber immer noch nicht gesichert ist (im Einklang mit seiner früheren vorsichtigen Aussage, daß das anthropogene Signal mit einer "geschätzten" Wahrscheinlichkeit von 95 Prozent erkennbar ist).
Auch in den IPCC-Berichten sollte etwas zu finden sein, das sich ausschlachten läßt. Im ersten Bericht 1992 steht noch, am Ende des nächsten Jahrhunderts werde bei unverminderter Zunahme der Treibhausgasemissionen die globale Mitteltemperatur um drei (+/– 1,5) Grad ansteigen. Im zweiten Bericht wird, nach Revision der Emissionsprognosen der Ökonomen und nach Berücksichtigung der Abkühlung durch zunehmende Aerosolkonzentrationen, nur noch ein Anstieg von etwa zwei Grad prognostiziert.
Gut, das wird den Leser nicht gleich vom Hocker werfen. Aber man kann ja behaupten, die erste Prognose habe sechs oder acht Grad betragen. Daß klingt schon besser. Wer liest schon die IPCC-Berichte? Einige andere Zahlen könnte man bei dieser Gelegenheit ebenfalls interessanter gestalten.
Ein Jahresetat von etwa 16 Millionen Mark für Investitionen und Betrieb für das wichtigste Werkzeug der deutschen Klimaforschung, das Deutsche Klimarechenzentrum, liest sich doch recht bescheiden. Also setzt man dafür lieber einen Gesamtaufwand von 540 Millionen Mark ein. Was in dubiosen Internet-Quellen steht, braucht nicht gleich hinterfragt zu werden.
Dirk Maxeiners Artikel ließe sich, wie andere Beiträge dieses Genres, als journalistische Unterhaltung zum Klimaproblem abtun. Was aber den Experten belustigt, könnte den Laien verunsichern, und weil das Klimaproblem zu ernst ist, versuche ich nun doch, Maxeiners Cocktail aus richtigen und falschen Fakten und unlogischer Argumentation zu entsorgen.
#
Sehen wir uns die drei unterschiedlichen Probleme näher an, die Maxeiner in seinen Mixer wirft:
1) die Ursachen natürlicher Klimaänderungen,
2) die Berechnungen menschenbedingter Klimaänderungen,
3) die Frage, ob sich solche Änderungen bereits heute in Beobachtungsdaten nachweisen lassen.Zunächst also die natürlichen Klimaschwankungen. Die Entstehung natürlicher Klimavariabilität ist eine der faszinierendsten Fragen der Klimaforschung. Klimaschwankungen treten in allen Zeitskalenbereichen auf, von Wochen bis Jahrmillionen. Zu ihrer Erklärung gibt es fast so viele Thesen wie unterschiedliche Zeitskalen. Einige Klimavariationen sind gut verstanden: So kann die größte kurzzeitige Klimaanomalie der Erde, der alle drei bis fünf Jahre auftretende El Ninjo (eine Temperaturschwankung der Oberfläche von Teilen des Pazifik, d. Red.), der den gesamten Tropengürtel und angrenzende Kontinentalregionen erfaßt, mit modernen gekoppelten Ozean-Atmosphäre-Klimamodellen nicht nur realistisch simuliert, sondern sogar mit brauchbarer Treffsicherheit vorhergesagt werden.
Zur Zeit bahnt sich vor der Küste Perus ein Rekord-Ninjo an, der bereits im November letzten Jahres mit dem (am Deutschen Klimarechenzentrum entwickelten) Klimamodell des Max-Planck-Instituts für Meteorologie von der Scripps Institution of Oceanography in Kalifornien vorhergesagt wurde (womit sich die Kosten des Klimarechenzentrums bereits amortisiert haben). Die von Maxeiner erwähnten Anomalien der atmosphärischen CO2-Konzentration können nach neueren Modellrechnungen weitgehend auf die Auswirkungen des El Ninjo auf den globalen Kohlenstoffkreislauf zurückgeführt werden.
Auch sehr lange Klimazyklen mit Perioden von zwanzig- und vierzigtausend Jahren werden heute gut verstanden. Sie können auf astronomisch genau berechenbare Variationen der Erdbahn um die Sonne zurückgeführt werden. Im Periodenbereich von Dekaden bis Jahrhunderten kann das Spektrum der Klimaschwankungen qualitativ mit dem sogenannten stochastischen Anfachungsmodell erklärt werden. Danach entstehen langfristige Klimaschwankungen in Analogie zur Brownschen Bewegung - zu den langsamen Zufallsbewegungen schwerer Moleküle, die von vielen leichten Molekülen angestoßen werden – durch die Einwirkungen kurzfristiger Wetterschwankungen auf die trägen Komponenten des Klimasystems, insbesondere auf die Ozeane.
Klimaänderungen können auch durch instabile Wechselwirkungen zwischen Ozean, Atmosphäre, Biosphäre und anderen Klimakomponenten entstehen. Das bekannteste Beispiel ist der Zusammenbruch des atlantischen Golfstromsystems. Man vermutet anhand von Daten aus Tiefseebohrkernen, daß dies in vergangenen Klimaepochen mehrfach geschah. Der Vorgang konnte in Modellsimulationen reproduziert werden und ist nach diesen Rechnungen auch bei einer globalen Erwärmung nicht auszuschließen. Viele Einzelheiten der Daten, wie das Auftreten rascher Klimaumschwünge in früheren Klimaepochen (allerdings nicht mehr in den letzten 10.000 Jahren) oder die von Maxeiner erwähnten parallelen Veränderungen der atmosphärischen CO2-Konzentration und der globalen Temperaturen im Rhythmus der Eiszeiten, sind aber noch unverstanden. Von einer quantitativen Reproduktion der historischen und paläoklimatischen Zeitreihen sind wir noch weit entfernt.
Als Joker in diesem bunten Hypothesenblatt galten seit jeher – lange vor Calders Buch – mögliche Veränderungen der Sonneneinstrahlung. Das Problem hierbei ist der Mangel an überzeugenden Daten oder Berechnungen. Nachweise einer direkten Korrelation zwischen dem Sonnenfleckenzyklus und beobachteten Klimaänderungen wurden unzählige Male vorgestellt und ebensooft als statistisch unhaltbar widerlegt.
In letzter Zeit wurden vorwiegend indirekte Zusammenhänge postuliert, zum Beispiel durch Modulationen der Sonnenfleckenfrequenz oder nichtlineare Wechselwirkungen der Sonnenflecken mit verschiedenen Klimagrößen. Wegen der Kürze der Zeitserien konnten diese Zusammenhänge aber bisher ebenfalls nicht statistisch überzeugend belegt werden. Die einzige harte Tatsache bilden geringfügige Änderungen der Sonnenstrahlung in der Größenordnung von wenigen Promille, die in den letzten Jahren von Satelliten gemessen wurden.
Nach bisherigen (allerdings noch groben) Berechnungen können diese Schwankungen die beobachtete Klimaänderung während dieser Zeit jedoch nicht erklären. Man sollte dennoch die These der Sonnenvariabilität nicht einfach verwerfen, sondern sie weiterhin als Joker in der Hinterhand behalten. Bisher war man aber nicht gezwungen, diese Karte mangels anderer stichhaltiger Trümpfe auszuspielen.
Nun zum zweiten Punkt: den Klimaprognosen.
Trotz der vielen offenen Fragen zur natürlichen Klimavariabilität setzen Klimaforscher ihre Modelle unverdrossen ein, um die Auswirkung der zunehmenden Treibhausgaskonzentrationen auf das Klima der nächsten hundert Jahre zu berechnen. Woher diese Unbefangenheit?
Es geht um die Erfassung des anthropogenen Treibhausantriebs und seine Auswirkungen auf das Klima über einen Zeithorizont, der kurz ist im Vergleich zu den langen Zeiträumen, in denen sich die nur unzureichend verstandenen Prozesse der natürlichen Klimavariabilität abspielen. Die Veränderungen des Strahlungsantriebs infolge von Veränderungen der Treibhausgaskonzentrationen kann man mit guter Genauigkeit berechnen. Die Auswirkungen des veränderten Strahlungsantriebs auf das Klima können wiederum mit globalen Klimamodellen, die anhand des heutigen Klimas validiert werden, ermittelt werden. Die Modelle reproduzieren die globalen Verteilungen der Winde, Niederschläge und Wolkenbedeckung in der Atmosphäre, der Temperaturen, Salzkonzentrationen und Strömungssysteme im Ozean sowie die Veränderungen dieser Felder im jahreszeitlichen Ablauf und bei statistischen Schwankungserscheinungen wie dem El Ninjo.
Dies wäre kaum möglich, wenn die dynamischen Prozesse, die sowohl unser heutiges Klima als auch die Wirkungen eines veränderten Treibhausantriebs bestimmen, in den Modellen grundsätzlich falsch wären. Dennoch bestehen Unsicherheiten in der Darstellung einiger kritischer Prozesse, etwa der Wolkenbildung, der Wechselwirkung zwischen Wolken und Aerosolen oder der Tiefenwasserbildung im Ozean. Die Fehlergrenzen von Modellprognosen werden daher im allgemeinen mit fünfzig Prozent angegeben. Hierin eingeschlossen sind überlagerte, nicht vorhersagbare langperiodische Klimaschwankungen, die in den Klimamodellen für Kurzfristprognosen nicht enthalten sind. Hinzu kommt noch das Risiko einer Klimainstabilität, die nicht sicher prognostiziert werden kann.
Drittens schließlich: die Nachweisfrage. Läßt sich die von Modellen berechnete anthropogene Klimaerwärmung bereits heute in Beobachtungsdaten feststellen?
Sowohl der berechnete als auch der beobachtete Temperaturanstieg seit Ende des vergangenen Jahrhunderts beträgt etwa einen halben Grad. Diese Übereinstimmung könnte aber Zufall sein, da Klimaschwankungen dieser Größenordnung von einem Jahrhundert zum nächsten schon früher beobachtet wurden. In den letzten Dekaden nahmen aber beide Anstiege stärker zu.
Wendet man die sogenannte Fingerabdruckmethode auf die räumlichen Verteilungen dieser späteren Temperaturänderungen an, um das gesuchte Signal aus der Klimavariabilität möglichst gut herauszufiltern, kommt man zu dem Schluß, daß sich die beobachteten Temperaturänderungen mit einer geschätzten Wahrscheinlichkeit von nur fünf Prozent als natürliche Klimaschwankung erklären lassen – also mit 95 Prozent Wahrscheinlichkeit auf menschliche Einwirkungen zurückzuführen sind.
"Geschätzt" ist diese Wahrscheinlichkeit, weil es sich um ein Würfelexperiment handelt, bei dem die statistischen Eigenschaften des Würfels eben nur grob geschätzt werden können. Hierbei spielt unser begrenztes Verständnis der langperiodischen Klimaschwankungen aber nur eine untergeordnete Rolle. Die relevanten Schwankungen sind kurzfristig und werden vorwiegend aus instrumentellen Beobachtungsreihen und Modellrechnungen ermittelt.
Es wird häufig spekuliert, daß die globale Erwärmung schon heute zu einem häufigeren Auftreten von Stürmen, Dürren, Überschwemmungen und anderen extremen Wetterereignissen geführt habe. Obwohl deutliche Änderungen in der Häufigkeit extremer Ereignisse in der Zukunft zu erwarten sind, können diese heute noch nicht statistisch nachgewiesen werden. Bei einer globalen Erwärmung heute von nur einem halben Grad gegenüber Temperaturanomalien eines ungewöhnlich heißen Sommers von typischerweise fünf Grad ist dies nicht verwunderlich. Gravierende Auswirkungen der globalen Erwärmung werden sich nur schleichend im nächsten Jahrhundert einstellen. Auch beim Meeresspiegel ist der prognostizierte geringe Anstieg von ein bis zwei Zentimetern heute gegenüber den wesentlich größeren natürlichen Schwankungen nicht nachweisbar.
Fassen wir zusammen:
Unser Verständnis der natürlichen Klimavariabilität ist besonders zu den längeren Zeitskalen hin noch sehr lückenhaft. Dagegen sind wir sehr wohl in der Lage, das heutige Klima mit aufwendigen Klimamodellen in seinen wichtigsten Eigenschaften befriedigend zu simulieren, einschließlich seines kurzfristigen dynamischen Verhaltens. Dies gibt uns Vertrauen, daß die Modelle ebenfalls für Berechnungen der zukünftigen Treibhauserwärmung innerhalb der geschätzten Fehlergrenzen – einsetzbar sind. Ein anthropogenes Klimasignal ist heute mit hoher geschätzter Wahrscheinlichkeit erkennbar, aber die statistische Schätzung beruht auf einer noch unbefriedigenden Datenbasis. Man wird daher sicherlich auch weiterhin wissenschaftlich kontrovers über die Ursachen der langfristigen Klimavariabilität wie auch über die Sicherheit des Nachweises eines anthropogenen Klimasignals diskutieren. Hingegen besteht unter Experten hinsichtlich der Größenordnung der prognostizierten zukünftigen Klimaänderung bei einer weiterhin ungeregelten Zunahme der Treibhausgasemissionen kein nennenswerter Dissens.
Dies ist der Kernpunkt des Klimaproblems.
Die bisher eingetretene Temperaturerhöhung ist gegenüber dem prognostizierten Zweigradanstieg der globalen Mitteltemperatur bis zum Jahre 2100 unbedeutend. In höheren Breiten, besonders über den Kontinenten, werden deutlich höhere Temperaturerhöhungen von vier bis sechs Grad vorhergesagt. Im folgenden Jahrhundert können die Temperaturen noch mal um das Doppelte ansteigen, falls die Emissionen weiterhin auf hohem Pegel bleiben.
Eine Klimaänderung dieser Größe und Geschwindigkeit hat die Menschheit noch nicht erlebt; die Auswirkungen sind nicht vorhersehbar. Vor dieser Perspektive erscheint die Diskussion, ob wir heute schon die prognostizierte Klimaänderung einwandfrei erkennen können, akademisch und transient.
Aufgrund eines Vergleichs von Beobachtungen und Modellrechnungen ist zu erwarten, daß das anthropogene Signal in den nächsten Jahren deutlicher aus dem Hintergrund der natürlichen Klimavariabilität herauswachsen wird. Wenn wir aber abwarten, bis auch die letzten Zweifel überwunden sind, wird es zum Handeln zu spät sein.
Eine Schwierigkeit des politischen Handelns sowie auch der öffentlichen Haltung zum Klimaproblem ist die bewußte Einstellung auf dessen lange Zeithorizonte. Könnte die Politik mit diesen langen Zeitskalen umgehen, würde man erkennen, daß das Klimaproblem durchaus lösbar ist. Erforderlich ist eine langfristige, stetige Politik kleiner Schritte, die keine Dislokationen der Wirtschaft auslösen, aber dennoch über Jahrzehnte einen gleichmäßigen Übergang zu regenerativen Energietechnologien sicherstellen würde. Kyoto wäre ein Erfolg, wenn man zwar nur kleine erste Schritte beschließen (mehr ist wohl auch nicht zu erwarten), dafür aber eine längerfristige Politik verpflichtender progressiver Maßnahmen einleiten würde.
#
Klaus Hasselmann Professor und Nobelpreisträger (2021) Die Launen der Medien Die Zeit am 1.8.1997