Klimatologie
Martin Kappas
Klimatologie Klimaforschung im 21. Jahrhundert – Herausforderung für Natur- und Sozialwissenschaften
Autor Prof. Dr. Martin Kappas Geographisches Institut Universität Göttingen Goldschmidstr. 5 37077 Göttingen E-Mail:
[email protected]
Wichtiger Hinweis für den Benutzer Der Verlag, der Herausgeber und die Autoren haben alle Sorgfalt walten lassen, um vollständige und akkurate Informationen in diesem Buch zu publizieren. Der Verlag übernimmt weder Garantie noch die juristische Verantwortung oder irgendeine Haftung für die Nutzung dieser Informationen, für deren Wirtschaftlichkeit oder fehlerfreie Funktion für einen bestimmten Zweck. Der Verlag übernimmt keine Gewähr dafür, dass die beschriebenen Verfahren, Programme usw. frei von Schutzrechten Dritter sind. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Buch berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Der Verlag hat sich bemüht, sämtliche Rechteinhaber von Abbildungen zu ermitteln. Sollte dem Verlag gegenüber dennoch der Nachweis der Rechtsinhaberschaft geführt werden, wird das branchenübliche Honorar gezahlt.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer ist ein Unternehmen von Springer Science+Business Media springer.de
© Spektrum Akademischer Verlag Heidelberg 2009 Spektrum Akademischer Verlag ist ein Imprint von Springer 09 10 11 12 13
5 4 3 2 1
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Planung und Lektorat: Frank Wigger, Martina Mechler Redaktion: Dr. Petra Seeker Satz: TypoStudio Tobias Schaedla, Heidelberg Umschlaggestaltung: SpieszDesign, Neu-Ulm Titelfotografie: © picture-alliance/Picture Press/NASA/VRS Zeichnungen: Dr. Martin Lay, Breisach a. Rh.
ISBN 978-3-8274-1827-2
Humanity, long affected by earth’s changing climate, now plays an increasing role in shaping it.
Für
Lea und Sabine
Danksagung
Hiermit möchte ich mich bei allen Kolleginnen und Kollegen bedanken, die mich während der Entstehungsphase des Buches unterstützt haben – sei es für die vielen menschlichen und fachlichen Anregungen und Gespräche oder für die Nutzungserlaubnis der einen oder anderen Abbildung. Insbesondere möchte ich mich bei Michael H. Glantz für die Bereitstellung eines Arbeitsplatzes an der University of Colorado (Boulder) während meines erneuten Forschungssemesters im Frühjahr/Sommer 2009 bedanken; dies verschaffte mir neben anregenden Fachgesprächen die nötige Ruhe, mein Buch fertigzustellen. Für die gesamte Erstellungsphase habe ich mich beim Team von Spektrum Akademischer Verlag Heidelberg zu bedanken, das mich jederzeit kompetent und stets ansprechbereit begleitet hat. Hier sind insbesondere Herr Frank Wigger
als Planer und Frau Martina Mechler als Lektorin zu nennen. Die Zusammenarbeit mit ihnen war nicht nur lehrreich, hochgradig zielführend und kompetent, was die Bucherstellung anging, sondern hat auch jederzeit Spaß gemacht. Weiterhin möchte ich mich bei Frau Dr. Seeker für die Durchsicht des Manuskripts sowie bei Herrn Dr. Ley für die hervorragende Umsetzung meiner Grafik- und Abbildungsvorgaben bedanken. Zum Schluss möchte ich mich bei meiner Frau Sabine und meiner Tochter Lea bedanken, die, wie so oft, auf viel gemeinsame Zeit verzichtet haben, um mich stets durch Schaffung einer angenehmen „Atmosphäre“ in meiner Arbeit zu unterstützen.
Boulder, Colorado, Mai 2009 Martin Kappas
Vorwort: Warum ein neues Lehrbuch zur Klimatologie?
Die Klimatologie als systematische und quantitative Wissenschaft ist eine vergleichsweise junge Disziplin. Erst im vergangenen Jahrhundert wurde die herkömmliche, beschreibende Naturwissenschaft vom Klima durch eine physikalische Klimatologie abgelöst. Energetische Umwandlungsprozesse konnten mehr und mehr physikalisch abgebildet werden und sind somit quantifizierbar geworden. Dies spiegelt sich auch in der Entwicklung der Klimamodelle von einfachen Energiebilanzmodellen bis zu dreidimensionalen gekoppelten Atmosphäre-Ozean-Modellen wider. In den letzten Jahrzehnten ist die Klimatologie zu einer globalen „Systemwissenschaft“ des Klimasystems beziehungsweise des Erdsystems als Ganzes geworden. Die Klimaforschung hat sich zu einer modernen „Mega-Science“ entwickelt, die disziplinübergreifend und extrem problemgesteuert interdisziplinäre Fragestellungen angeht und in viele Forschungs- und Lebensbereiche des Menschen eingreift. Kernproblem beziehungsweise Kernfrage ist, in welcher Weise und in welchem Ausmaß der Mensch Verursacher und gleichzeitig Betroffener eines globalen Klimawandels ist. So rückt das Wissenschaftsgebäude der Klimatologie sehr nahe an gesellschaftliche Fragestellungen heran, ob es um die ökonomischen Folgen eines Klimawandels oder um die Sensibilität von Natur und Gesellschaft gegenüber Klimaänderungen geht. Die Klimaforschung und das Phänomen des Klimawandels sind im Alltag von Gesellschaft und Politik angelangt. Um diese gesellschaftliche und politische Relevanz zu vermitteln, ist eine Neukonzeption von Klimalehrbüchern erforderlich. Denn die reine Weitergabe von wissenschaftlichem Basiswissen und meteorologischen Gesetzen genügt nicht, um sich den Herausforderungen und gesellschaftlichen Rückkopplungen des Klimawandels zu stellen. Wir müssen über den Tellerrand der Einzel-
disziplinen blicken und zu einer in hohem Maße interdisziplinären Betrachtung unseres Erdsystems gelangen. Es ist heute unverzichtbar, wissenschaftliche Expertise in gesellschaftliche Verhaltens- und Handlungsweisen einfließen zu lassen und für politische Entscheidungsträger verfügbar zu machen. Dazu muss die Wissenschaft aber auch zugänglicher werden und sich bemühen, komplexe Inhalte der Gesellschaft allgemein verständlich aufzubereiten. Das vorliegende Lehrbuch soll ein Beitrag dazu sein. Im neusprachlichen Gebrauch wird in diesem Zusammenhang immer häufiger der Ausdruck „Capacity Building“ oder „Capacity Development“ verwendet. Die Vereinten Nationen (UN) definieren in ihrem Entwicklungsprogramm (Development Programme, UNDP) dieses Konzept wie folgt: „Capacity is the ability of individuals, organizations, and societies to perform functions, solve problems, and set and achieve goals. Capacity development entails the sustainable creation, utilization, and retention of that capacity in order to reduce poverty, enhance self-reliance, and improve people’s lives.“ „Capacity Building“ zeigt also Möglichkeiten für Individuen, Organisationen und Gesellschaften auf, bestimmte Funktionen und Handlungsoptionen wahrzunehmen, um Probleme zu lösen und Ziele zu setzen beziehungsweise zu erreichen. „Capacity Development“ entwickelt die weitere nachhaltige Nutzung der bereits erworbenen „Capacity“, um z. B. Armut zu reduzieren, die Eigenständigkeit des Einzelnen und der Gesellschaft zu stärken und das Leben der Menschen insgesamt zu verbessern. Ich verstehe mein Buch auch als Teil des „Capacity Building“ für die Klimaforschung. Die Motivation für dieses Werk entstand während eines Forschungssemesters im Sommer 2005
VIII
an der University of Colorado in Boulder (USA). Die interdisziplinären Zentren und Recherchemöglichkeiten am National Center for Atmospheric Research (NCAR) sowie der Austausch mit den verschiedenen „Klimaspezialisten“ dort (hier insbesondere die Zusammenarbeit mit Michael (Mickey) H. Glantz und die Beschäftigung mit seinem wissenschaftlichen Ansatz „Climate Affairs“ – sein gleichnamiges Buch erschien 2003) festigten in mir den Wunsch, ein Klimatologielehrbuch zu schreiben, in dem unsere Abhängigkeit vom Klima und die daraus resultierenden möglichen gesellschaftlichen Probleme des 21. Jahrhunderts im Mittelpunkt stehen. Konzeption des Lehrbuchs Konzeptionell gliedert sich das Buch in drei große Teile: I: Klimatologie als Wissenschaft II: Klimawandel und Global Change III: Wechselwirkungen: Klima – Mensch, Gesellschaft und Politik Diese drei Teile greifen insofern ineinander, als der Leser ausgehend von der Entwicklung des Wissenschaftsgebäudes der Klimatologie und von fundierter, wissenschaftlich gesicherter Basisinformation den Klimawandel beziehungsweise globalen Wandel selbständig nachvollziehen und weitere Aussagen dazu bewerten und kritisch reflektieren kann. Internationale und nationale Forschungsprogramme werden ebenso vorgestellt wie die zukünftige strategische Ausrichtung der Klimaforschung. Die beiden Kapitel des ersten Teiles schließen jeweils mit einer Zusammenfassung ( „Wichtig zu wissen“), die das zuvor ausführlich präsentierte Wissen in kompakter Form aufgreift und für den Leser überprüfbar macht. Ein weiteres Ziel dieses Lehrbuches besteht darin, die vorherrschende Fragmentierung des Wissenschaftsgebiets der Klimatologie zu durchbrechen, um dem Studierenden einen möglichst umfassenden und dennoch komprimierten Überblick über die aktuelle Forschungslandschaft zu vermitteln. Der Leser soll zudem angeregt werden, sich in weiterführenden Quellen (vor allem im Internet)* über die Entwicklung der Klimaforschung und ihre Strukturen zu informieren. Bereits Kapitel 1 gewährt dementsprechend einen ausführli-
Vorwort: Warum ein neues Lehrbuch zur Klimatologie?
chen Einblick in den Aufbau internationaler und nationaler Forschungskooperationen im Bereich der Klimatologie. Ein Schwerpunkt liegt dabei auf den vorhandenen Beobachtungssystemen; insbesondere die für Datenbeschaffung und Modellierung unseres Klimas wichtigen, zur Erd- und Atmosphärenbeobachtung eingesetzten Satellitensysteme werden hier ausführlich dargestellt. Im zweiten Buchteil „Klimawandel und Global Change“ werden in den Kapiteln 6 und 7 mehrere Fallbeispiele erläutert, die die Verzahnung des globalen Wandels mit dem Klimasystem sowie die Auswirkungen von Klimaveränderungen auf andere Systeme verdeutlichen. Hier stehen die Komplexität des Wirkungsgefüges und die gegenseitige Abhängigkeit von Rückkopplungen im Vordergrund; sie werden helfen, das Systemverständnis zu schärfen. Die Frage, was wir aus den Aussagen des 4. IPCC-Berichts lernen können (Kapitel 8), beschließt den zweiten Teil. Im Mittelpunkt des dritten Buchteils stehen die Auswirkungen des Klimawandels auf die Gesellschaft und die daraus erwachsenden notwendigen Anpassungsmaßnahmen (im gesellschaftlichen und politischen Rahmen). Die Darstellungen zu Klima und Mensch (Kapitel 9), Klima und Gesellschaft (Kapitel 10) sowie Klima und Politik (Kapitel 11) sollen den Stellenwert der Klimatologie für eine nachhaltige Entwicklung unserer Gesellschaft verdeutlichen; insbesondere die Bedeutung der Forschung für die politische Entscheidungsfindung ist hier hervorzuheben. Die Vernetzung „harter“ naturwissenschaftlicher Erkenntnisse mit „weichen“ gesellschaftswissenschaftlichen beziehungsweise sozioökonomischen Fragestellungen ist mein persönliches Anliegen.
*Um die Lesbarkeit des Buchtextes nicht durch eine Vielzahl von eingefügten Internet-Links (mit ihren oft langen URLs) zu erschweren, sind alle Hinweise auf relevante Websites unter www.spektrum-verlag.de/978-3-38274-1827-2 kapitelweise zusammengefasst und können von dort mit einem Mausklick angesteuert werden. An den entsprechenden „Anker-Stellen“ im Buch steht ein kleines Maussymbol im Text. Weitere Orientierungshilfen für den Leser sind ein Glossar wichtiger Fachbegriffe (S. 325) sowie eine Liste der zahlreichen in diesem Bereich geläufigen und im Buch verwendeten Akronyme (S. 335). Ein Literaturverzeichnis weist Quellen und weiterführende Veröffentlichungen aus (S. 319), ein ausführlicher Index erschließt den Inhalt des Werkes (S. 341). Die Farbtafeln sind zur leichteren Auffindbarkeit mit einem blauen Balken am Buchrand gekennzeichnet (S. 309).
Vorwort: Warum ein neues Lehrbuch zur Klimatologie?
IX
Genau hierin liegt wohl auch der wesentliche Unterschied des vorliegenden Werkes zu bereits bestehenden, hervorragend verfassten Lehrbüchern zur Klimatologie. Ich hoffe, dass dieses Lehrbuch dazu beiträgt, in den Köpfen der Menschen ein neues aufgeklärtes Klimabewusstsein zu entwickeln, und dass es sie dazu ermutigt, sich mit dem Phänomen Klima insgesamt, ihrem eigenen Verhalten und Handeln sowie dem gesetzten politischen und gesellschaftlichen Rahmen auseinanderzusetzen.
Boulder, Colorado, Mai 2009 Martin Kappas
Inhalt Teil I Klimatologie als Wissenschaft 1
Klima als interdisziplinärer und internationaler Forschungsschwerpunkt . . . . . . . . .3
1.1 1.1.1
Das Weltklimaprogramm . . . . . . . . . . . . . . 6 Das Weltklimaforschungsprogramm (WCRP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Erdsystemforschung – die Gründung des ESSP (Earth System Science Partnership) . . . . . . . . . . . . . . . . . . . . . . . . 12 Klimaerfassung – Messnetze und Beobachtungssysteme . . . . . . . . . . . . . . . . 14 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung . . . . . . . . . . . . . . . . . . . . . 21 Fernerkundung – Was ist das? . . . . . . . . 22 Satellitensysteme für die Klima- und Global-Change-Forschung . . . . . . . . . . . . 26
1.1.2
1.2 1.3
1.3.1 1.3.2
2
Basiswissen und Grundgesetze der Klimatologie . . . . . . . .71
2.1
Zusammensetzung und Aufbau der Atmosphäre . . . . . . . . . . . . . . . . . . . . . 71 Die Sonnenstrahlung – Energiequelle allen Lebens . . . . . . . . . . . . . . . . . . . . . . . . 74 Parameter des solaren Klimas: Erdrevolution, Beleuchtungsklima und Jahreszeiten . . . . . . . . . . . . . . . . . . . . 74 Der Einfluss der Atmosphäre auf die Sonnenstrahlung . . . . . . . . . . . . . . . . . 78 Die Globalstrahlung . . . . . . . . . . . . . . . . . 79 Wärmehaushalt der Atmosphäre: fühlbarer und latenter Wärmestrom . . . 82 Der natürliche Treibhauseffekt und seine strahlungsaktiven Gase . . . . . . . . . . 84 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem . . . . . . . . 86 Die Ausdehnung der Luft bei Erwärmung – der Luftdruck . . . . . . . . . . 90 Temperaturverteilung in der Atmosphäre . . . . . . . . . . . . . . . . . . . . . . . . 91
2.2 2.3
2.4 2.5 2.6 2.7 2.8 2.8.1 2.8.2
2.8.3 2.8.4 2.9 2.9.1 2.9.2
2.10 2.10.1 2.10.2 2.10.3 2.10.4 2.11 2.11.1 2.11.2 2.11.3 2.11.4 2.11.5 2.11.6 2.12 2.12.1 2.12.2
Niederschlag und Wasserkreislauf . . . . . 98 Verdunstung und Niederschlag . . . . . . . . 98 Dynamik der Atmosphäre . . . . . . . . . . . 104 Wirksame Kräfte in der Atmosphäre . . . 104 Zyklone und Antizyklone als Beispiel der atmosphärischen Dynamik in der Westwinddrift . . . . . . . 108 Die allgemeine atmosphärische Zirkulation . . . . . . . . . . . . . . . . . . . . . . . . 109 Die außertropische WestwindZirkulation . . . . . . . . . . . . . . . . . . . . . . . . 113 Die tropische Passat- und Monsunzirkulation . . . . . . . . . . . . . . . . . 116 Die äquatoriale Zonal- oder Walker-Zirkulation . . . . . . . . . . . . . . . . . 118 Die Ostwindzirkulation über den Polen . . . . . . . . . . . . . . . . . . . . . . . . . 119 Telekonnektionen . . . . . . . . . . . . . . . . . . 121 ENSO (El Niño – Southern Oscillation) . . . . . . . . . . . . . . . . . . . . . . . . 122 Madden-Julian-Oszillation (MJO) . . . . 136 Nordatlantik-Oszillation (NAO) . . . . . . 137 Die Arktische Oszillation (AO) . . . . . . . 139 West Pacific Pattern (WP) . . . . . . . . . . . 140 Quasi-Biennial-Oszillation (QBO) . . . . 141 Klimate der Erde – Klimaklassifikationen . . . . . . . . . . . . . . . 142 Genetisch-dynamische Klimaklassifikationen . . . . . . . . . . . . . . . 142 Effektive Klimaklassifikationen . . . . . . . 143
Teil II Klimawandel und Global Change 3
Zentrale Aussagen zum Klimawandel . . . . . . . . . . . . . . . . . . 153
4
Kennwerte des Klimawandels und des globalen Wandels . . . . 155
4.1
Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen . . . . . . . . . . . . . . . . 159
XI
Inhalt
4.1.1 4.1.2 4.1.3 4.2
Kohlendioxid . . . . . . . . . . . . . . . . . . . . . . 159 Methan . . . . . . . . . . . . . . . . . . . . . . . . . . . 169 Stickoxid . . . . . . . . . . . . . . . . . . . . . . . . . . 171 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe, des troposphärischen und stratosphärischen Ozons sowie der Aerosole . . . . . . . . . . . . 173 Fluorkohlenwasserstoffe (HFC), vollhalogenierte Fluorkohlenwasserstoffe (PFC) und Schwefelhexafluorid (SF6) . . 173 Troposphärisches Ozon . . . . . . . . . . . . . 175 Stratosphärisches Ozon . . . . . . . . . . . . . 175 Aerosole . . . . . . . . . . . . . . . . . . . . . . . . . . 180 Sozioökonomische Entwicklung der Welt (SRES-Szenarien) . . . . . . . . . . 181
7.1.2
5
Schlüsselthemen des Klimawandels . . . . . . . . . . . . . . . . . 185
8.2
5.1
Veränderungen des globalen Wasserhaushalts, der Wolkenbildung und Niederschlagsverteilung auf der Erde – der aktuelle Wissensstand . . . . . . . . . . 185 Klimawandel und Wasser . . . . . . . . . . . . 187 Klimawandel und Landwirtschaft . . . . 190 Klimawandel und Desertifikation . . . . . 196 Klimawandel, Wetteranomalien und Singularitäten . . . . . . . . . . . . . . . . . . 200
8.2.1
4.2.1
4.2.2 4.2.3 4.2.4 4.3
5.2 5.3 5.4 5.5
7.2 7.2.1
7.2.2
8
Was können wir aus dem vierten IPCC-Bericht lernen? . . . 237
8.1
Wissenschaftliches Verständnis des Klimawandels im Hinblick auf Anpassungsmaßnahmen . . . . . . . . . . . . 238 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht? . . . . 239 Handlungsbedarf: Dynamik der Eisschilde der Erde . . . . . . . . . . . . . . . . . 240 Handlungsbedarf: Veränderungen im Wasserhaushalt der Erde . . . . . . . . . 240 Handlungsbedarf: Atlantische Meridionalzirkulation im Ozean (AMOC) . . . . . . . . . . . . . . . . . . . . . . . . . . 241 Handlungsbedarf: Methanfreisetzung . . . . . . . . . . . . . . . . . . . . . . . . 243 Handlungsbedarf: Landoberflächenprozesse, Kohlenstoffzyklus und biogeochemische FeedbackMechanismen . . . . . . . . . . . . . . . . . . . . . . 243 Handlungsbedarf: Aerosol-WolkenInteraktion und Radiative Forcing . . . . 244 Handlungsbedarf: Regionalisierung der Modellprojektionen – Downscaling . . . 245 Handlungsbedarf: Entwicklung von Schnittstellen zwischen Politik und Wissenschaft . . . . . . . . . . . . . . . . . . 245
8.2.2 8.2.3
8.2.4 8.2.5
6
Fallstudie Kryosphäre . . . . . . . . . 205
6.1 6.2
Variabilität des arktischen Klimas . . . . 205 Die Nordatlantische und die Arktische Oszillation . . . . . . . . . . . . . . . 206 Arktische Stratosphäre . . . . . . . . . . . . . 207 Arktische Troposphäre . . . . . . . . . . . . . . 208 Strahlungsverhältnisse in der Arktis . . . 208 Wolken und Niederschlag in der Arktis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209 Aerosole in der Arktis und ihre Quellen . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 Klimawirkung der Aerosole . . . . . . . . . . 211 Arktischer Dunst (Arctic Haze) . . . . . . 211 Ozon in der Arktis . . . . . . . . . . . . . . . . . 212 Der Arktische Ozean . . . . . . . . . . . . . . . 214 Eis in der Arktis . . . . . . . . . . . . . . . . . . . . 216
6.3 6.4 6.5 6.6 6.7 6.8 6.9 6.10 6.11 6.12
7
Fallstudie Klima und Gesundheit . . . . . . . . . . . . . . . . . . . . 221
7.1
Fallbeispiel: Klimawandel und Hautkrebsgefährdung . . . . . . . . . . . . . . . 225 Einflussfaktoren auf die auf der Erde auftreffende UV-Strahlung . . . . . . . . . . 228
7.1.1
Messwerterfassung und UVIVorhersage . . . . . . . . . . . . . . . . . . . . . . . . 228 Fallbeispiel: Klimawandel und die afrikanische Malaria . . . . . . . . . . . . . . . . 231 Auswirkungen von Temperaturveränderungen auf die Malariaübertragung . . . . . . . . . . . . . . . . . . . . . . . 232 Auswirkungen von Niederschlagsveränderungen auf die Malariaübertragung . . . . . . . . . . . . . . . . . . . . . . . 232
8.2.6 8.2.7 8.2.8
Teil III Wechselwirkungen: Klima – Mensch, Gesellschaft und Politik 9
Klima und Mensch . . . . . . . . . . . . 249
9.1
Klimaentwicklung und Evolution des Menschen . . . . . . . . . . . . . . . . . . . . . . . . . 249 Gattung Homo – Werkzeuge, Mobilität und Intelligenz . . . . . . . . . . . . . . . . . . . . . 252
9.1.1
XII
10
Klima und Gesellschaft . . . . . . . . 259
10.1 10.2
Klima und Gesellschaft im Holozän . . . 259 Klima und Gesellschaft seit der industriellen Revolution . . . . . . . . . . . . . 264 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch . . . . . . . . . . . . . . 269
10.3
11
Inhalt
11.5
Global Governance – das Konzept des Handelns im politischen Mehrebenensystem . . . . . . . . . . . . . . . . . . . . . . 296 11.5.1 Herausforderungen für Natur- und Sozialwissenschaften auf globaler und lokaler Ebene . . . . . . . . . . . . . . . . . . 297 11.5.2 Innovationsorientierte Umweltpolitik . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
Klima und Politik . . . . . . . . . . . . . . 277
11.1 Internationale Klimapolitik . . . . . . . . . . 280 11.1.1 Der UNFCCC-Prozess . . . . . . . . . . . . . . 281 11.1.2 Quantifizierung klimawirksamer anthropogener Tätigkeiten für politische Entscheidungsprozesse . . . . . . . . . . . . . . 283 11.1.3 Der Emissionshandel im Rahmen des Kyoto-Protokolls . . . . . . . . . . . . . . . . 285 11.1.4 Die flexiblen Instrumente des KyotoProtokolls: Joint Implementation und Clean Development Mechanism . . . . . . 287 11.2 Klimapolitik auf EU-Ebene . . . . . . . . . . 289 11.3 Nationale Klimapolitik – Das Beispiel Deutschland . . . . . . . . . . . . . . . . . . . . . . . 291 11.4 Die Deutsche Anpassungsstrategie an den Klimawandel (DAS) . . . . . . . . . . 293
12
Klimawandel: eine andauernde Kontroverse und Herausforderung für Natur- und Sozialwissenschaft . . . . . . . . . . . . 303
Farbtafeln. . . . . . . . . . . . . . . . . . . . . . 309 Literatur . . . . . . . . . . . . . . . . . . . . . . . 319 Glossar . . . . . . . . . . . . . . . . . . . . . . . . 325 Akronyme. . . . . . . . . . . . . . . . . . . . . . 335 Index . . . . . . . . . . . . . . . . . . . . . . . . . . 341
Teil I Klimatologie als Wissenschaft 1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt 2 Basiswissen und Grundgesetze der Klimatologie
Die Klimatologie oder Klimaforschung ist keine scharf abgegrenzte, geschlossene Wissenschaft, sondern beschäftigt sich als ein Teilgebiet der Meteorologie und der Geographie mit den physikalischen Erscheinungen der Lufthülle der Erde und ihrer Interaktion mit den Gegebenheiten der Erdoberfläche in Raum und Zeit. Während in der Meteorologie stärker die Physik der Atmosphäre betrachtet wird, untersucht die Klimageographie die Beziehungen und Wechselwirkungen zwischen den Prozessen in der Atmosphäre und den Gegebenheiten auf der Erdoberfläche. Hierbei steht die Typisierung und Gliederung von klimatischen Raumeinheiten im Vordergrund. Die Klimatologie gliedert sich in vier Teildisziplinen:
• Die Allgemeine Klimatologie bzw. Theoretische Klimatologie untersucht die Physik der Atmosphäre. Im Mittelpunkt stehen dabei die Zusammensetzung und der Aufbau der At-
mosphäre, die Solarkonstante, der Strahlungshaushalt, der Wärmehaushalt, die Lufttemperatur, der Wasserhaushalt, der Niederschlag, der Luftdruck und der Wind, die planetarische Zirkulation sowie die Entwicklung von Klimamodellen. • Die Regionale Klimatologie beschäftigt sich mit Witterung und Klima in ausgewiesenen Klimazonen, wie den Tropen, Subtropen, der außertropischen Westwindzone oder den Polargebieten. • Die Spezielle Klimatologie untersucht Klimaänderungen und erforscht die Klimageschichte. Sie beschäftigt sich mit Klimafolgenforschung, etwa dem Treibhauseffekt und der globalen Erwärmung, sowie mit der Verwundbarkeit (Vulnerabilität) der vom Klimawandel betroffenen Systeme. • Die Angewandte Klimatologie beschäftigt sich mit Lösungen für das Problem des Klimawandels, insbesondere mit dem Klimaschutz und der Anpassung an den Wandel.
2
Außerdem haben sich innerhalb der Klimatologie viele Spezialgebiete und Unterdisziplinen entwickelt, die man im weiteren Sinne der Speziellen Klimatologie zuordnen kann:
• Die Klimageographie untersucht die Wechselwirkung des Klimasystems mit anderen Systemen (z. B. Ökosystemen). Hierzu gehören auch die Stadt- und die Geländeklimatologie. • Die Bioklimatologie beschäftigt sich mit den Einflüssen des Klimas auf die Lebewesen, insbesondere auf den Menschen. • Die Paläoklimatologie untersucht die Klimageschichte und geht dem Klima vergangener Zeiten bis zu den frühen Formen der Erdatmosphäre nach. Sie nimmt heute eine zentrale Stellung in der Klimatologie ein. • Die Strahlungsklimatologie untersucht die Wirkungen der Strahlung auf Klima und Le-
Teil I Klimatologie als Wissenschaft
bewesen (z. B. UV-Strahlung und Hautschädigung). • Die Energiemeteorologie ist ein junger Wissenschaftszweig an der Schnittstelle zwischen Erneuerbaren Energien und Atmosphärenphysik. Ziel ist die Entwicklung von Methoden und die Gewinnung von Daten zur Charakterisierung der fluktuierenden Energieerzeugung aus Solar-, Wind- und Bioenergie. Die Aufzählung der Teildisziplinen und Spezialgebiete zeigt die enorme Vernetzung der Klimatologie mit anderen Wissenschaftsbereichen. Insgesamt untersucht und erforscht die Klimatologie als Wissenschaft die Gesetzmäßigkeiten des Klimas, dessen Eigenschaften, Entwicklung und Erscheinungsbild. Sie agiert dabei in einem interdisziplinären und internationalen Forschungsfeld.
1
Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Die Klimatologie ist die Lehre vom Klima und dessen charakteristischer räumlicher und zeitlicher Veränderung. Nach heutigem Verständnis ist die Klimatologie untrennbar mit der gleichzeitigen ökologischen Betrachtung unserer Erde und der menschlichen Einflüsse auf dieses System verknüpft, so dass sie immer stärker von einer übergreifenden Sichtweise des Systems Atmosphäre – Erde – Mensch (Erdsystem-Denken) bestimmt wird. Seit der Mensch existiert, greift er in vielfältiger Weise in das Erdsystem ein und verändert somit die Wirkungszusammenhänge zwischen Atmosphäre und Erde. Problematisch sind diese menschlichen Eingriffe nicht zuletzt deshalb, weil sie Auswirkungen auf das Erdsystem haben können, die nicht vollständig vorhersehbar sind. Denn die Zusammenhänge in diesem hoch komplexen System Atmosphäre – Erde – Mensch sind immer noch zu wenig verstanden. Vergleichbar ist dies mit dem Problem der Wechselwirkungen eines Medikaments im Körper eines Menschen. Es gibt hinreichend Beobachtungen zu den Auswirkungen des Medikaments im Allgemeinen, jedoch besteht immer eine gewisse Unsicherheit über die Kausalzusammenhänge der Wirkung für jedes Individuum. Unter Klima versteht man, vereinfacht ausgedrückt, die mittlere Statistik des Wettergeschehens für eine bestimmte Zeitperiode (z. B. für eine Klimanormalperiode: 1961–1990) und ein bestimmtes Gebiet. Die statistischen Eigenschaften des Klimas sind dabei abhängig vom gewählten räumlichen und zeitlichen Maßstab.
Klimanormalperiode (Abk. CLINO), 30-jährige Bezugsintervalle wie 1901–1930, 1931–1960 und 1961–1990, auf die zur besseren Vergleichbarkeit die Statistiken der Klimadaten einzelner Beobachtungsstationen bzw. Länder bezogen werden (auf Empfehlung der Weltorganisation für Meteorologie, Vorläufer der Internationalen Organisation für Meteorologie).
Seit 1935 wird für die Klimabeschreibung von der Internationalen Organisation für Meteorologie (WMO) ein Zeitraum von 30 Jahren zur statistischen Berechnung des Klimas festgelegt. Nach zeitreihenanalytischen Aspekten ist dieser Zeitraum notwendig, um signifikante Charakteristika des makroskaligen Klimas abzuleiten. Die Klimatologie als Wissenschaft hat somit die Aufgabe, ein theoretisches Gebäude zu entwickeln, welches die im Klimasystem ablaufenden Prozesse beschreibt. Das Klimasystem besteht aus der Atmosphäre, den Ozeanen, der Kryosphäre, der Erdoberfläche mit der zugehörigen Biosphäre sowie dem Menschen als Akteur (▶ Abschnitt 2.8). Die in diesem komplexen System ablaufenden Prozesse sind derart kompliziert, dass es unmöglich ist, eine wissenschaftliche Theorie im klassischen Sinne zu entwickeln beziehungsweise aufrechtzuerhalten. Die Ableitung geeigneter Parametrisierungen der Prozesse und zugehöriger Modelle zum Klima der Erde geht weit über die Möglichkeiten einer Nation und einer wissenschaftlichen Disziplin hinaus. Insbe-
4
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
103 bis 104 km), auch Zonenklima, Globales Klima oder Großraumklima genannt, • Mesoklima (räumlicher Maßstab: von etwa > 1 km bis ca. 102 km), auch Landschaftsklima oder Regionalklima genannt, • Mikroklima (räumlicher Maßstab: von der Bodenoberfläche bis ca. 1 km), auch Grenzflächenklima, Topoklima, Standortklima oder Lokalklima genannt.
Intergovernmental Panel on Climate Change (IPCC), Zwischenstaatlicher Ausschuss über Klimaänderungen, kurz „UN-Weltklimarat“, von den Vereinten Nationen unter Federführung der Weltorganisation für Meteorologie und UNEP (United Nations Environment Program) 1988 begründetes Gremium mit der Aufgabe, den Sachstand zur Klimaproblematik, insbesondere der anthropogenen Klimabeeinflussung, wissenschaftlich zu erfassen, zusammenfassend zu berichten und Maßnahmenempfehlungen auszuarbeiten. Zu diesem Zweck erstellt das Gremium (bestehend aus etwa 2 500 Forschern und Vertretern von mehr als 100 Regierungen) in drei Arbeitsgruppen (Wissenschaft, Auswirkungen von Klimaänderungen, politische Konsequenzen) Statusberichte und Empfehlungen zum Problemkreis der anthropogenen globalen Klimaänderungen. Der 2007 erschienene 4. IPCCStatusbericht („Klimareport“) zeigt die Verantwortung des Menschen für die globale Erwärmung so deutlich auf wie nie zuvor. Der UN-Weltklimarat und der ehemalige US-Vizepräsident Al Gore erhielten 2007 den Friedensnobelpreis für ihren Kampf gegen den Klimawandel.
sondere vor dem Hintergrund des Klimawandels besteht der Zwang zu internationaler und interdisziplinärer Ausrichtung der Klimaforschung, die sich im Weltklimaforschungsprogramm (WCRP, ▶ Abschnitt 1.2) manifestiert. Die Forschungsausrichtung der Klimatologie entspricht immer mehr der einer „Mega-Science“. Die überwiegende Mehrzahl der Wissenschaftler geht heute davon aus, dass sich das weltweite Klima verändert und ein erheblicher Teil dieser Klimaänderung auf menschliche Aktivitäten und Einflüsse zurückgeht. Der wissenschaftliche Beirat für Klimawandel (Intergovernmental Panel on Climate Change, IPCC), kurz Weltklimarat, hat dies in seinem letzten Report im Jahr 2007 verdeutlicht. Nach Schätzungen des internationalen Expertengremiums wird die globale Durchschnittstemperatur im 21. Jahrhundert schneller ansteigen als während der zurückliegenden einhundert Jahre, in denen die globale Temperaturzunahme etwa 0,7 °C betrug. Gleichwohl sind alle bisherigen Prognosen und Vorhersagen mit erheblichen Unsicherheiten behaftet. Das weltweite Klima hängt von einem vielfältigen Geflecht von Einflussfaktoren ab. Atmosphäre, Ozean, Erdoberfläche und Ve-
getation weisen hoch komplexe wechselseitige Einflüsse und Abhängigkeiten in ihren Energie- und Stoffkreisläufen auf. Hinzu kommen die zahlreichen anthropogenen Einflussfaktoren, darunter vor allem die Bevölkerungsentwicklung und das weltweite Wirtschaftswachstum, welche unmittelbar Einfluss auf die Energienachfrage und Energieversorgung sowie die Landnutzung haben. Beispielhaft sind in diesem Zusammenhang die Intensivierung der Landwirtschaft, die Entwaldung oder die Landschaftsfragmentierung zu nennen. Generell hängen diese Entwicklungen mit dem Phänomen der Globalisierung zusammen. Doch niemand kann genau voraussagen, wie sich der Ausstoß von Treibhausgasen sowie die weltweite Ressourcennutzung in Zukunft entwickeln werden. Auch die technologische Entwicklung sowie der Technologietransfer beispielsweise von den Industrieländern in die Entwicklungsländer tragen zur Unsicherheit in der Einschätzung der zukünftigen Entwicklung bei. Des Weiteren ist unsicher, wie sich die globale Klimaentwicklung auf bestimmte Regionen der Erde auswirken wird. Komplexe Modelle versuchen Ursachen und Wirkungen mithilfe mathe-
Skalenbereiche in der Klimatologie Die Maßstababhängigkeit des Klimas ist seit langem unbestritten, dennoch gibt es keinen international durchgängig eingehaltenen Standard für die Skalenbereiche. Grundsätzlich setzt sich das Klima eines Ortes aus einem Makro-, Meso- und Mikroanteil zusammen. Folgende Größeneinteilungen und Begriffe werden für Makro-, Meso- und Mikroklima verwendet:
• Makroklima (räumlicher Maßstab: von etwa
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
matischer Modelle nachzubilden. Aber selbst die aktuellsten Klimamodelle müssen von bestimmten Annahmen ausgehen und unterliegen deshalb auch gewissen Unsicherheiten. Doch gerade in der Entwicklung der Klimamodelle konnten in den letzten Jahren große Fortschritte erzielt werden. So ist etwa bezüglich der räumlichen Auflösung eine stetige Verbesserung der Modelle von Sachstandsbericht (Assessment Report) zu Sachstandsbericht zu beobachten. Der erste Assessment Report (First AR, FAR) des IPCC (1990) benutzte das T21-Modell mit einer weltweiten Maschenweite von etwa 500 km (FAR). Der zweite Report (SAR, 1996) setzte auf dem T42-Modell auf und halbierte die Maschenweite auf 250 km. Im dritten Report (TAR, 2001) gab es eine erneute Optimierung der räumlichen Auflösung auf 180 km (T63-Modell), welche im aktuellen, vierten Report nochmals auf 110 km (AR4, 2007) verbessert werden konnte. Neben der horizontalen Auflösung wurde auch die vertikale Struktur der Modelle stetig weiterentwickelt. Von anfänglich zehn vertikalen Schichten (layer) liegen heute über 30 Informationsniveaus für Atmosphäre und Ozean vor. Trotz dieser enormen Fortschritte in der Klimamodellierung ergibt sich für die Staaten der Erde eine enorme Unsicherheit im regionalen bis lokalen Maßstab. Daraus resultiert ein generelles Problem für politische Entscheidungsträger im 21. Jahrhundert: Sie treffen Entscheidungen bei unsicherer Entscheidungsgrundlage und unter starkem Zeitdruck. Die zukünftige Klimaforschung muss daher die bestehenden Unsicherheiten verringern, um der Politik bessere Entscheidungsgrundlagen liefern zu können. Hier ist die Klimatologie als international ausgerichtete und disziplinübergreifende Wissenschaft gefordert. Allerdings erfordert dies auch geeignete Strukturen für eine internationalisierte Forschungslandschaft sowie politische Entscheidungsinstrumente (global governance). Michael H. Glantz vom National Center for Atmospheric Research (NCAR, Boulder, Colorado) prägte in diesem Zusammenhang den Begriff „Climate Affairs“. In seinem gleichnamigen Buch (2003, S. 13) beschreibt er die Bedeutung der „Denkweise Climate Affairs“ wie folgt: „Der Begriff ‚Climate Affairs‘ umfasst die Klimaforschung sowie mögliche zukünftige Einflüsse auf Politik, Gesetzgebung, Wirtschaftssys-
5
teme und ethische Fragestellungen der Gesellschaftsentwicklung.“ Diese Denkweise verweist abermals auf die umfassende Ausrichtung der Klimaforschung und begreift das zukünftige Klima der Erde als neuartige Herausforderung für Natur- und Sozialwissenschaften. Die enge Verzahnung der Ergebnisse der quantitativen Naturwissenschaften mit den Ansprüchen von Gesellschaft und Politik im Wissens- und Entscheidungsprozess ist zwingend notwendig und der Aufbau geeigneter Strukturen angemahnt. Umso erwähnenswerter ist ein Papier des Wissenschaftlichen Beirats der Bundesregierung zum Thema Globale Umweltveränderungen (WBGU), der im Juli 2007, kurz nach Erscheinen des vierten IPCC-Reports die Initiative „DENKEN“ formuliert hat (WBGU 327). Das Akronym DENKEN steht für „Deutsches Exzellenz Netzwerk Klima, Energie, Nachhaltigkeit“. Die Kernfrage dieses Netzwerks lautet: „Wie organisiert man Forschung zum Klimawandel unter hohem Handlungsdruck?“ Zentrale Aussage des WBGU-Papiers ist also die strategische Notwendigkeit der Bildung einer neuen interdisziplinären Wissenschaftsstruktur, eines Netzwerkes, sowie die Entwicklung einer Klimaschutzstrategie, die auf dem aktuellsten Stand der Technik aufbaut und alle maßgeblichen Akteure (Bürger, Mittelstand, Industrie, Wissenschaftler, Politikverantwortliche usw.) einbindet. Die Tendenz zur Netzwerkbildung ist auf allen Ebenen der Klimaforschung, national und international, zu finden (z. B. problemspezifische Netzwerke im Bereich Klimawandel und Desertifikation oder im Bereich Klimawandel und Gesundheit – Hautkrebs: DesertNet, EuroDesertNet oder CLIMAderm). Dies bedeutet aber auch, dass der wissenschaftlich Interessierte, Wissenschaftler beziehungsweise politische Entscheidungsträger über die bestehenden Forschungsstrukturen und Netzwerke sowie deren Strategien Kenntnis haben müssen, um deren Kompetenz und Ergebnisse nutzen zu können. In der Forschungslandschaft ist jedoch eine starke Fragmentierung zu beobachten, die einen Überblick zunehmend erschwert. Eine Übersicht nationaler und internationaler Klimaforschungsprogramme in ▶ Abschnitt 1.2 soll diesem Trend entgegenwirken und kann dem wissenschaftlich interessierten Leser als „roter Faden“ dienen.
6
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
DENKEN (Auszug aus dem WBGU-Papier 327, Juli 2007) Der WBGU sieht in seinem Papier die folgenden strategischen Aufgaben der Forschung zum Klimawandel als prioritär an: 1. die Klärung wichtiger offener Punkte im Verständnis des Klimasystems, die insbesondere die Prognosefähigkeit evaluieren und verbessern; 2. die Erarbeitung von Anpassungsstrategien für Deutschland, Europa und die globale Staatengemeinschaft (insbesondere die Entwicklungs- und Schwellenländer); 3. die Entwicklung von Roadmaps für technologische und systemische Innovationen zur Vermeidung gefährlichen Klimawandels sowie die Forschung zur Diffusion von Innovationen; 4. die Identifizierung und Bewertung politischer und ökonomischer Innovationen für einen zu-
1.1 Das Weltklimaprogramm Im Folgenden werden auch die englischen Abkürzungen und Bezeichnungen verwendet, um den Einstieg in die internationale Klimaforschung zu erleichtern. International sind Akronyme wie WCP, IPCC, UNEP verbindlich und werden auch in der wissenschaftlichen Literatur verwendet (eine Liste der wichtigsten Akronyme findet sich im Anhang). Das aktuelle Weltklimaprogramm (World Climate Programme, WCP) baut auf den Ergebnissen der Vorgängerprogramme auf und empfiehlt wichtige Forschungsthemen für die unmittelbare Zukunft (in der Regel für einen Zeitraum von 10 Jahren). Seine Geschichte beginnt Mitte der 1970er-Jahre. Ereignisse wie die Dürren in der afrikanischen Sahel-Zone warfen erstmals die Frage nach einem international abgestimmten Programm zur Erforschung des Klimas und seiner Veränderungen auf. Im Mai 1974 wurde deshalb auf der 26. Tagung des Exekutivrates der meteorologischen Weltorganisation beschlossen, ein international abgestimmtes Programm zur Klimaforschung in den nächsten Jahren aufzulegen.
kunftsfähigen Umgang mit dem Klimawandel und die internationale Regimebildung (Post2012-Regime); 5. die Forschung zum Beitrag der Zivilgesellschaft zu Klima- und Ressourcenschutz. Die Präzisierung der Forschungsfragen sollte bedarfsorientiert von Wissenschaft, gesellschaftlichen und politischen Stakeholdern sowie vom BMBF (Bundesministerium für Bildung und Forschung) vorgenommen werden. Die Bundesregierung kann diese Ziele nach Einschätzung des WBGU am besten mithilfe einer Doppelstrategie erreichen: 1. durch Gründung eines interdisziplinären Exzellenz-Netzwerks der Wissenschaft, 2. durch eine „Hightech-Strategie zum Klimaschutz“ gemeinsam mit der Industrie.
Die Weltorganisation für Meteorologie (franz. Organisation Météorologique Mondiale, OMM; engl. World Meteorological Organization, WMO) ist eine Sonderorganisation der Vereinten Nationen für Meteorologie, Hydrologie und Geophysik. Die staatenübergreifende Einrichtung mit Hauptsitz in Genf hat (2007) 188 Mitgliedsländer. Die WMO ging 1950 aus der bereits 1873 gegründeten International Meteorological Organization (IMO) hervor. Die WMO versteht sich als Stimme der UN bezüglich des Zustands und Verhaltens der Erdatmosphäre, ihrer Wechselwirkung mit den Ozeanen, des daraus entstehenden Klimas und Verteilung von Wasserressourcen. Die Arbeit der WMO ist in zehn wissenschaftliche und technische Programme gegliedert, die jeweils aus Unterprogrammen bestehen. Wichtigstes Programm ist das World Weather Watch Programme (WWWP), das weltweit auf über 10 000 Klimastationen zurückgreift und Standards für die Messung, den Austausch und die Verarbeitung meteorologischer Daten entwickelt. Im Jahr 1979 veranstaltete die WMO in Genf die erste Weltklimakonferenz (World Climate Conference, WCC) mit dem Ergebnis, ein Rahmenprogramm mit Empfehlungen zur weltweiten Klimaforschung, ein Weltklimaprogramm (WCP),
7
1.1 Das Weltklimaprogramm
zu konzipieren. Dieses Programm wurde dann unter Mitwirkung des Umweltprogramms der Vereinten Nationen (United Nations Environment Programme, UNEP) und des Internationalen Rats der Wissenschaftlichen Unionen (International Council of Scientific Unions, ICSU) ins Leben gerufen. Das Weltklimaprogramm (WCP) lässt sich seit 1980 in vier Komponenten gliedern und wurde inhaltlich immer wieder den wissenschaftlichen Herausforderungen angepasst. So wurden die ersten drei Programme auf dem 11. Kongress der WMO (1991) der gestiegenen Bedeutung des Klimamonitoring und der Aktivitäten der Klimadienste angepasst. Die aktuellen Programme sind: 1. Weltklimadaten- und Überwachungsprogramm (World Climate Data and Monitoring Programme, WCDMP) 2. Weltklimaanwendungs- und Serviceprogramm (World Climate Applications and Service Programme, WCASP)
3. Weltklimaeinflussabschätzungs- und Reaktionsstrategieprogramm (World Climate Impact and Response Strategies Programme, WCIRP) 4. Weltklimaforschungsprogramm (World Climate Research Programme, WCRP) Die gesamte WCP-Struktur ist mit weiteren Programmen in die UN-Klimarahmenkonvention (United Nations Framework Convention on Climate Change, UNFCCC) eingebunden, unterstützt die „Climate Agenda“ und somit insbesondere die Arbeit des Weltklimarats (IPCC). Darüber hinaus ist das WCP mit dem Beobachtungssystem zur systematischen Erfassung klimarelevanter Phänomene der Atmosphäre, des Ozeans und der Landoberfläche (Global Climate Observing System, GCOS) vernetzt. Eine Zusammenstellung der „Meilensteine“ der internationalen Klimaforschung seit Gründung der Internationalen Meteorologischen Organisation 1873 findet sich in Tabelle 1.1. Ein
Tabelle 1.1 Meilensteine der internationalen Klimaforschung (Quelle: www.wmo.ch) Jahr
Ereignis
2008
• UN-Klimakonferenz in Poznan (Polen). Vorbereitung der COP 15 – Tagung in Kopenhagen zur Festlegung der post-Kyoto-Phase nach 2012
• IPCC wird zusammen mit dem ehemaligen Vizepräsidenten der Vereinigten Staaten Al Gore der Friedensnobelpreis verliehen
• Vierter Sachstandsbericht des IPCC (AR-4) • UN-Klimakonferenz in Bali (Indonesien) zur Bildung einer Roadmap für Verhandlungen nach der 2007
ersten Kyoto-Phase (post-Kyoto 2012)
• 20. Jahrestag des Montreal-Protokolls, der 1987 in Montreal unterzeichneten internationalen Vereinbarung zur Regelung von Produktion und Verbrauch der Substanzen, die zum Abbau der Ozonschicht führen können • Start des Internationalen Polarjahres 2007/08, unterstützt von ICS und WMO • Internationale Konferenz zur Sicherheit und für nachhaltiges Leben in Madrid (Spanien)
2006
2005
• WMO startet Treibhausgasbulletin • WMO startet das arktische Ozonbulletin • Größte Ausdehnung des antarktischen Ozonlochs seit Beobachtungsbeginn (Ende der 1970er-Jahre) • Erste Weltkonferenz zur Katastrophenabwehr (Kobe, Japan) • Internationales Meeting zur Einrichtung eines Programms zur nachhaltigen Entwicklung kleiner Inselstaaten (Mauritius)
• Sekretariat der internationalen Gruppe zur Erdbeobachtung (EO) öffnet im Sekretariat der WMO 2003
• Feier zum 150. Jahrestag der Meteorologischen Konferenz von Brüssel (1853) • Zweite Technische Konferenz zur Partizipation von Frauen in der Meteorologie and Hydrologie (Genf) • Start des Programms zur Vermeidung von Naturkatastrophen und des WMO-Weltraumprogramms sowie eines Programms für gering entwickelte Länder (Less Developed Countries, LDCs)
2002
• Weltgipfel für nachhaltige Entwicklung in Johannesburg (Südafrika)
2001
• Dritter Sachstandsbericht (AR-3) des IPCC
8
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Tabelle 1.1
Fortsetzung
Jahr
Ereignis
2000
• WMO feiert 50-jähriges Bestehen
1999
• Einweihung des neuen WMO-Hauptsitzes in Genf
1997
• Weltklimakonferenz in Kyoto stellt Ziele und Zeitplan zur Reduktion von Treibhausgasen auf • Internationales Meeting zur Partizipation von Frauen in der Meteorologie und Hydrologie in Bangkok (Thailand)
1995
• Einrichtung eines Klimainformations- und Vorhersageservices (CLIPS) • Zweiter Sachstandsbericht (AR-2) des IPCC • Grundsteinlegung für neuen WMO-Hauptsitz in Genf
1993
• Start des globalen Beobachtungssystems zum Weltwasserhaushalt (WHYCOS)
1992
• UN-Konferenz für Umwelt und Entwicklung (Erdgipfel) in Rio de Janeiro (Brasilien) • Einrichtung des globalen Klimabeobachtungssystems (GCOS) • Internationale Konferenz für Wasser und Umwelt in Dublin (Irland)
1991
• Erstes Treffen des Komitees für zwischenstaatliche Verhandlungen im Rahmen der UN-Klima-
1990
• Zweite Weltklimakonferenz in Genf initiiert die Einrichtung eines Globalen Klimabeobachtungssystems • Start der Internationalen Dekade zur Reduktion von Naturkatastrophen • Erster Sachstandsbericht des IPCC (FAR)
1989
• Globale Atmosphärenbeobachtung zum Monitoring atmosphärischer Inhaltsstoffe • WMO und UNEP initiieren Verhandlungen zur Einrichtung einer Klimarahmenkonvention
1988
• WMO/UNEP richten das zwischenstaatliche Gremium zum Klimawandel (IPCC) ein
1987
• Montreal-Protokoll für Substanzen, die die Ozonschicht zerstören
1985
• Konvention zum Schutz der Ozonschicht (Wien)
1983
• WMO etabliert langfristigen Planungsprozess zur Klimabeobachtung
1979
• Erste Weltklimakonferenz, auf der die Einrichtung eines Weltklimaprogramms beschlossen wurde
rahmenkonvention (UNFCCC)
(United Nations Framework Convention on Climate Change, UNFCCC)
1978/ • Start des Globalen Wetter- und Monsunexperiments im Rahmen des Globalen Atmosphären1979 forschungsprogramm 1977
• Einrichtung des Integrierten Globalen Ozeanbeobachtungssystems (IGOSS) zusammen mit der
1976
• WMO erstellt ersten Bericht zum Status der globalen Ozonschicht
1972
• Start des Operationellen Hydrologieprogramms der WMO
1971
• Tropisches Zyklonenprojekt wird etabliert und später zum tropischen Zyklonenprogramm ausgebaut
1963
• Einrichtung des Weltwetterbeobachtungssystems
1957
• Ausruf des Internationalen Geophysikalischen Jahres 1957/58 • Einrichtung des Globalen Ozonbeobachtungssystems
1951
• WMO wird eine Sonderorganisation der Vereinten Nationen
1950
• WMO-Konvention tritt am 23. März in Kraft
1947
• Direktoratsbeschluss zur WMO-Konvention
1932
• Ausruf des zweiten Internationalen Polarjahres 1932/33
1882
• Ausruf des ersten Internationalen Polarjahres 1882/83
1873
• Gründung der Internationalen Meteorologischen Organisation (IMO), der WMO-Vorgängerorganisation,
1853
• Erste Internationale Meteorologische Konferenz in Brüssel
Internationalen Ozeanischen Kommission (IOC) und der UNESCO
in Wien
9
1.1 Das Weltklimaprogramm
besonderer Höhepunkt dieser Chronik ist die Verleihung des Friedensnobelpreises an den UNWeltklimarat und den ehemaligen Vizepräsidenten der USA Al Gore im Jahr 2007. Seitdem verfügt das IPCC als das bestimmende zwischenstaatliche Gremium für die Beratung der Länder in Klimafragen über noch mehr Autorität. Die IPCC-Sachstandsberichte liefern dabei die Grundlage für die politische Bewertung der aufgezeigten Klimaentwicklung. Im Folgenden wird von den vier Hauptprogrammen des Weltklimaprogramms (WCP) das aktuelle Weltklimaforschungsprogramm (WCRP, Strategic Framework 2005–2015, WCRP-123, WMO/ TD-No. 1291) vorgestellt, dass gemeinsam von der WMO und dem Internationalen Rat der Wissenschaftlichen Unionen (ICSU) initiiert wurde.
1.1.1 Das Weltklimaforschungsprogramm (WCRP) Strategisch ist das aktuelle Weltklimaforschungsprogramm (WCRP) auf die „koordinierte Beobachtung und Vorhersage des Erdsystems“ (Coordinated Observation and Prediction of the Earth System, COPES) ausgerichtet. Die COPESInitiative hat das zentrale Ziel, die Analyse und Vorhersage der Veränderlichkeit des Erdsystems und dessen inhärenter Variabilität für die praktische Anwendung und das Wohl der Gesellschaft zu fördern. Auch dieses Rahmenprogramm weist auf die disziplinübergreifende Orientierung der Klimaforschung hin und stellt die Wechselwirkungen im Erdsystem und die Rolle des Menschen in diesem System in den Mittelpunkt. Während des nunmehr fast 30-jährigen Bestehens des Weltklimaforschungsprogramms können zwei zentrale Forschungsfragen des Programms hervorgehoben werden:
• die Bestimmung/Bewertung der Vorhersagbarkeit des Erdklimas
• die Bestimmung/Bewertung der anthropogenen Einflüsse auf das Erdklima Bezüglich dieser Forschungsansätze haben sich im Rahmen des WCRP vier Kernprojekte (core projects) und drei Arbeitsgruppen (working groups) gebildet, die folgende Schwerpunkte des WCRP bearbeiten:
• Untersuchung der vier Hauptkomponenten
•
• •
•
des physikalischen Klimasystems: Atmosphäre, Ozean, Kryosphäre (Eisgebiete) und Landoberfläche Überprüfung unseres Wissens und Verständnisses zu regionalen und globalen Klimaänderungen sowie der dafür verantwortlichen Mechanismen Bewertung signifikanter Trends im regionalen und globalen Klima Entwicklung und Überprüfung numerischer Modelle zur Simulation und Bewertung des zukünftigen Klimasystems; die Modelle sollen eine weite Spannbreite räumlicher und zeitlicher Skalenbereiche abdecken und für operationelle Vorhersagen geeignet sein Untersuchung der Sensitivität des Klimasystems gegenüber natürlich und anthropogen induzierten Zwängen und Bewertung der möglichen Klimaänderungen als Resultat dieser spezifischen Störungen
Das CLIVAR-Projekt Das WCRP-CLIVAR-Projekt beschäftigt sich mit der natürlichen Variabilität des Klimasystems und den Klimaänderungen infolge anthropogener Einflüsse. Mit besonderem Fokus untersucht das Programm die Rolle der Ozeane im Klimasystem sowie die Monsune der Erde. Das CLIVAR-Projekt ist Nachfolger des TOGA- (Tropical Ocean and Global Atmosphere, 1985–1994) und des WOCE-Projekts (World Ocean Circulation Experiment, 1982–2002). Zu den neueren CLIVAR-Arbeiten zählen die Erstellung eines digitalen Atlaswerkes zur Klimatologie Afrikas, der Aufbau eines Indian Ocean Panels zur zukünftigen Untersuchung des Indischen Ozeans und die Durchführung einer Feldkampagne zum südamerikanischen Low-Level Jet Experiment (SALLJEX, South American Low-Level Jet Experiment). SALLJEX war zudem ein Hauptbeitrag zum Projekt über die Variabilität des amerikanischen Monsunsystems (VAMOS). Weitere CLIVAR-Studien beschäftigen sich mit der Variabilität der thermohalinen Zirkulation im Atlantik sowie mit Upwelling-Prozessen im Pazifik und der Dynamik der Innertropischen Konvergenzzone und ihrer Auswirkung auf das regionale Klima. Erwähnenswert ist ferner die CLIVAR-
10
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Das aktuelle Weltklimaforschungsprogramm (WCRP) im Überblick Kernprojekte (core projects):
• Arbeitsgruppe für gekoppelte Modellierung
• Klimavariabilität und Vorhersagbarkeit (Cli-
(Working Group on Coupled Modelling (WGCM, auch in CLIVAR eingebunden) • Arbeitsgruppe für Oberflächen-Austauschprozesse (Working Group on Surface Fluxes (WGSF)
mate Variability and Predictability, CLIVAR) • Globaler Energie- und Wasserhaushalt (Global Energy and Water Cycle Experiment, GEWEX) • Stratosphärische Prozesse und ihre Bedeutung für das Klima (Stratospheric Processes And their Role in Climate, SPARC) • Klima und Kryosphäre (Climate and Cryosphere, CliC) Arbeitsgruppen (working groups):
• Arbeitsgruppe für Numerische Versuche (Working Group on Numerical Experimentation (WGNE, verbunden mit der WMO Commission for Atmospheric Sciences)
Arbeitsgruppe zur saisonalen und interannuellen Vorhersage (WGSIP, Working Group on Seasonal to Interannual Prediction), die eine führende Rolle in der COPES-Strategie spielt. Umfangreiche Informationen zu CLIVAR finden sich auf der Internetseite des internationalen CLIVAR-Projekt-Büros .
Das GEWEX-Projekt Das WCRP-GEWEX-Projekt fokussiert auf atmosphärische, hydrologische und thermodynamische Prozesse, um den globalen Wasserhaushalt und zugehörige Energiebilanzen zu bestimmen. Zentrale Frage ist, wie sich der Wasser- und Energiehaushalt an globale Veränderungen und insbesondere im Hinblick auf den Anstieg von Treibhausgasen verändern beziehungsweise anpassen wird. Die gesellschaftlich relevante Frage, ob auch in Zukunft unter sich ändernden Klimabedingungen genügend Wasser für den Menschen zur Verfügung steht, ist Untersuchungsschwerpunkt von GEWEX. Das GEWEX-Projekt hat bereits entscheidende Ergebnisse zur Bewertung der Austauschprozesse des Land-Atmosphäre-Systems geliefert. Weiterhin stellt es aus über 20 Jahre laufenden Satellitenuntersuchun-
Darüber hinaus ist das WCRP als Teil des Weltklimaprogramms (WCP) in das Beobachtungssystem GCOS (Global Climate Observing System) zur systematischen Erfassung klimarelevanter Phänomene der Atmosphäre, des Ozeans und der Landoberfläche eingebunden und co-finanziert das IGBP-Programm SOLAS (Surface Ocean-Lower Atmosphere Study). SOLAS untersucht die Wechselbeziehungen zwischen Ozeanoberfläche und Atmosphäre. Schließlich ist das WCRP Mitglied im Earth System Science Partnership (ESSP).
gen wichtige Datenprodukte für die Bewertung von Wasserhaushaltsgrößen zur Verfügung. Eine neuere Komponente des GEWEX-Programms ist der Aufbau eines verbesserten Datensatzes aus in situ-, Satelliten- und modellierten Daten für die Zeitspanne von 2002 bis 2004, um eine bessere Datenbasis für die Modellierung des Wasserhaushalts abzuleiten. Diese Arbeit wird durchgeführt von CEOP (Coordinated Enhanced Observing Period ). Erste Datensätze sind bereits beim CEOP-Datenzentrum an der Universität Tokio archiviert und können z. B. für die Überprüfung der numerischen Wettervorhersage genutzt werden. Ein anderes wichtiges Projekt unter der Schirmherrschaft von GEWEX und CLIVAR ist das multidisziplinäre Analyseprojekt des afrikanischen Monsuns (African Monsoon Multidisciplinary Analysis, AMMA). Weitere Informationen zu GEWEX finden sich auf der Internetseite des internationalen GEWEXProjektbüros .
Das SPARC-Projekt Das WCRP-SPARC-Projekt hat die Aufgabe den Einfluss der Stratosphäre auf das Klima und die gekoppelten chemischen und dynamischen Pro-
11
1.1 Das Weltklimaprogramm
Strahlungsschwankung der Sonne UV-Strahlung
Zirkulationsveränderungen Strahlungsbilanz Tropo pa
use
H 2O
O3 Erwärmung
SO2-Freisetzung führt zu stratosphärischen Aerosolen
UV-Oberflächenstrahlung
zesse sowie die Strahlungsbedingungen in der Stratosphäre zu untersuchen. Insbesondere die stratosphärische Zirkulation (z. B. QBO, ▶ Abschnitt 2.11.6) und die Zusammensetzung der stratosphärischen Luftmassen hinsichtlich Ozonabbau und dadurch bedingter UV-Strahlungszunahme in der Troposphäre werden untersucht. Die mögliche Veränderung der UV-Strahlung durch den Klimawandel und deren Auswirkung auf den Menschen sind Inhalt weiterer Forschungsinitiativen (CLIMAderm, Kappas et al. 2008). Gerade die langfristigen Untersuchungen zu Temperatur, Wasserdampfgehalt und Ozongehalt der Stratosphäre haben die enge Verzahnung der Variablen untereinander (Feedback-Loops) verdeutlicht und dem SPARC-Projekt internationales Ansehen verliehen. SPARC hat unterschiedliche wissenschaftliche Initiativen gestartet, um Veränderungen in der Stratosphäre und ihre Wirkung auf das Klimasystem zu bewerten. Wichtige Forschungsfragen sind dabei die chemischen Interaktionen in der Stratosphäre sowie die Kopplung von Stratosphäre und Troposphäre. In diesem Zusammenhang sind die langjährigen Untersuchungen zur Bewertung und Modellierung des Ozonlochs in der polaren Stratosphäre sowie zum bis jetzt unerklärlichen positiven Trend der Wasserdampfzunahme in der unteren Stratosphäre zu nennen.
1.1 Einflüsse der Stratosphäre auf das Klima – Kernaufgaben von SPARC. Stratosphärische Prozesse spielen eine bedeutende Rolle für das Erdklima. Die Absorption solarer Strahlung in der Stratosphäre durch Ozon (dunkler Pfeil) modifiziert das solare Forcing auf das Erdklima entscheidend. Die Konzentration einiger stratosphärischer Gase (Ozon, Kohlendioxid, Wasserdampf) verändert die Strahlungsbilanz. Zusätzlich besteht eine wichtige Interaktion zwischen stratosphärischer und troposphärischer Dynamik. Vulkanausbrüche erhöhen den stratosphärischen Aerosoleintrag und können zur Veränderung der Strahlungsbilanz und Zirkulationsveränderungen in der Stratosphäre führen, die wiederum auf die Zirkulation in der Troposphäre rückwirken.
Neuere SPARC-Initiativen berücksichtigen die Untersuchung stratosphärischer Aerosole und die Bildung sogenannter stratosphärischer Wolken (Polar Stratospheric Clouds, PSCs). Abbildung 1.1 zeigt die unterschiedlichen Einflüsse der Stratosphäre auf das Klima und damit die Kernaufgaben des SPARC-Projekts. Der weitere Forschungsbedarf im Rahmen von SPARC liegt in der Klärung der Frage, welche Bedeutung die chemische Zusammensetzung der Atmosphäre in Zukunft auf das Klima haben wird. Die Entwicklung von globalen Klimamodellen, die ein „atmosphärisches Chemiemodul“ beinhalten, wird von SPARC dringend gefordert. Weitere Informationen finden sich auf der Internetseite des internationalen SPARC-Projektbüros .
Das CliC-Projekt Das WCRP-CliC-Projekt ist das Nachfolgeprojekt von ACSYS (Arctic Climate System Study), einer Studie, welche von 1994 bis 2003 die Rolle der Arktis für das globale Klimasystem untersucht hatte. Die Projektergebnisse sind umfassend dokumentiert („The ACSYS decade and beyond“, WCRP-117-CD und WCRP-118-CD,
12
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
WMO/TD No. 1231/1232, 2004). Auch das CliC-Programm untersucht die Interaktion der Kryosphäre mit dem globalen Klimasystem. Die Kryosphäre umfasst den Bereich der Erdoberfläche, der von Eis bedeckt ist. Dazu gehören das Meereis, das Inlandeis, das Schelfeis, die Gebirgsgletscher und die mit Schnee bedeckten Flächen. Diese Gebiete stellen empfindliche Indikatoren für mögliche natürliche oder anthropogen bedingte Klimaänderungen da. Signifikante Veränderungen der Kryosphäre in jüngerer Vergangenheit sind der Rückgang des Meereises im arktischen Ozean mit der geringsten Meereisausdehnung im Monat September der Jahre 2002 und 2003, das Rückschmelzen des grönländisches Eispanzers seit Untersuchungsbeginn 1980, der Abbruch des Larsen-B-Eisschelfes in der westantarktischen Halbinsel im Jahr 2002 sowie das Rückschmelzen der überwiegenden Zahl von Gebirgsgletschern auf den Kontinenten. CliC fokussiert die Untersuchungen auch auf die Rolle der Permafrostböden und die damit verbundene mögliche Freisetzung von Treibhausgasen (vor allem Methan, CH4). Im Internationalen Polarjahr (IPY) 2007/2008 übernahm CliC eine führende Forschungsrolle. Weitere globale Fragestellungen des CliC-Projekts sind die thermohaline Zirkulation unter weiterer Einfütterung von Süßwasser im Nordatlantik, Änderungen der Zirkulation im südlichen Ozean sowie Eis-Albedo-Rückkopplungen. Eis-Albedo-Rückkopplung, bedeutsame positive Rückkopplung, bei der sich durch eine Abkühlung der Atmosphäre die Schnee- und Eisbedeckung auf der Erdoberfläche ausdehnt. Durch die erhöhte Albedo wird die Abkühlung weiter verstärkt. Gilt als einer der wichtigsten Prozesse beim Übergang von einer Warmzeit in eine Kaltzeit und ist daher auch Bestandteil von Klimamodell-Rechnungen.
Seit 1995 unterstützt das WCRP über seine Projekte das Internationale Programm antarktische Bojen (IPAB), das Messwerte zur Situation im südlichen Ozean bereitstellt. Das IPAB-Projekt wird im laufenden IPY erweitert. Weitere Informationen zu CliC finden sich auf der Internetseite des internationalen CliCProjekt-Büros .
1.1.2 Erdsystemforschung – die Gründung des ESSP (Earth System Science Partnership) Mit der WCRP-Strategie COPES entwickelte sich die reine Klimaforschung hin zu einer Erdsystemforschung, die Fragen des Globalen Wandels (Global Change) mit berücksichtigt. Diese Öffnung und Ausweitung des Forschungsbereichs erfordert eine engere Zusammenarbeit mit anderen globalen Verbundprojekten wie z. B. dem International Geosphere-Biosphere Programme (IGBP) oder anderen komplexen Projekten; diese werden seit 2001 im Earth System Science Partnership (ESSP) zusammengeführt . Im Jahr 2001 fand in Amsterdam die erste öffentliche Tagung zum Globalen Wandel statt (Challenges of a Changing Earth: Global Change Open Science Conference Amsterdam), an der 1 400 Teilnehmer aus über 100 Ländern teilnahmen und die sogenannte Amsterdamer Deklaration zum Globalen Wandel unterzeichneten. Die Deklaration zielt auf die stärkere Integration und Zusammenarbeit der großen globalen Umweltforschungsprogramme ab. Kernforderung ist die Interdisziplinarität der Forschung mit ausdrücklicher Betonung einer stärkeren Zusammenarbeit von Natur- und Sozialwissenschaften und verstärkten Einbindung von Wissenschaftlern aus Entwicklungsländern. Diese Deklaration besiegelte den Zusammenschluss der vier großen globalen Umweltforschungsprogramme (DIVERSITAS, IGBP, IHDP und WCRP) und weiterer Verbundprojekte (joint projects) zu den Themen Wasser, Nahrung, Kohlenstoff und Gesundheit, die fortan eine Partnerschaft zur Erdsystemforschung (ESSP) bilden. Gemäß der Amsterdamer Deklaration ist die Aufgabe der ESSP: The ESSP is a partnership for the integrated study of the Earth System, the ways that it is changing, and the implications for global and regional sustainability.
Die ESSP-Partnerschaft steht also für eine integrierte Erforschung des Erdsystems, dessen Veränderung sowie die sich daraus ergebenden Folgen für eine nachhaltige Entwicklung im regionalen und globalen Maßstab. Ihre Gründung war ein klares Signal für die zukünftig stärkere Einbin-
13
1.1 Das Weltklimaprogramm
ha
ft
zur
Erdsystemfor
IGBP
) SSP
Diversitass
sc hu
(E ng
Part ne r sc
dung der Klimaforschung in die übergeordnete „Global-Change-Forschung“ (siehe dazu ausführlich Teil II „Klimawandel – Global Change“).
ESSP IHDP oje Pr
kte zur globalen
Na
Wasser (GWSP)
Nahrung Kohlenstoff (GCP) (GECAFS)
it igke
geme
e
lt ha ch
ins am
WCRP
menschliche Gesundheit
1.2 Earth System Science Partnership (ESSP): Bündelung der Kompetenzen der vier größten Umweltforschungsprogramme und Konzentration auf gemeinsame Projekte zur nachhaltigen Betrachtung der Bereiche Wasser, Nahrung, Kohlenstoff und menschliche Gesundheit.
Earth System Science Partnership (ESSP) im Überblick Integration folgender großer Umweltforschungsprogramme: • World Climate Research Programme (WCRP) • International Geosphere-Biosphere Programme (IGBP) • International Human Dimensions Programme on Global Environmental Change (IHDP) • International Programme on Biodiversity (DIVERSITAS) Die ESSP hat zurzeit vier Verbundprojekte:
• Global Carbon Project (GCP) • Global Environmental Change and Food Systems (GECAFS) • Global Environmental Change and Human Health • Global Water System Project (GWSP) WCRP, IGBP and IHDP unterstützen die Initiative „SysTem for Analysis, Research und Training (START)“.
Die Gründung der ESSP führte 2006 zur ersten von der ESSP initiierten wissenschaftlichen Konferenz in Beijing, China. Die Komplexität der Klimaforschung im Rahmen einer Global-Change-Forschung lässt sich nicht nur an den Strukturen und Initiativen der internationalen Forschungslandschaft ablesen, sondern wird auch durch die zunehmenden Datenflüsse der Umweltsatelliten und Bodenstationen verdeutlicht. Enorme Datenmengen müssen durch die bereits vorhandenen beziehungsweise sich in Planung befindlichen Satelliten (▶ Abschnitt 1.3) gespeichert, analysiert und bewertet werden. Nicht nur für die Atmosphäre, sondern auch für die Ozeane sind z. B. durch das ARGOS-Bojen-System zahlreiche Daten über die Ozeanstruktur zu verarbeiten. Das bereits im Rahmen des WCRP gestartete Vorgängerprogramm World Ocean Circulation Experiment (WOCE) wird eine bedeutende Datenquelle für die Beobachtung der Ozeane und somit ein integraler Bestandteil eines sich entwickelnden Ozean-Monitoring-Systems sein. ARGOS, System an Bord der polarumlaufenden Satelliten der National Oceanic and Aeronautical Agency (TIROS) zur Ortung der Position von Objekten, zum Abruf und zur Übermittlung von Daten automatischer Stationen und zur Messung geophysikalischer Parameter.
Diese und viele andere in situ-Daten müssen unter einem gemeinsamen Qualitätsstandard in ein System integriert werden. Diese Aufgabe übernimmt international das Global Earth Observation System of Systems (GEOSS). Dieses wurde am 13. Februar 2005 auf dem 3. Earth Observation Summit (EOS-III) mit dem Ziel gegründet, Datenredundanzen zu minimieren und optimierte Datenprodukte und Datenservices für die Wissenschaft bereitzustellen. Dieser internationale Rahmen zur Archivierung von Daten betrifft zurzeit besonders drei Archivierungsstellen:
• das UCAR/JOS-Datenarchiv USA • das Datenarchiv des Deutschen Klimarechenzentrums des Max-Planck-Instituts in Hamburg • das Satellitendaten- und in situ-Datenzentrum an der Universität von Tokio Die daran beteiligten Beobachtungssysteme müssen sich bezüglich der Datenerzeugung und Da-
14
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
tenqualität an einen internationalen Standard halten und ein vereinheitlichtes Datenmanagementschema erfüllen. Anhand des Weltklimaprogramms konnte die Komplexität der Klimaforschung und deren Entwicklung hin zu einer disziplinübergreifenden Wissenschaft mit gewaltigen Herausforderungen für Natur- und Sozialwissenschaften verdeutlicht werden. Beispielhaft hierfür steht die Einrichtung der ESSP und deren integrativen Ansatzes von Naturund Sozialwissenschaften (insbesondere IHDP). Es zeichnet sich ab, dass ausgehend von den letzten Jahren neben disziplinären Fragen in verstärktem Maße Wechselwirkungen zwischen physikalischen, biologischen, geologischen und chemischen Komponenten des Klimasystems analysiert werden und insbesondere deren Relationen zu möglichen Änderungen der Gesellschaftssysteme in den Vordergrund rücken. Die Kenntnis dieser Forschungsstrukturen und Forschungstendenzen ist erforderlich, um an aktuellen Ergebnissen der Forschung teilzunehmen, und um Forschungsredundanzen vermeiden zu können. Auch auf europäischer und nationaler Ebene in Deutschland (vgl. DENKEN, WBGU, BMBF) ergeben sich ähnliche Entwicklungen für die Bedeutung der Klima- und Global-ChangeForschung. Grundlage der Klimaforschung ist die Erfassung und Verwaltung der klimatischen Messdaten. Ohne die über viele Jahrzehnte regelmäßig durchgeführte Klimabeobachtung und deren Inventarisierung könnten keine fundierten Aussagen über den Zustand der Erde und unser Klima getroffen werden. Die Messdaten der Vergangenheit sowie die zukünftigen Messnetze sind Voraussetzung und Basis der Klima- und Global-Change-Forschung. Die wichtigsten Messnetze und Beobachtungssysteme werden im folgenden Abschnitt vorgestellt.
1.2 Klimaerfassung – Messnetze und Beobachtungssysteme In weiten Teilen der Erde werden seit etwa 1850 Messwerte zur Erfassung des Klimas aufgezeichnet. In Deutschland werden seit 1782 sogenannte in situ-Messungen an Klimastationen
durchgeführt, so z. B. an der Klosterkirche des Hohenpeißenbergs in Oberbayern, der ältesten Messstation Deutschlands. Zu Beginn der Klimaaufzeichnung wurden vor allem Luftdruck und Temperatur gemessen. Nach und nach entstanden neue Messnetze, die meist an die Erfindung neuer Technologien und Messtechniken innerhalb kleiner Forschungsnetze gekoppelt waren. Prinzipiell ist zwischen dem klimatologischen Messnetz und dem synoptischen Messnetz zu unterscheiden. Das klimatologische Messnetz erfasst in der Regel tägliche Werte eines Ortes. Die gewonnenen Daten werden für den Aufbau langjähriger Zeitreihen und für langfristige Vergleiche (Klimaforschung) herangezogen. Allerdings sind gerade in Deutschland die Zeiträume z. B. für die Bestimmung der jeweiligen Höchst- und Tiefsttemperatur eines Ortes immer wieder verändert worden, was die Standardisierung der Daten gefährdet. Letztmalig wurde diese Referenzzeit im April 2001 geändert. Ein weiterer wesentlicher Nachteil dieses Messnetzes ist die verspätete Übermittlung der Daten an die Öffentlichkeit, Unternehmen oder Wissenschaftler, die gegebenenfalls erst Wochen nach dem Messzeitpunkt erhältlich sind. Im synoptischen Messnetz werden die Daten demgegenüber in Echtzeit erhoben und übermittelt. Die Referenzzeiträume sind seit Beginn der Aufzeichnungen konstant und liegen hinsichtlich Tiefsttemperatur zwischen 18 UTC (Weltzeit, Universal Time Co-ordinated) und 06 UTC und hinsichtlich Höchsttemperatur zwischen 06 UTC und 18 UTC. Damit sind zwar nur 12-stündige Messzeiträume verfügbar, aber man erhält eine in sich geschlossene Datenreihe. Die vielen weltweit durchgeführten Messungen in der Meteorologie und Klimatologie müssen bezüglich Messverfahren verwendete Sensoren und Auswertungsmethoden vereinheitlicht und kalibriert werden. Hierzu wurden zwei Institutionen der Vereinten Nationen geschaffen: die bereits erwähnte Weltorganisation für Meteorologie in Genf (WMO), zuständig für Meteorologie und operationelle Hydrologie, und die zwischenstaatliche Kommission für Ozeanographie (Intergovernmental Oceanographic Commission, IOC) der UNESCO in Paris, zuständig für die Beobachtung (Monitoring) der Ozeane. Mit 188 Mitgliedsstaaten steht der WMO ein globales, weltumspannendes „dreidimensionales“ Beobachtungssystem für Atmosphäre und Erdoberflä-
1.2 Klimaerfassung – Messnetze und Beobachtungssysteme
UNESCO, United Nations Education, Science and Culture Organization,UN-Organisation für Bildung, Wissenschaft und Kultur, Sonderorganisation der Vereinten Nationen (UN); staatliche Organisation, die weltweit Ausbildung, Wissenschaft und Kultur fördert. Sie führt vier naturwissenschaftliche Langzeitprogramme durch: das internationale geologisches Korrelationsprogramm (IGCP), das internationale hydrologische Programm (IHP), die internationale ozeanische Kommission (IOC) und das Programm Mensch und Biosphäre (MAB).
che zur Verfügung. Das Beobachtungssystem für Ozeane ist hingegen erst seit Ende der 1990erJahre im Aufbau. Im internationalen Forschungsprogramm ARGO wurden von 1999 bis 2007 insgesamt 3000 Treibbojen (floats) flächendeckend in allen Ozeanen ausgesetzt. 1.3 Meldende Beobachtungsstationen. Datenabdeckung (alle Beobachtungen synoptischer und schiffsbasierter Stationen). Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF (Europäisches Zentrum zur Wettervorhersage) = 26829. ( Farbtafel) 1.4 Meldende Bojenstationen. Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF = 3460. ( Farbtafel) 1.5 Abdeckung durch Satellitenbeobachtungen. Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF = 258271. ( Farbtafel)
Globale Ozeanbeobachtungssysteme (GOOS) Ein erster Meilenstein für das Beobachtungssystem des Ozeans sind z. B. die Tropical-Atmosphere-Ocean-Bojen (TAO) des Projekts „Tropischer Ozean – Globale Atmosphäre“ (TOGA). Dieses Messnetz überspannt den gesamten tropischen Pazifik mit einer Anordnung von verankerten Bojen, die in der oberflächennahen Luftschicht die Parameter Druck, Temperatur sowie Windstärke und Windrichtung messen und im Wasser bis in etwa 500 m Tiefe Temperatur, Salzgehalt und Strömung aufzeichnen. Die TAO-Bojen übermitteln diese Daten kontinuierlich via Satellit an die angeschlossenen Wetterdienste. Diese werten die Daten aus und stellen die Ergebnisse im Internet zur Verfügung, wo sie für Jahreszeitenprognosen (z. B. im Rahmen der Forschung über den El-Niño-Southern-
15
Oscillation-Mechanismus, ENSO) genutzt werden. Die Instrumente, die zunächst im TOGA-Projekt des WCRP an den TAO-Bojen eingeführt worden waren, lieferten ausreichend gute Startdaten, mit denen gekoppelte Computermodelle der Atmosphäre und des Ozeans erstmals „gefüttert“ werden konnten. Dies war ein Durchbruch, um künftig Wahrscheinlichkeitsaussagen über Temperaturund Niederschlagsanomalien im tropischen Pazifik treffen zu können. Heute wird das ehemalige multinationale TAO-Forschungsmessnetz überwiegend von den USA betreut und ist in routinemäßige Arbeiten zur Wetter- und Klimabeobachtung des tropischen Pazifik „operationell“ eingebunden. Ein ausführliches Review des TOGA-Projekts wurde 1998 von der amerikanischen geophysikalischen Union herausgegeben (Anderson et al. 1998). Ein weiteres Beispiel für die Einbindung ehemaliger Forschungsprojekte in die Routine der staatlichen meteorlogischen Dienste ist das Satellitenprojekt GOME (Global Ozone Monitoring Experiment), ein Instrument zur Bestimmung der chemischen Zusammensetzung der Atmosphäre. GOME startete 1997 an Bord des Erdbeobachtungssatelliten ERS-2 der Europäischen Weltraumagentur (ESA) als erster europäischer Satellitensensor in den Orbit. Heute ist GOME langfristig an Bord der MetOp-Satelliten von EUMETSAT (European Association for the Exploitation of Meteorological Satellites) im Rahmen des EUMETSATPolar-Systems, um die globale Ozonverteilung in der Stratosphäre sowie den Gehalt an Stickoxiden und anderen Spurengasen in der Atmosphäre zu bestimmen (▶ Abschnitt 1.3 liefert ausführliche Informationen zum Ausbau der globalen Messnetze durch Satelliten). Parallel zu den Entwicklungen der in situ-Messungen und der Satellitentechnik hat sich eine weitere Herangehensweise zur Ableitung flächendeckender, langer Klimazeitreihen entwickelt: die sogenannte Re-Analyse. Dieses Instrument der globalen Klimaanalyse liefert in sich stimmige zeitliche Abfolgen für die Zustände der Atmosphäre. Dabei trägt man alle bis zu einem Zeitpunkt vorliegenden Beobachtungen an der Erdoberfläche und in der Atmosphäre zusammen und fügt sie mittels eines numerischen Modells für die globale Zirkulation in ein für den gesamten zur Verfügung stehenden Zeitraum konsistentes Bild. Das Re-Analyse-Verfahren nutzt dieses Modell im Abstand von sechs Stunden je-
16
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
weils als Vorhersagemodell für die nächsten etwa sechs bis zwölf Stunden. Das berechnete globale Zirkulationsmuster stellt dann eine modifizierte, physikalisch konsistente Darstellung aller Beobachtungen dar. Gebiete mit offensichtlich fehlerhaften Messungen oder nicht ausreichend dichter Messwerterfassung (Stationsdichte) werden durch die Physik des Modells verbessert oder ergänzt. So steht den Wissenschaftlern für jeden Punkt eines über die Erde gelegten Gitternetzes eine langjährige Zeitreihe bezogen auf den jeweils gewählten Klimaparameter (z. B. Temperatur, Wind) für unterschiedliche Höhenniveaus zur Verfügung. Gleichzeitig können nicht beobachtete Modellvariablen wie zum Beispiel der Bedeckungsgrad der Wolken mitberechnet und in die Analyse einbezogen werden. Jede Modellverbesserung ergibt nach einigen Jahren durch erneute Re-Analyse eine verlängerte und immer näher an der Realität liegende globale Zeitreihe. Das Weltklimaforschungsprogramm (WCRP) hat in der Vergangenheit die Bildung von Re-Analyse-Datenreihen stark unterstützt. Die wichtigsten Re-Analyse-Datensätze sind aktuell der ERA-40Datensatz des European Centre for Medium-Range Weather Forecasts (ECMWF) für den Zeitraum 1958–2002, der regionale Re-Analyse-Datensatz des National Center for Environmental Prediction (NCEP) der USA für den Zeitraum 1979–2003 sowie der Re-Analyse-Datensatz (1979–2004) der Japan Meteorological Agency (JMA). Aktuell werden weltweit alle klimatologischen Daten im Rahmen des Weltklimadaten- und Monitoring-Programms (World Climate Data and Monitoring Programme, WCDMP) verwaltet. Dieses WCP-Programm hat die Aufgabe, Klimadaten weltweit zu sammeln und geeignete Verwaltungsund Beobachtungsstrukturen aufzubauen. Dieser Auftrag schließt die Erfassung und Bewertung der Klimavariabilität sowie des Klimawandels ein. Diese Aktivität der Weltorganisation für Meteorologie (WMO) lässt sich bis in das Jahr 1950 zurückverfolgen. Damals definierte die WMO die sogenannten Standardnormalen (climatological standard normals) als mittlere klimatologische Werte für eine Periode von 30 Jahren. Die Daten der Klimanormalperiode 1931–1960 wurden 1962 von der WMO veröffentlicht. In Folge bereitete das in den USA beheimatete National Climatic Data Center (NCDC) die Klimanormalperiode 1961–1990 auf und besitzt heute das weltgrößte
Datenarchiv. Diesen Datensatz veröffentlichte die WMO 1996, eine elektronische Ausgabe seitens des NCDC folgte 1998. Die WMO gab in Folge sogenannte World Weather Records (WWR) heraus, welche Monatsmittel- und Jahresmittelwerte für jedes Jahr einer Dekade hinsichtlich Luftdruck, Temperatur und Niederschlag enthielten. Die WWRs werden seit 1920 kontinuierlich in dekadischer Auflösung (1921–1930, 1931–1940, 1941–1950 usw.) herausgegeben. Anlaufstelle für die Recherche von Klimadaten und vielen anderen umweltrelevanten Daten ist das World Data Center System (WDC-System) des International Council for Science (ICSU). Die wichtigsten WDC-Systeme für traditionelle in situ–Klimadaten sind:
• das WDC-A und WDC-B für Meteorologie des ICSU
• das WDC für Globalen Niederschlag der WMO
• das Weltdatenzentrum Abfluss (Global Runoff Data Center) der WMO Zusammenfassend kann für das System der Erdbeobachtung festgehalten werden, dass sich die Messwerterfassung kontinuierlich entwickelt und ständig neue Beobachtungssysteme hinzukommen. Strategisch ist die weltweite Beobachtung und Messung des Klimas mittlerweile in eine „koordinierte Periode intensiver Beobachtung“ übergegangen. Dafür steht das gleichnamige WMO-Projekt CEOP (Co-ordinated Enhanced Observing Period), welches bis Ende 2004 lief oder das GCOS-Projekt (Global Climate Observing System), das die integrative Weiterentwicklung bestehender Beobachtungssysteme zum Ziel hat. Die Sicherstellung der „systematischen Beobachtung“ ist also ein international wichtiges Ziel und daher auch in der Klimarahmenkonvention (UNFCCC) fest verankert. Die Klimatologen nutzen weitestgehend die Daten aus Messnetzen, die von meist staatlichen Wetterdiensten in den vergangenen Jahrzehnten aufgebaut und betrieben werden. Diese Messnetze wurden im Rahmen der Weltwetterbeobachtung (World Weather Watch, WWW) der WMO hauptsächlich für Zwecke der Wettervorhersage eingerichtet und betrieben. Sie erfüllen deshalb nicht immer die besonderen Anforderungen der Klimatologen, die auch auf lange Datenreihen mit hoher Genauigkeit abzielen.
17
1.2 Klimaerfassung – Messnetze und Beobachtungssysteme
Da die Wetterdienste die Datenreihen archivieren, stehen den Klimatologen heute prinzipiell in vielen Teilen der Welt weit zurückreichende Datenreihen klimatologischer Beobachtungen zur Verfügung, deren Bedeutung für die Forschung sie immer wieder betonen. Die Anforderungen jedoch, die sich aus den unterschiedlichen Nutzergruppen für klimatologische Daten ergeben, sind vielseitig. Um die Datenaufzeichnungen besser koordinieren zu können, wurde 1992 ein globales Klimabeobachtungssystem (Global Climate Observing System, GCOS) eingerichtet . GCOS soll sicherzustellen, dass – basierend auf den vorhandenen Systemen – die Anforderungen der Datennutzer erfüllt werden. Das GCOS-Sekretariat ist der WMO in Genf angegliedert und nutzt nicht nur die Messnetze der Wetterdienste, sondern greift auch auf die klimarelevanten Beobachtungen des globalen Ozeanbeobachtungssystems (Global Ocean Observing System, GOOS, ) sowie des globalen terrestrischen Beobachtungssystems (Global Terrestrial Observing System, GTOS, ) zurück. GOOS und insbesondere GTOS befinden sich noch im Aufbau. Das GCOS kann nochmals in drei „Observation Panels“ aufgeteilt werden:
• Atmospheric Observation Panel for Climate (AOPC)
• Oceanic Observation Panel for Climate (OOPC)
• Terrestrial Observation Panel for Climate (TOPC) Der Deutsche Wetterdienst (DWD) hatte bereits im Herbst 1992 ein nationales Sekretariat vergleichbar dem des internationalen GCOS-Sekretariats eingerichtet, um die internationalen Aktivitäten auf nationaler Ebene zu koordinieren. Ein weiteres nationales Sekretariat für GOOS wurde beim Bundesamt für Seeschifffahrt und Hydrographie (BSH) etabliert. Ein nationales GTOSSekretariat fehlt in Deutschland jedoch bisher. Das GCOS definierte 1999 ein Bodenmessnetz (GCOS Surface Network, GSN), um insbesondere die variable Temperatur auf globaler Ebene überwachen zu können. Dazu wurden weltweit über 900 der klimatologisch wichtigsten Beobachtungsstationen ausgewählt. Die Überprüfung der Verfügbarkeit und Qualität der Klimadaten dieser Stationen ist Aufgabe des ebenfalls 1999 eingerichteten GSN Monitoring Centre (GSNMC), das
ICSU
IOC
WMO
UNEP Geo
GCOS Ozeanbeobachtungssysteme
Atmosphärenbeobachtungssysteme
Landoberflächenbeobachtungssysteme
GEOSS
1.6 Komponenten des GCOS-Beobachtungssystems.
der Japanische Wetterdienst (JMA) und der Deutsche Wetterdienst (DWD) gemeinsam betreiben. Inzwischen liegen erste Ergebnisse der GSNMC-Überwachung seit Januar 1999 vor. Leider zeigt sich, dass in einigen Gebieten die Verfügbarkeit der Stationen nicht zufriedenstellend ist. Obwohl es sich um besonders ausgewählte Stationen handelt, existieren große Schwankungsbreiten hinsichtlich der Verfügbarkeit in der Anzahl der empfangenen Stationen im Rahmen der von der WMO ausgewählten globalen Regionen (RAs). Die Verfügbarkeit der GSN-Stationen für die verschiedenen WMO Regional Assoziationen (RA I: Afrika; RA II: Asien; RA III: Südamerika; RA IV: Nord- und Mittelamerika; RA V: Südwest-Pazifik; RA VI: Europa) schwankt zwischen 25 % und 90 %. Die geringste Verlässlichkeit bezüglich Stationsverfügbarkeit weist die RA Afrika auf. Ursache des Problems ist, dass in vielen Ländern oftmals die finanziellen Mittel für Personal und den Betrieb der Stationen fehlt. So belegt der 4. Sachstandsbericht des Weltklimarats (AR4), dass weitere Verbesserungen bei den Beobachtungssystemen notwendig sind, um neue und verbesserte Kenntnisse über den Zustand des Klimas ableiten zu können. Das GCOS reagierte auf den IPCC-Sachstandsbericht mit einer umfassenden Stellungnahme über die zukünftige Ausrichtung des internationalen Beobachtungssystems und empfiehlt in seinem Implementation Plan (GIP) folgende Klimavariablen als wesentliche Messgrößen (Essential Climate Variables, ECV, Tabelle 1.2): Weitere Informationen zum Erde umspannenden Beobachtungssystem findet sich unter
• GEO (2005): Global Earth Observation System of Systems (GEOSS) 10-Year Implemen-
18
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
tation Plan and Reference Document, GEO1000R, Februar 2005 • GCOS (2004): Implementation Plan for the Global Observing System for Climate in Support of the UNFCCC (GCOS-92, Oktober 2004, ) • UNFCCC (1992): United Nations Framework Convention on Climate Change, 9 Mai 1992 Die Konzeption und der Aufbau des Beobachtungssystems unserer Erde lassen sich wie folgt zusammenfassen: 1. Operationelle und experimentelle Satellitensensoren liefern globale Beobachtungen, die von den Raumfahrtagenturen der USA (NASA), Europas (ESA) und Japans (JMA) einschließlich der nationalen und internationalen Wetterdienste koordiniert werden. 2. Referenzstationen auf den einzelnen Kontinenten beobachten das Klima vom Erdboden aus. Diese hervorragend ausgestatteten Stationen liefern nicht nur meteorologische Routinebeobachtungen hoher Qualität und speisen diese ins internationale KommuniTabelle 1.2
1
2
3
kationsnetz GTS (globales Kommunikationssystem der WMO) ein, sondern bestimmen auch den Energiehaushalt (einschließlich der Strahlungsbilanz) an ihrem jeweiligen Standort. An diesen Stationen starten zwei- bis viermal pro Tag Radiosonden für die Vertikalprofilierung der Atmosphäre. Darüber hinaus wird die Atmosphäre in der Höhe mithilfe von Messmasten, Radar und LIDAR (Lasermessung) sondiert. Die so gewonnenen Messwerte dienen der Kontrolle und Kalibrierung der Satellitendaten. 3. Die Wetter- und Klimavorhersagezentren (z. B. ECWMF) führen globale Analysen des Zustands von der Atmosphäre und den Ozeanen nahe Echtzeit durch. Dadurch können neue Parametrisierungen wichtiger Klimaprozesse getestet werden. 4. Die Speicherung der Daten in einem Gittersystem (zurzeit 250 km) um jede Referenzstation ermöglicht, räumliche Skalenänderungen vom lokalen Vor-Ort-Messwert bis hin zu einem Satellitenbildelement (Pixelauflösung etwa 200 m bis zu einigen Kilometern) und weiter bis hin zur Gitterauflösung von Klimamodellen vor-
Wesentliche Klimavariablen (ECV)
Sphäre
Wesentliche Klimavariablen (Essential Climate Variables, ECV)
Atmosphäre (über Land-, Ozean- und Eisflächen)
oberflächennahe Atmosphäre: Lufttemperatur, Niederschlag, Luftdruck, Strahlungshaushalt, Windgeschwindigkeit und -richtung, Wasserdampf höhere Atmosphäre: Strahlungsbilanz der Erde (einschließlich solarer irradiance), Lufttemperatur (einschließlich MSU radiances), Windgeschwindigkeit und -richtung, Wasserdampf, Wolkeneigenschaften Zusammensetzung der Atmosphäre: Kohlendioxid, Methan, Ozon, langlebige Treibhausgase1, Aerosoleigenschaften
Ozean
Ozeanoberfläche: Oberflächentemperatur (SST), Salzgehalt der Meeresoberfläche, Meereshöhe, Wellenhöhe, oberflächennahe Strömung, Meereis, Ozeanfarbe (Bestimmung biologischer Aktivität), CO2-Partialdruck unterhalb der Meeresoberfläche: Temperatur, Salzgehalt, Strömung, Nährstoffe, Kohlenstoff, Phytoplankton
Terrestrisch2
Abflussspende der Flüsse, Wassernutzung, Grundwasser, Seespiegelstände, Schneebedeckung, Gletscher und Eiskappen, Permafrost und saisonal gefrorener Boden, Albedo, Landbedeckung (einschließlich Vegetationseinheiten), Anteil absorbierter fotosynthetisch aktiver Strahlung (fAPAR), Blattflächenindex (LAI), Biomasse, Feuereinwirkung, Bodenfeuchte3.
einschließlich Distickstoffoxid (N2O), Chlorofluorocarbonate (CFCs), Hydrochlorofluorocarbonate (HCFCs), Hydrofluorocarbonate (HFCs), Schwefelhexafluorid (SF6), und Perfluorocarbonate (PFCs). Schließt ein den Abfluss (m3/sek.), Grundwasserentnahmeraten (m3/Jahr) sowie Verortung, Ausdehnung und Andauer der Schneebedeckung (km2), Schneehöhe (cm), Inventar und Massenbilanz (kg m-2 Jahr-1) der Gletscher und Eiskappen, Gletscherlänge (m), Massenbilanz (kg m-2 Jahr-1) und Ausdehnung (km2) der Eisdecken, Permafrostausdehnung (km2), Temperaturprofile, oberirdische Biomasse (t/ha), gebrannte Fläche (ha), Zeit und Ort aktiver Feuer, Verbrennungseffizienz (Anteil in % verbrannte Vegetation/Flächeneinheit). Als zunehmend bedeutende ECV erkannt.
1.2 Klimaerfassung – Messnetze und Beobachtungssysteme
zunehmen. Dies erlaubt auch die Entwicklung neuer regional hochauflösender Modelle (z. B. REMO, COSMO). 5. In den Ozeanen entwickelt sich ein ähnliches Vor-Ort-Beobachtungssystem mittels automatisch registrierender „Drifter“, die regelmäßig (z. B. alle zehn Tage) auf- und abtauchen und ihre während der Tauchgänge gemessenen Druck-, Temperatur und Salzkonzentrationswerte an einen Daten registrierenden Satelliten melden (ARGOS). Das geschilderte internationale Datenerfassungssystem zur Erdbeobachtung liefert letztendlich das „Futter“ für die hochkomplexen Klimamodelle, die für die Berechnung von Klimaprojektionen genutzt werden.
19
Parametrisierung, spezielle Methode zur empirischen Berücksichtigung von Vorgängen und Prozessen, die nicht explizit betrachtet werden. Besondere Anwendung findet die Parametrisierung in der numerischen Wettervorhersage, bei der aufgrund des verwendeten Gitterpunktsystems kleinräumige Vorgänge, deren charakteristische Länge kleiner ist als die Gitterweite, nicht explizit dargestellt werden können. Aufgrund bekannter empirischer Zusammenhänge wird die pauschale Wirkung eines solchen Vorganges durch die berechenbaren mittleren Modellvariablen berücksichtigt, ohne dass der eigentliche Prozess detailliert erfasst wird. Vorgänge, die typischerweise in Wettervorhersagemodellen in parametrisierter Form berücksichtigt werden, sind die turbulenten Flüsse sowie die Wolken- und Niederschlagsbildung.
Klimamodellierung – Klimamodelle Klimamodelle haben sich stetig in ihrer Leistungskapazität hinsichtlich räumlicher Auflösung und Berücksichtigung wichtiger Teilprozesse beziehungsweise Sphären verbessert. Dennoch sind auch die heutigen Modelle noch immer weit davon entfernt, die physikalische Komplexität des gesamten Erdsystems nur annähernd abzubilden. Vielmehr geben sie überwiegend die Strömungsprozesse in der Atmosphäre und den Ozeanen wieder. Wichtige Teilmodelle für die Chemie der Atmosphäre, die Umsetzungen in der Biosphäre (Kohlenstoffkreislauf) oder die Spurenstoffkreisläufe in der Stratosphäre müssen in Zukunft noch ergänzt und an die bestehenden Modelle angekoppelt werden. Die Modellierung des komplexen Erdsystems stellt jedoch große Anforderungen an Rechenzeit und Rechnerkapazität. Daher werden international entsprechend große Rechneranlagen entwickelt und gebaut (z. B. am Max-PlanckInstitut, MPI, in Hamburg), um dieser Herausforderung zu begegnen. Einer der leistungsstärksten Supercomputer der Welt, der „Earth Simulator“, steht in Japan (Tokyo). Den Kern jedes Klimamodells bilden die Atmosphäre und das in ihr stattfindende Wettergeschehen. Die Atmosphäre steht mit der Hydrosphäre (Ozeane und Wasserkreislauf), der Kryosphäre (Eis und Schnee), der Biosphäre (Pflanzen und Tiere) sowie der Pedosphäre (Boden) und der Lithosphäre (Erdkruste) in Wechselwirkung. Die
zeitliche Dynamik dieses Verbund- bzw. Klimasystems wird durch die zum Teil großen Unterschiede in der zeitlichen Schwankungsintensität seiner Teilsysteme bestimmt. So verändert sich die Atmosphäre in Stunden und Tagen. Die Zeitskalen bei den Ozeanen und großen Eismassen können demgegenüber von Jahrhunderten bis Jahrtausenden reichen. Zudem können kleine, durch nicht lineare Wechselwirkungen hervorgerufene Störungen innerhalb des Klimasystems potenziell große Auswirkungen haben. Auch externe Systemanregungen – „Antriebe“ – sind zu berücksichtigen (z. B. Veränderungen in der Sonneneinstrahlung, Vulkanismus). Die Modelle bilden Atmosphäre und Ozeane als jeweilige Einzelsysteme unter Berücksichtigung ihrer Wechselwirkung physikalisch ab. Mathematisch entsteht dadurch ein gekoppeltes System von nicht linearen, partiellen und gewöhnlichen Differential- sowie einigen algebraischen Gleichungen. Die numerische Berechnung dieses Gleichungssystems erfordert eine Zerlegung der Erdatmosphäre und der Ozeane in Gitterzellen. Die Gitterzellen besitzen aktuell eine typische Kantenlänge von 250 bis 500 km (horizontal) und 9 bis 20 Schichten (vertikal). Die physikalisch-chemischen Vorgänge, die innerhalb einer Gitterzelle ablaufen (z. B. die Wolkenbildung) werden nicht modelliert, sondern „parametrisiert“. Die Parametrisierung der Prozesse
20
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
bedeutet die Berechnung der Zellengröße aus bekannten Werten an den Rändern jeder Gitterzelle über gesicherte physikalische Gesetzmäßigkeiten. Die heutigen Klimamodelle entwickelten sich aus Wettervorhersagemodellen und wurden routinemäßig erprobt. Dies bedeutet, dass sie mittels realer Daten kalibriert und geeicht werden. Dazu berechnet man mit ihnen das heutige Klima zurück und vergleicht die Modellergebnisse mit dem tatsächlich beobachteten Klima. Es werden globale Klimamodelle (Global Circulation Models, GCM) und regionale Klimamodelle (z. B. REMO, COSMO, WETTREG) unterschieden. Erstere beschreiben die gesamte Troposphäre, während regionale Modelle in der Regel zwar die gleiche Modellphysik nutzen, diese aber nur auf einen bestimmten geographischen Ausschnitt der Erde anwenden. Ein GCM berechnet die wichtigsten klimarelevanten physikalischen Vorgänge in der Erdatmosphäre, den Ozeanen und auf der Erdoberfläche und bildet diese Prozesse in stark vereinfachter Form ab. Vor allem Prozesse und Abläufe in der Biosphäre werden zurzeit noch als Größen
und Parameter vorgegeben. Es handelt sich um Systemgrößen, die sich während der Simulation den Systemveränderungen dynamisch anpassen sollten, um realistische Projektionen in die Zukunft ableiten zu können. Diese systeminternen Rückkopplungsprozesse stellen zurzeit noch eine große Herausforderung für die Modellierung dar. Die Modelle sind so komplex, dass sie nur in grober Auflösung (mehrere hundert Kilometer Gitterweite) gerechnet und abgebildet werden können. In Deutschland wird die Klimamodellierung schwerpunktmäßig am Max-Planck-Institut für Meteorologie in Hamburg betrieben. Hier wurden die globalen Klimamodelle ECHAM-4 und ECHAM-5 entwickelt, die die Basisdaten für den vierten Sachstandsbericht des Weltklimarats (IPCC) bildeten. Regionale Klimamodelle werden hauptsächlich an den großen Forschungsinstituten und -zentren erstellt (z. B. Forschungszentrum Karlsruhe, Potsdam-Institut für Klimafolgenforschung, PIK, sowie einige universitäre Institute). Eine vertiefende Einführung in die Modellierung findet sich bei von Storch et al. (1999).
physikalisches Klimasystem
: WCRP
Klimaänderung
stratosphärische Chemie/Dynamik
Vulkanismus
externer Antrieb
Sonne
atmosphärische Physik/Dynamik
Ozeandynamik
terrestrischer Energieund Wasserhaushalt
globaler Wasserkreislauf
marine Biogeochemie
Boden
Wasser
Treibhausgase
terrestrische Ökosysteme
anthropogene Aktivitäten
: IHDP
Landnutzung
troposphärische Chemie
Spurenstoffe, Treibhausgase
biogeochemische Spurenstoffkreisläufe
: IGBP
1.7 Das Erdsystemmodell. Die schematische Darstellung des Erdsystems und seiner Komponenten zeigt die Komplexität und damit Schwierigkeit einer umfassenden Modellierung des gesamten Systems. Das physikalische Klimasystem (blau) koordiniert das Weltklimaforschungsprogramm (WCRP). Das biologisch-chemische Klimasystem (dunkelblau) wird durch IGBP und der anthropogene Anteil am Klimasystem (grau) durch das IHDP gesteuert.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Immer wichtiger werdende Hilfsmittel im globalen und regionalen Beobachtungssystem sind die zahlreichen bestehenden und sich in Planung befindlichen Satellitensysteme. Das Wissen über Satelliten und deren Informationsangebot werden für das Verständnis der Klimaforschung immer wichtiger. Eine Übersicht aktueller und zukünftiger Möglichkeiten der „Klimadiagnose“ aus dem All liefert der nächste Abschnitt.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung Der Anblick unserer Erde, des Blauen Planeten, aus dem Weltraum ist zur Ikone unserer globalisierten Zeit geworden. Satelliten liefern mittels Sensoren vielfältige Umweltdaten von Flächen und Räumen, die mit anderen Methoden nicht zu-
sammengetragen werden könnten. Eine moderne zukunftsgerichtete Klimaforschung benötigt fundiertes Wissen über das System der Fernerkundung unserer Erde, die zur Verfügung stehenden Satelliten (einschließlich ihrer Sensoren) und die jeweiligen Datenprodukte. Die Abbildung 1.8 gibt einen Überblick des bis dato realisierten Beobachtungsnetzes der Erde. Ausgehend von der historischen Entwicklung der Fernerkundung geben die nächsten Abschnitte eine Übersicht der bestehenden Satellitensysteme und Datenprodukte. Diese Informationen sollen auf die aktuellen wissenschaftlichen Möglichkeiten hinweisen und gleichzeitig den Forschungsbedarf im Rahmen einer auf Klimawandel und Global Change gerichteten Forschung verdeutlichen. Die Ansprüche an eine satellitengestützte systematische Beobachtung unserer Erde wurden in den letzten Jahren mehrfach in unterschiedlichen „Strategiepapieren“ internationaler Organisationen formuliert und unterliegen einer stetigen Anpassung an die neuen Herausforderungen und Bedürfnisse der Forschung. Bezüglich des globalen Klima-
Globales Beobachtungssystem (GOS)
geostationärer Satellit
polarumlaufender Satellit
Satellitenaufnahmen
Flugzeugmessungen
Satellitenbodenstation
Ozeanmessbojen
Wetterradar
Satellitenmessungen
Schiffsmessungen
21
Station zur Messung der Hochatmosphäre (Radiosondenaufstiege)
Bodenstation nach WMO-Vorschrift
Bodendatenkontrollzentrum
1.8 Globales Beobachtungssystem der Erde (Quelle: GECOS 2007).
automatische Wetterstation
22
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
beobachtungssystems (GCOS) sind hier z. B. folgende Berichte zu nennen: GCOS-107, Systematic Observation Requirements for Satellite-Based Products for Climate. Supplemental details to the satellite-based componend of the Implementation Plan for the Global Observing System for Climate in Support of the UNFCCC. GCOS-107, WMO/TD No. 1338, September 2006 und GCOS-117, Future Climate Change Research and Observations: GCOS, WCRP and IGBP Learning from the IPCC Fourth Assessment Report Workshop and Survey Report GCOS-117, WCRP-127, IGBP Report No. 58, WMO/TD No. 1418, January 2008. Bevor wir uns mit den einzelnen Satellitensystemen beschäftigen, soll erläutert werden, was das Arbeitsgebiet Fernerkundung darstellt.
1.3.1 Fernerkundung – Was ist das? Jeder Mensch trägt sein eigenes Fernerkundungssystem mit sich. Das menschliche Sehvermögen ist ein beeindruckendes Fernerkundungssystem und erkennt in Rückkopplung mit unserem Gehirn und unserem Erfahrungsschatz komplexe Zusammenhänge. Unsere Augen nehmen das von der Umgebung reflektierte sichtbare Licht (Spektralbereich 0,4–0,7 Mikrometer) auf, interpretieren Farbe, Struktur, Umriss und Größe von Objekten und leiten daraus Informationen wie ihre Identität, ihren Zustand, ihre Geschwindigkeit und Bewegungsrichtung und andere Eigenschaften ab. Das menschliche Fernerkundungssystem hat allerdings im Hinblick auf globale Erkundungsaufgaben klare Grenzen. Denn die menschliche Fähigkeit, Bilder zu speichern und zu rekonstruieren, ist ungenau. Auch können wir keine Informationen aufnehmen, die auf Wellenlängen basieren, die für unsere Augen nicht wahrnehmbar sind. Gebiete, die schwer zu erreichen oder gefährlich sind wie Regionen mit hohen Temperaturen und starker Strahlung sowie weite Bereiche der Ozeane und Regenwälder verschließen sich ebenfalls dem menschlichen Beobachter. Nach allgemeiner Definition bedeutet der Begriff Fernerkundung das Erfassen und Auf-
nehmen von Objekten aus der Entfernung ohne direkten Kontakt des Aufnahmesystems (Sensor) mit dem zu erkundenden Objekt. Die Informationsgewinnung mit Fernerkundungssystemen ist demnach von in situ-Verfahren zu unterscheiden, welche die Messwerterfassung direkt am Ort der zu messenden Variable durchführen. Die Fernerkundung ermöglicht als einziges Verfahren die Gewinnung flächenhafter Informationen über unsere Erde. Dies geschieht mithilfe der elektromagnetischen Strahlung, die vom beobachteten Objekt abgestrahlt wird (Reflektionsstrahlung – passive Fernerkundung). Fernerkundungsverfahren gehen von dem Phänomen aus, dass die natürliche und die künstliche Strahlung (z. B. Sonnenlicht, Radar, Schall) von den Objekten unterschiedlich emittiert beziehungsweise reflektiert wird. Die elektromagnetische Strahlung setzt sich als Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien stellen die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen dar. Deshalb wird der zentrale Bereich der Fernerkundung auch als Erdbeobachtung (Earth Observation, EO) bezeichnet. Die elektromagnetische Strahlung wird von Energiequellen ausgesendet und breitet sich in der Atmosphäre aus. Dabei tritt sie in Interaktion mit den atmosphärischen Teilchen und mit der Erdoberfläche. Diese Interaktionen werden von Sensoren innerhalb oder außerhalb der Atmosphäre aufgezeichnet und in analoger und/oder digitaler Form gespeichert. Energiequellen wie Sonne und Erde emittieren elektromagnetische Strahlung in wellenlängenabhängigen Intensitäten (Plancksches Strahlungsgesetz, Stefan-Boltzmann-Gesetz, Wiensches Verschiebungsgesetz, ▶ Abschnitt 2.2). Passive Fernerkundungsmethoden zeichnen elektromagnetische Strahlung auf, die von der Erdoberfläche reflektiert und/oder emittiert wird. Aktive Fernerkundungsmethoden (Radar, Laser – LIDAR) senden selbst kohärente Strahlungspulse aus und registrieren die Laufzeit beziehungsweise die Amplituden- und Phasendifferenz der von der Erdoberfläche zurückgestreuten oder reflektierten Signale. Radiometrische Korrekturen berücksichtigen die Strahlungscharakteristika der jeweiligen Energiequellen.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
23
Das elektromagnetische Spektrum – Informationsträger der Fernerkundung Das elektromagnetische Spektrum wird vor allem durch die Basisparameter Wellenlänge und Frequenz charakterisiert. Die Wellenlänge wird in Bruchteilen der Längeneinheit Meter wie Nanometer [nm] oder Mikrometer [μm] angegeben. Parallel dazu ist aber auch die Angabe der Frequenz in Hertz oder Vielfache davon wie Megahertz [MHz], Gigahertz [GHz], Terahertz [THz] oder Petahertz [PHz] üblich. Diese Angaben werden vor allem bei Mikrowellen und langwelliger Strahlung benutzt. In der Wissenschaft finden aber auch Einheiten wie Wellenzahl [cm-1] oder Energie (Elektronenvolt [eV]) Verwendung. Beispielsweise sind 550 nm gleich 0,55 μm gleich 545,1 THz gleich 18 182 cm-1 gleich 2,25 eV. Das an sich kontinuierliche elektromagnetische Spektrum wird in der Praxis in Bereiche und Unterbereiche eingeteilt:
Diese Unterteilung wird oftmals noch feiner gegliedert. So kann der Bereich des sichtbaren Lichts in Farben unterschieden werden (blau 440–485 nm, grün 500–580 nm, rot 600– 680 nm), im mittleren Infrarot werden Unterbereiche des thermischen IR und des Wasserdampf-IR ausgewiesen und im Bereich der Mikrowellen sind ehemals militärische Bezeichnungen wie CBand, S-Band, oder X-Band in Gebrauch.
Tabelle 1.3 Praxisbezogene Unterteilung des elektromagnetischen Spektrums Wellenlänge
Frequenz
Bezeichnung
0,2 nm–125 nm
1 499 PHz–2,40 PHz
Vakuumultraviolett (extremes UV)
125 nm–200 nm
2,40 PHz–1,50 PHz
Vakuumultraviolett (Schumann-UV)
200 nm–260 nm
1,50 PHz–1,15 PHz
ultraviolett (UV-C)
260 nm–320 nm
1,15 PHz–937 THz
ultraviolett (UV-B)
320 nm–400 nm
937 THz–750 THz
ultraviolett (weiches UV) (UV-A)
400 nm–780 nm
750 THz–384 THz
sichtbares Licht (VIS)
780 nm–1 mm
384 THz–300 THz
nahes Infrarot (NIR)
1 mm–3,5 mm
300 THz–85,7 THz
kurzwelliges Infrarot (SWIR)
3,5 mm–50 mm
85,7 THz–6,00 THz
mittleres Infrarot (MIR)
50 mm–300 mm
6,00 THz–999 GHz
fernes Infrarot (FIR)
999 GHz–300 GHz
Submillimeterwellen
300 GHz–30 GHz
Mikrowellen (EHF)
30 GHz–3 GHz
Mikrowellen (SHF)
300 mm–1 mm 1 mm–1 cm 1 cm–10 cm 10 cm–1 m 1 m–10 m
3 GHz–300 MHz 300 MHz–30 MHz
Radiowellen (UHF) Radiowellen (VHF)
24
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
LIDAR (Light Detecting and Ranging) ist ein bodengestütztes oder flugzeuggetragenes Fernerkundungsmessverfahren, bei dem kohärentes Laserlicht pulsartig ausgesandt wird. Die Intensität und die Laufzeit des an Inhomogenitäten in der Atmosphäre zurück gestreuten Laserlichts werden gemessen und zur Bestimmung der Dichte und Entfernung der Streuobjekte verwendet. Mit dem LIDAR-Verfahren lässt sich die Höhe und Dichte von Aerosolschichten, Dunstschichten und Wolkenschichten vermessen.
In der Atmosphäre nimmt die Intensität der Sonnenstrahlung durch Streuung und Absorption in Funktion der Streupartikelgröße und der Wellenlänge ab (atmosphärische Extinktion, ▶ Kapitel 2). Eine große Strahlungsdurchlässigkeit besteht in sogenannten atmosphärischen Fenstern im sichtbaren Bereich des Spektrums, im nahen, im mittleren und im thermalen Infrarot sowie in hohem Maße im Mikrowellenbereich des elektromagnetischen Spektrums. Atmosphärische Korrekturen der Bilddaten sollen die durch die Extinktion bedingten störenden Einflüsse minimieren. Durch Interaktion der Strahlung mit der Erdoberfläche werden je nach Ausprägung der Landbedeckung (landcover) gewisse Strahlungsanteile reflektiert, andere absorbiert. Das Muster der
Reflexion als Funktion der Wellenlänge wird objektspezifische Spektralsignatur genannt und ist Kenngröße für die spektrale (thematische) Differenzierbarkeit von Objekttypen. Als mögliche Objekte sind alle Erscheinungen auf der Erdoberfläche, einschließlich der Ozeane (z. B. Ozeanfarbe), sowie Phänomene in der Atmosphäre zu nennen. Die Informationen beinhalten zum einen die Materialbestimmung, das heißt die Zusammensetzung von Erdoberfläche und Atmosphäre, und zum anderen die Zustandsbestimmung, z. B. Temperatur, Druck, Wasserdampfgehalt und andere klimatische Größen. Die Fernerkundungsdaten liegen heute überwiegend in digitaler Form vor und können in international standardisierten Formaten abgerufen werden, sodass sie für die Analyse in Geographischen Informationssystemen (GIS) und Klimamodellen verwendbar sind. Die wichtigsten Bestandteile der Bildanalyse in der Fernerkundung sind die Bildverbesserung, die geometrische Rektifizierung (Korrektur der perspektivisch und projektionsbedingt verzerrten Bilder), die Klassifizierung nach multi- und hyperspektralen sowie textur- und musterabhängigen Parametern. Für die Klimaforschung sind vor allem die multitemporalen Analysen und Vergleiche (Zeitreihenanalysen) langjähriger Satellitenmissionen von Bedeutung (z. B. NOAA AVHRR oder METEOSAT). Als Produkte der
Ozeanfarben und ihre Bedeutung Die „Färbung“ des Ozeans wird durch das Zusammenwirken des einfallenden Lichts mit den im Wasser vorhandenen Substanzen oder Teilchen verursacht. Wichtige Bestandteile sind frei treibende, fotosynthetische Organismen (Phytoplankton) und anorganische Schwebstoffe. Das Phytoplankton enthält wie die Landpflanzen Chlorophyll. Das Chlorophyll absorbiert Licht im blauen und roten Spektralbereich und reflektiert im grünen Bereich. Die Schwebstoffe reflektieren und absorbieren somit das eingestrahlte Licht, was die Lichtdurchlässigkeit des Wassers reduziert. Gelöste Stoffe können ebenfalls die Wasserfarbe beeinflussen. Radio-
meter untersuchen die Strahlungsintensität in bestimmten Wellenbereichen über der Meeresoberfläche. Die gemessene Strahlung wird quantitativ in Relation zu verschiedenen Bestandteilen der Wassersäule gesetzt, die mit dem sichtbaren Licht (VIS) interagieren. Die Chlorophyllkonzentration wird wiederum herangezogen, um die Kohlenstoffmenge zu bestimmen, die über die Primärproduktion (Photosynthese in Pflanzen) gebunden wird (Informationen zu den die Ozeane untersuchenden Sensoren Abschnitt 1.3.2 und auf der Internetseite der International Ocean Colour Coordinating Group ( ).
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Fernerkundung sind aber nicht nur geocodierte, originäre oder klassifizierte Bilddaten in digitaler und/oder analoger Form zu bezeichnen, sondern auch flächenbezogene Statistiken in Tabellenoder Diagrammform sowie objektspezifische spektrale Signaturenkataloge (z. B. spektrale Signaturen der wichtigsten Gesteine und Vegetationseinheiten). Zielobjekt der Fernerkundung im Kontext der Erdsystemforschung ist also die Erde mit ihrer
25
oberflächennahen Lithosphäre, Biosphäre, Hydrosphäre, Atmosphäre und Anthroposphäre. Seit Start des ersten Erdsatelliten am 4. Oktober 1956 durch die Sowjetunion (Sputnik 1) hat sich die Fernerkundung mit mehr als vierhundert weiteren Satelliten zum weltraumgestützten globalen Beobachtungssystem entwickelt. Das erste erfolgreiche meteorologische Messgerät an Bord eines Satelliten war ein Strahlungsmessgerät, ein sogenanntes Radiometer, das auf dem Satellit
Geostationäre und polarumlaufende Satelliten – das globale Beobachtungssystem der Erde Polarumlaufende Satelliten fliegen über die Polarregionen hinweg. Die meisten dieser Wettersatelliten befinden sich in Höhen von ca. 850 km über der Erde. Die Umlaufdauer beträgt dann etwa 100 Minuten, wobei sich während des Fluges von Pol zu Pol die Erde unter dem Satelliten hinwegdreht. Die Satelliten passieren jeweils einen bestimmten Ort täglich zur gleichen Zeit. Es können immer nur Streifen der Erdoberfläche aufgezeichnet werden. Für die globale Erdbeobachtung werden die einzelnen Beobachtungsstreifen aneinandergefügt. Die Umlaufbahn ist zusätzlich sonnensynchron, sodass alle Teile der Erde unter der gleichen Sonnenbeleuchtung überflogen und aufgenommen werden. Im Gegensatz zu den geostationären Satelliten können polarumlaufende Satelliten alle Teile der Erde beobachten, wenn auch nicht zeitgleich. Typische polarumlaufende Satelliten sind die Wettersatelliten der NOAA (TIROS-Satelliten), EUMETSAT (MetOp-Satelliten), die experimentellen Satelliten ERS-1 und -2 der ESA und ENVISAT sowie die Land erkundenden Satelliten Landsat, SPOT, IKONOS und Quickbird. Geostationäre Satelliten stehen immer in der gleichen Position in Bezug zu der sich drehenden Erde. Dies ist mit geringem energetischem Aufwand nur am Äquator möglich, da dort die Zentrifugalkraft und die Erdanziehungskraft im Gleichgewicht stehen. Ein Satellit auf einer geostationären Umlaufbahn legt dort eine Kreisbahn in einer Höhe von 35 790 Kilometern zurück. Die Winkelgeschwindigkeit des Satellitenumlaufs entspricht derjenigen der Erdrotation, daher werden diese Satelliten auch als erdsynchrone oder geosynchrone Satelliten bezeichnet. Ein Umlauf
entspricht 24 Stunden, also der Zeit, welche die Erde für die Drehung um ihre eigene Körperachse benötigt. Von der Erde aus betrachtet, scheint der Satellit stillzustehen (stationär). Auf diese Weise ist eine kontinuierliche Beobachtung eines Gebietes möglich. Allerdings können geostationäre Satelliten keine Daten von den Polregionen empfangen oder dorthin übermitteln. Beispiele wichtiger geostationärer Satelliten sind GOES, Meteosat und GMS sowie die meisten kommerziellen Telekommunikationssatelliten.
N polarumlaufend
Äqu
ato
r
geostationär
S
1.9 Arten von Umlaufbahnen, Quelle: Kappas 1994.
26
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Geoinformationssystem, GIS, Geographisches Informationssystem. Ein System, in dem Systembetreiber auf Anforderungen von Systembenutzern Informationen mit Raumbezug unter Anwendung technischer Hilfsmittel produzieren und bereitstellen. Unter Einsatz von digitalen Technologien werden objektstrukturierte Modelle der Umwelt erzeugt und fortgeführt (z.B. ATKIS). Aus ihnen werden automatisiert und z.T. durch Analyse Geo-Informationen abgeleitet und dargestellt. GIS werden betrieben mit GIS-Technologie. Sie umfasst Komponenten für die digitale Datenerfassung und Datenverwaltung, die numerische und graphische Datenverarbeitung, die Datenmodellierung und Datenanalyse und die Visualisierung. Die Komponenten können sowohl zentral als auch dezentral organisiert und über Netzwerke zugänglich sein.
Explorer 7 am 13. Oktober 1959 gestartet wurde. Seitdem hat sich die Satellitenklimatologie rasant entwickelt. Heute basiert die operationelle Beobachtung des Wetter- und Klimageschehens auf geostationären und polarumlaufenden Satelliten. Nach den ersten Starts Ende der 1950er-Jahre begann Anfang der 1960er-Jahre mit dem Start des ersten Wettersatelliten TIROS nach Jahren der reinen Luftbildinterpretation die Ära der satellitenbildgestützten Fernerkundung. Am 1. April 1960 funkte TIROS 1 aus einer Höhe von rund 700 km das erste Satellitenfoto der Erde. Obwohl TIROS nur insgesamt 78 Tage im Einsatz war, zeigte dieser Satellit eine neue Perspektive auf die Welt und verdeutlichte die prinzipielle Methode, Wolken- und Wettermuster in größeren Zusammenhängen als von der Erde aus möglich zu erfassen. Eine weitere Ära in der Fernerkundung der Erde – und damit auch bald die allgemeine Verwendung der Begriffe „Remote Sensing“ beziehungsweise „Fernerkundung“ – begann mit dem Start des ersten für zivile Zwecke der Erfassung von Landoberflächen gestarteten ERTS-1-Satelliten im Jahr 1972. ERTS steht für Earth Resources Technology Satellite und ist gleichzeitig die ursprüngliche Bezeichnung für den 1972 gestarteten Landsat-1-Satelliten. Sein Aufbau beruhte auf dem des Wettersatelliten Nimbus 4. Der ERTS-1 hatte den Multispektralscanner (MSS) an Bord,
der die Erde aus einer Höhe von 900 km abbildete, und zwar mit Spektralbändern im grünen, roten und infraroten Bereich sowie mit einer erstmaligen Auflösung von 80 m (Missionsende 1978). Diesen ersten Satellitenmissionen folgte eine stetige Weiterentwicklung der Auswertungstechniken einschließlich des Radars. Vor allem die Verbesserung und damit Vielfalt der Sensoren setzte hier Maßstäbe. Hinzu kamen Verknüpfungsmöglichkeiten verschiedener Fernerkundungsdaten untereinander und die Schaffung abgeleiteter Produkte sowie die Vernetzung mit anderen Daten in geographischen Informationssystemen (Kappas 2001). Zeitgleich vollzog sich der Übergang von experimenteller zu operationeller und damit wirtschaftlicher Nutzung der Satellitendaten. Heute bestimmen zwei Trends die zukünftige Entwicklung, die einen zunehmend vielseitigen Einsatz der Fernerkundung für die Analyse des Erdsystems erlaubt:
• die immer feinere spektrale Differenzierung und höhere räumliche Auflösung
• die großräumige Erfassung für ein globales Erdsystemmonitoring (Land, Ozean und Atmosphäre) Eine Übersicht der wichtigsten polarumlaufenden und geostationären Satelliten für die Klimaund Global Change Forschung wird in ▶ Abschnitt 1.3.2 gegeben.
1.3.2 Satellitensysteme für die Klima- und Global-Change-Forschung Die Beobachtungsdatensätze vieler Klimavariablen zeigen über die letzten Jahrzehnte hinweg verschiedene, bis jetzt ungelöste Inkonsistenzen und Diskontinuitäten. Diese Inkonsistenzen gelten z. B. für Temperaturzeitreihen abgeleitet aus MSU-Instrumenten (Microwave Sounding Unit Satellite Instrument) und Radiosondierungen sowie für satellitengestützte Wolkenprodukte, satellitengestützte Messungen der Schnee- und Meereisbedeckung und viele andere Zeitreihen. Eine Bewertung von klimatologischen Trends und deren Ursachen wird somit erschwert. His-
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
27
Wettersatelliten Wettersatelliten ergänzen mittels ihrer Datenaufzeichnung die vom Boden geführten meteorologischen Beobachtungen und unterstützen so die Aufgaben der Wetterdienste und der Weltorganisation für Meteorologie (WMO). Sie liefern permanent Daten und Bilder über die Wolkenverteilung und Wolkenarten, die Bewegung und Zugbahnen der Wolken, die Windbewegungen, die Strahlungstemperaturen, die Schnee- und Eisbedeckung, die Oberflächentemperatur der Wasser- und Landflächen sowie den Zustand der Atmosphäre (u. a. Luftdruck, Niederschlag, Ozongehalt, Aerosole, Temperatur- und Feuchtigkeitsprofile). Neben den wichtigen Klimaelementen, die zur Wettervorhersage nötig sind, informieren die Satelliten auch über den Zustand der Waldgebiete, Ernte- und Weideflächen, Überschwemmungsgebiete, Meeresströmungen, Eisberge und Vulkanausbrüche. Die Satelliten sind mit Fernsehkameras, Infrarot-Radiometern und atmosphärischen Soundern (sogenannte Sondierer, passive Sensoren,
GOS Satelliten und Sensoren
GSICS Satellitendaten
wichtige Klimadatenzeitreihen
RSSCCM
Nutzer
ECVSatellitenprodukte
1.10 Die Rolle des globalen R/SSC-CM-Netzwerks für ein nachhaltig satellitenbasiertes Klimamonitoring.
torische Klimadaten und deren Potenzial zur Ableitung „gesicherter“ Klimasignale werden aber immer wichtiger, und somit ist eine „Reprozessierung“ der Klimadatenzeitreihen erforderlich. Die Anforderungen an eine Reprozessierung langer Klimadatenreihen wurden von GECOS erkannt und im GECOS Implementation Plan (GIP) berücksichtigt. Das Weltklimaforschungsprogramm (WCRP) reagierte mit der Einrichtung eines Observation and Assimilation Panel (WOAP). Die Weltraumagenturen und das WMO-Weltraumprogramm entwickelten in Folge das Global Satellite Inter-Calibration System (GSICS). Hierin findet sich ein Imple-
die Höhenprofillinien von Druck, Temperatur oder Spurengaskonzentrationen in der Atmosphäre erfassen) bestückt. Viele Sounder arbeiten nach dem Prinzip der „Horizontsondierung“ – sogenannte Limb-Sounder – oder der Okkultation. Bei Okkultation messen Sounder, die von einem anderen Objekt am Himmel – Sonne, Mond, Sterne oder anderer Satellit – ausgehende und durch die Atmosphäre teilweise gebrochene, gestreute oder absorbierte Strahlung. Profilinformation kann aber auch aus AuswertungenderDruck-oderTemperaturabhängigkeiten der atmosphärischen Spektren gewonnen werden. Typische horizontsondierende Sounder zur Bestimmung von Spurengasprofilen für atmosphärenchemische Untersuchungen sind beispielsweise AMAS, MAS oder MIPAS, HIRS oder MHS, die für meteorologische Fragestellungen optimiert wurden. Wettersatelliten umkreisen die Erde entweder auf polaren Umlaufbahnen in etwa 800 bis 1 200 Kilometer Höhe oder stehen in geostationären Positionen (etwa 36 000 km).
mentierungsplan für ein globales Netzwerk regionaler und spezialisierter Zentren für die Klimabeobachtung (Regional/Specialised Satellite Centres for Climate Monitoring, R/SSC-CM). Diese regionalen Zentren werden eine wichtige Rolle in der Prozessierungskette für die Ableitung fundamentaler Klimadatenzeitreihen und weiterer aus Satellitenbeobachtungen abgeleiteter Datenprodukte für die als wesentlich erachteten Klimavariablen (Essential Climate Variables, ECV) spielen. Das Globale Beobachtungssystem besteht aus terrestrischen Messstationen, Ozeanstationen sowie aus satellitenbasierten Messinstrumenten. Die satellitenbasierten Systeme werden von Organisationen betreut, die eng mit den nationalen Wetterdiensten vernetzt sind. Für Europa sind hier z. B. die zwischenstaatlichen Organisationen EUMETSAT und ESA zu nennen. International wurde ein Forum für die Koordinierung der meteorologischen Satelliten gegründet (Coordination Group for Meteorological Satellites, CGMS). Die Mitglieder dieses Forums sind (Stand 2008):
28
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
• der chinesische Meteorologische Wetterdienst (China Meteorological Department, cmA) • die europäische zwischenstaatliche Satellitenorganisation (EUMETSAT) mit über 18 Mitgliedstaaten und 11 kooperierenden Staaten • der indische Wetterdienst (India Meteorological Department, IMD) • die zwischenstaatliche ozeanische Kommission (Intergovernmental Oceanographic Commission, IOC) der UNESCO
• der japanische·Wetterdienst (Japan Meteorological Agency, JMA)
• der koreanische Wetterdienst (Korea Meteorological Administration, kmA)
• die amerikanische NOAA (National Oceanic and Atmospheric Administration)
• der hydrometeorologische Service der Russischen Förderation (HydroMeteorological Service of the Russian Federation, RosHydroMet) • die Weltorganisation für Meteorologie (WMO)
Begriffserläuterungen: Satelliteninstrumente Scatterometer Nicht abbildendes Radarinstrument. Es erfasst quantitativ die Rückstreukoeffizienten der Geländeoberfläche in Funktion des Inzidenzwinkels. Das Scatterometer sendet elektromagnetische Energie im Mikrowellenbereich (0,3 GHz bis 300 GHz) aus und misst das Ausmaß der von den Objekten der Erdoberfläche in Richtung der Plattform rückgestreuten Energie in Funktion der technischen Parameter des Scatterometers, der Distanz zwischen der Plattform und den Objekten (Erdoberfläche, Meeresoberfläche) und den Eigenschaften der Objekte. Es ermittelt beispielsweise die Windgeschwindigkeit und -richtung über den Meeren, indem es die Rückstreuung misst, die von den kleinen windverursachten Rippeln auf der Wasseroberfläche ausgeht. Sounder (Sondierer) Der Begriff wird im Allgemeinen für passive Sensoren verwendet, die Höhenprofillinien von Druck, Temperatur oder Spurengaskonzentrationen in der Atmosphäre erfassen. Viele Sounder arbeiten nach dem Prinzip der Okkultation oder „Horizontsondierung“ (Limb-Sounder) beziehungsweise im Nadir. Typische horizontsondierende Sounder zur Bestimmung von Spurengasprofilen für atmosphärenchemische Untersuchungen sind beispielsweise HIRS oder MHS, die speziell für meteorologische Fragestellungen optimiert wurden. Abbildendes Spektrometer Gruppe abbildender Sensoren mit hohem spektralem Informationsgehalt. Abbildende Spektrometer arbeiten ohne mechanische Scanner. Es wird auf einem zweidimensionalen Detektor (CCD) abgebildet. Die Rauminformation wird dabei in „Cross-Track“-Richtung auf einer und die spek-
trale Information auf der zweiten Dimension des Detektors erfasst. Die meisten abbildenden Spektrometer werden überwiegend von Flugzeugen aus eingesetzt. Radiometer Passives Instrument, das elektromagnetische Strahlung quantitativ erfasst, meist im Mikrowellen-, Infrarot- und Nahinfrarotbereich. Die Wettersatelliten tragen Radiometer, um die Strahlung von Schnee, Eis, Wolken, Wasserkörpern der Erdoberfläche und der Sonne zu messen. Damit wird der Flüssigwasser- und Wasserdampfgehalt der Atmosphäre ermittelt. Imager Allgemein ein Satelliteninstrument, das Daten von der Erde und ihrer Atmosphäre aufzeichnet und verortet. Die Daten eines Imager werden von Computern in Bilder umgesetzt. Scanner Abtastsystem zur Aufnahme von Bilddaten. Im Gegensatz zur Fotografie, mit der gleichzeitig ein Gesamtbild einer größeren Geländefläche aufgenommen wird, beobachtet man mit einem Scanner oder Abtaster zeilenweise oder bildelementweise (Pixel) nur die von kleinen Flächenelementen des Geländes ausgehende elektromagnetische Strahlung. Um ein größeres Gebiet bildhaft aufzunehmen, müssen viele derartige Einzelbeobachtungen zusammengefügt werden. Dabei wird die Eigenbewegung des Sensorträgers (Flugzeug, Satellit) genutzt und mit dem Abtastvorgang kombiniert. Man unterscheidet zwischen optisch-mechanischen (z. B. Landsat) und optoelektronischen Scannern. Weiterhin wird zwischen den nur in einem Spektralbereich aufnehmenden einkanaligen und den mehrkanaligen Multispektral-Scannern unterschieden.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Das Koordinierungsforum CGMS umfasst zudem die folgenden auf Forschung und Entwicklung (Research & Development, R&D) ausgerichteten Weltraumorganisationen:
• die französische CNES (Centre National d’Etudes Spatiales)
• die chinesische CNSA (China National Space Agency)
• die europäische ESA (European Space Agency) • die indische ISRO (India Space Research Organisation)
29
Verfügung stehenden Daten aus Satellitenbeobachtungen, deren räumliche und zeitliche Auflösung sowie deren Bedeutung zur Bearbeitung wichtiger klimatologischer Fragestellungen. Die Steckbriefe der auf den Satelliten vorhandenen Instrumente (z. B. AVHRR oder MODIS) finden sich in Tabellenform im Anhang. Zum besseren Verständnis der in der Fernerkundung benutzten Abkürzungen für Kanalbezeichnungen im elektromagnetischen Spektrum dient der folgende Exkurs zur Festlegung der Spektral-(Kanal-)Bereiche.
• die japanische JAXA (Japan Aerospace Exploration Agency), ehemals NASDA
• die koreanische KARI (Korea Aerospace Research Institute) • die amerikanische NASA (National Aeronautics and Space Administration) • die russische RosKosmos (Russian Space Agency) Betrachten wir nun die rein satellitengestützte Komponente des Globalen Beobachtungssystems (GOS) und damit die vorhandenen und in naher Zukunft geplanten geostationären und polarumlaufenden Satelliten. Dabei handelt es sich überwiegend um Satellitenprogramme, also um langfristig angelegte Satellitenmissionen, die eine wissenschaftliche Historie aufweisen und auf einer kontinuierlich verbesserten Sensortechnik und Fortführung des Missionsziels (z. B. in Richtung Wetterbeobachtung, Landbedeckungsbeobachtung) aufbauen. Grob werden operationell angelegte und auf Forschung und Entwicklung (R&D) ausgerichtete Satellitenmissionen unterschieden. Im Folgenden wird der aktuelle Status der satellitengestützten Komponente des GOS für die Klimaforschung vorgestellt (Stand 2008). Zuerst werden die geostationären meteorologischen Satelliten, dann die sonnensynchronen, polarumlaufenden Satelliten und schließlich die reinen R&D-Satellitenmissionen erläutert. Abbildung 1.8 zeigt den Aufbau des GOS basierend auf geostationären (äußerer Kreis) und polarumlaufenden Satelliten (innerer Kreis). Wegen des Umfangs der unterschiedlichen Systeme kann in diesem Buch nur ein Überblick der wichtigsten Satelliten, deren Sensoren und Datenprodukte gegeben werden. Im Vordergrund der Betrachtung stehen dabei die zur
Geostationäre meteorologische Satellitenprogramme Kernaufgabe der geostationären Satelliten ist die Bereitstellung von Wolkenbildern in einem Zeitintervall von 30 Minuten (heute bis zu 15 Minuten) für die Wettervorhersage sowie die Beobachtung und Ableitung von Windvektoren und Wolkeneigenschaften (Wasserdampfgehalt). Die Satelliten sind nahe am Äquator stationiert und decken einen Breitenkreis von etwa 60° Nord/ Süd bis 45° Nord/Süd ab. Viele der geostationären Satelliten bieten zusätzliche Informationen z. B. über Temperatur- und Feuchteprofile mittels Infrarot-Radiometrie sowie über den Strahlungshaushalt. Weitere Produkte können durch Bildverarbeitung abgeleitet werden. Hierzu gehören Datenprodukte zur Beschreibung spezifischer Oberflächenparameter und Niederschlagsabschätzungen. Zu den operationellen geostationären Satelliten gehören folgende Programme:
• • • • •
das europäische Meteosat-Programm das amerikanische GOES-Programm das japanische MTSAT-Programm das russische GOMS-/Elektro-Programm das chinesische FY2-Programm (inzwischen ersetzt durch FY4) • das indische INSAT- und KALPANA-Programm (ehemals MetSat Programm) • das koreanische COMS-Programm, das sich noch in Entwicklung befindet Die einzelnen Programme werden in den folgenden Abschnitten kurz vorgestellt und hinsichtlich ihrer Sensoren und Datenprodukte erläutert.
30
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Festlegung spektraler Bereiche (auch Kanäle – channels – oder spektrale Bänder genannt) Einteilungen im optischen Bereich: UV
Ultraviolett
0,01–0,38 μm
B
Blau
0,436 μm
G
Grün
0,546 μm
R
Rot
0,700 μm
VIS
sichtbar
0,38–0,78 μm
NIR
nahes Infrarot
0,78–1,30 μm
VNIR
sichtbar und nahes InfrarRot (VIS + NIR)
0,38–1,3 μm
SWIR
kurzwelliges Infrarot
1,3–3,0 μm
SW
kurzwellig
0,2–4,0 μm
LW
langwellig
MWIR
mittelwelliges Infrarot
3,0–6,0 μm
TIR
thermales Infrarot
6,0–15,0 μm
IR
Infrarot (MWIR + TIR)
4–100 μm
3–15 μm
FIR
fernes Infrarot
Sub-mm
Submillimeter (Teil von FIR)
15 μm–1 mm (= 300 GHz) 3000–300 GHz (oder 0,1–1mm)
Mm
Millimeter (Teil von of MW)
300–30 GHz (oder 1–10 mm)
MW
Mikrowelle
300–1 GHz (oder 0,1–30 cm)
Einteilungen in der Radartechnologie: Band
Frequenzbereich
P
220–390 MHz
Wellenlängenbereich 77–136 cm
UHF
300–1000 MHz
30–100 cm
L
1–2 GHz
15–30 cm
S
2–4 GHz
7,5–15 cm
C
4–8 GHz
3,75–7,5 cm
X
8–12,5 GHz
Ku K Ka
12,5–18 GHz 18–26,5 GHz
2,4–3,75 cm 1,67–2,4 cm 1,18–1,67 cm
26,5–40 GHz
0,75–1,18 cm
V
40–75 GHz
4,0–7,5 mm
W
75–110 GHz
2,75–4,0
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Das Meteosat-Programm Meteosat ist das englische Akronym für Meteorological Satellite und steht für eine Reihe von europäischen Wettersatelliten, die von der Europäischen Weltraumorganisation (ESA) in den Orbit gebracht wurden und von der EUMETSAT betrieben werden. Meteosat ist über dem Golf von Guinea (0°/0°) in 35 800 km Höhe positioniert und nimmt alle 30 (beziehungsweise 15) Minuten einen Ausschnitt von der Erdoberfläche mit einer NordSüd- und West-Ost-Erstreckung von 70° auf. Durch Meteosat wird Afrika, der Ostatlantik, der Nahe Osten und Europa abgedeckt. Meteosat ist Teil eines globalen meteorologischen Satellitensystems und bildet mit vier weiteren Satellitensystemen, dem japanischen GMS, dem indischen INSAT und den amerikanischen GOES-E und GOES-W ein weltumspannendes Wetterbeobachtungssystem. Wichtigster Sensor ist ein Radiometer. Ein Radiometer ist ein passives Instrument, welches elektromagnetische Strahlung quantitativ misst, meistens im Mikrowellen-, Infrarot- und Nah-Infrarotbereich. Wettersatelliten wie Meteosat und GOES tragen Radiometer, um die Strahlung von Schnee, Eis, Wolken, Wasserkörpern, der Erdoberfläche und der Sonne zu messen. So wird der Flüssigwasser- und Wasserdampfgehalt der Atmosphäre ermittelt. Weiterhin können mithilfe derartiger Messungen Altimeterdaten (Höhenabschätzungen) überprüft beziehungsweise korrigiert werden. Das Meteosat-Radiometer zeichnet in drei Spektralkanälen auf: Im VIS (sichtbares Licht, 0,5–0,9 μm), im WV (Bereich hoher Wasserdampfabsorption, 5,7–7,1 μm) und im TIR (thermisches Infrarot, 10,5–12,5 μm). Der erste MSG-Satellit (Meteosat Second Generation, MSG-1) wurde am 29. August 2002 gestartet. Der neue MSG-Satellit nimmt feinere Multispektralbilder in doppelter Häufigkeit (15 anstelle 30 Minuten) auf und besitzt zwölf Kanäle gegenüber bisher nur drei Kanälen. Das europäische Meteosat-Programm lässt sich in drei Phasen einteilen:
• Meteosat Pre-Operational Programme (Meteosat-1/2/3)
• Meteosat Operational Programme (MOP, Meteosat-4/5/6/7, auch bekannt als Meteosat Transition Programme, MTP) • Meteosat Second Generation (MSG, Meteosat-8 und in Folge 9/10/11)
31
Die Tabelle 1.4 fasst die historische Entwicklung des Meteosat-Programms und seiner Instrumente zusammen. Seit Mitte 2006 sind drei Satelliten der MOPSerie noch aktiv (Meteosat-5, 6 und 7). Auf die MOP-Serie folgte der erste Prototyp der MSGSerie (MSG-1 = Meteosat-8). Sein Nachfolger MSG-2 (Meteosat-9) folgte 2005 und arbeitet bis heute operationell. Die erste Generation lieferte vor allem über den Radiometer MVIRI (Meteosat Visible InfraRed) Informationen zu Wolken und Wasserdampfgehalt in drei VIS/IR-Kanälen mit einer zeitlichen Auflösung von 30 Minuten und einer räumlichen Auflösung von 5 km (IFOV) für die IR-Kanäle und 2,5 km für den Kanal im sichtbaren Spektrum (VIS). Die zweite Generation der Meteosat-Satelliten verfügt über verbesserte Sensoren. Es handelt sich zum einen um SEVIRI (Spinning Enhanced VIS and IR Imager), einen 12-Kanal-VIS/ IR-Radiometer mit 3 km räumlicher Auflösung in 11 VIS/IR-Kanälen und einer 1 km Auflösung in einem Kanal (Breitbandkanal 0,6–0,9 mm). Aufgabe dieses Sensors ist vor allem die Ableitung von Windparametern sowie die Verfolgung von Wolkenfeldern und deren Wasserdampfeigenschaften (Meteosat-8 bis 11). Dieses Radiometer soll bis 2019 operationell arbeiten. Die genaue Aufteilung der SEVIRI-Kanäle lässt sich Tabelle 1.6 entnehmen. Ein weiterer Sensor auf Meteosat ist GERB (Geostationary Earth Radiation Budget Experiment), ein 2-Kanal-Breitbandradiometer zur Erfassung des Strahlungshaushalts. Er besitzt eine räumliche Auflösung von 42 km bei einem zeitlichen Bildzyklus von fünf Minuten (beziehungsweise 15 Minuten integriert über drei Zyklen zur Anpassung an die Signal-to-Noise-Ratio-(SNR-) Anforderungen). GERB zeichnet seit 2002 auf und soll ebenfalls bis 2019 im Einsatz bleiben. Das Signal-Rausch-Verhältnis, Signal-to-NoiseRatio (SNR) ist definiert als das Verhältnis der vorhandenen mittleren Signalleistung zur vorhanden mittleren Rauschleistung, wobei der Ursprung der Rauschleistung nicht berücksichtigt wird. Als Verhältnis von Größen gleicher Maßeinheit ist das Signal-Rausch-Verhältnis dimensionslos. Je mehr über das Nutzsignal bekannt ist, desto stärker lässt sich die SNR anheben.
32
Tabelle 1.4
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Historie der Meteosat-Mission
Satellit
Start
Missionsende
Meteosat-1
23.11.1977
Meteosat-2
Status
Instrumente
24.11.1979
inaktiv
MVIRI, DCS
19.06.1981
2.12.1991
inaktiv
MVIRI, DCS
Meteosat-3
15.06.1988
22.11.1995
inaktiv
MVIRI, DCS
Meteosat-4
6.03.1989
8.11.1995
inaktiv
MVIRI, DCS
Meteosat-5
2.03.1991
erwartet > 2007
63°O
operationell
MVIRI, DCS
Meteosat-6
20.11.1993
erwartet > 2007
10°O
Backup
MVIRI, DCS
Meteosat-7
3.09.1997
erwartet > 2008
→57,5°O
Ersatz für Meteosat-5
MVIRI, DCS
Meteosat-8 (MSG1)
28.08.2002
erwartet > 2009
3,4° W
operationell
SEVIRI, GERB, DCS, GEOSAR
Meteosat-9 (MSG2)
22.12.2005
erwartet > 2013
→0°
in Bereitschaft
SEVIRI, GERB, DCS, GEOSAR
Meteosat-10
2011
erwartet > 2018
in Bau
SEVIRI, GERB, DCS, GEOSAR
Meteosat-11
2013
erwartet > 2019
in Bau
SEVIRI, GERB, DCS, GEOSAR
MTG
2015
erwartet >2020
wird definiert
wird definiert (FCI, IRS, LI)
Tabelle 1.5 Spektrale Aufteilung der MVIRI-Kanäle zentrale Wellenlänge
Wellenlängenbereich
0,70 μm
0,50–0,90 μm
6,40 μm
5,70–7,10 μm
11,5 μm
10,5–12,5 μm
Position
Tabelle 1.6 Spektrale Aufteilung der SEVIRI-Kanäle zentraler Bereich (Breitband)
Wellenlängenbereich 0,6–0,9 μm
0,635 μm
0,56–0,71 μm
0,81 μm
0,74–0,88 μm
1,64 μm
1,50–1,78 μm
3,92 μm
3,48–4,36 μm
6,25 μm
5,35–7,15 μm
7,35 μm
6,85–7,85 μm
8,70 μm
8,30–9,10 μm
9,66 μm
9,38–9,94 μm
10,8 μm
9,80–11,8 μm
12,0 μm
11,0–13,0 μm
13,4 μm
12,4–14,4 μm
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
33
Das GOES-Programm
Die Meteosat-Satelliten verfügen darüber hinaus über ein Datenaufzeichnungssystem (Data Collection Service, DCS) und das GEOSAR-System (Geostationary Search And Rescue). Sämtliche Daten der MSG-Satelliten werden in Echtzeit an primäre Bodenstationen gesendet (Primary Ground Station, PGS). Die Planung für die dritte Generation von Meteosat-Satelliten (Meteosat Third Generation, MTG) begann im Jahr 2001. Der erste Prototyp der MTG-Reihe soll 2015 startbereit sein. Die folgenden Instrumente werden dann das bestehende Meteosat-Programm ergänzen: FCI (Flexible Combined Imager), 16-Kanal-VIS/ IR-Radiometer mit unterschiedlichen Auflösungen in zwei Operationsmodi. Ein Modus ist bestimmt für die regionale kurzfristige Aufzeichnung und Vorhersage (nowcasting) mit einer räumlichen Auflösung von 0,5 km im Spektralbereich zwischen 0,645 und 2,26 μm und einer Auflösung von 1 km im Wellenlängenbereich von 3,8 bis 10,5 μm und weiteren 6 kurzwelligen Kanälen. Sechs Infrarotkanäle werden in einer räumlichen Auflösung von 2 km mit hohen zeitlichen Scan-Intervallen (2,5 Minuten) aufzeichnen. IRS (InfraRed Sounder), IR-Interferometer zur Lieferung hoch aufgelöster Profile der Temperatur und Luftfeuchte. Weiterhin können mit diesem Instrument hochgenaue Windprofile in der Atmosphäre abgeleitet werden. LI (Lightning Imager), CCD Kamera, die im Spektralbereich von 777,4 nm (O2) aufzeichnet und Informationen über den Sauerstoffgehalt liefert. Die räumliche Auflösung wird 10 km bei einer zeitlichen Wiederholungsfrequenz von ~ 1 ms betragen. Weiterhin soll ergänzend zu FCI, IRS und LI ein UV/VIS-Spektrometer zur Bestimmung der Atmosphärenchemie mitfliegen. Die Instrumentenbeschreibung für FCI, IRS und LI findet sich tabellarisch im Anhang.
Das amerikanische GOES-Programm (Geostationary Operational Environmental Satellite) bezeichnet die von der NASA entwickelte und von der NOAA betreute Serie von geostationären Satelliten. GOES gehört zum gleichen weltumspannenden System wie Meteosat und beobachtet die USA und benachbarte Ozeane aus einer Höhe von 35 790 km über dem Äquator, wobei GOES eine Fläche von 75° Ost (GOES-E) bis 135° West (GOES-W) abdeckt. Die Auflösung im sichtbaren Bereich beträgt 1 km, im infraroten Bereich 4 km. Die GOES-Satelliten liefern ganztägig Wetterdaten, überwachen bedrohliche Wetterereignisse wie Wirbelstürme oder Gewitter und übermitteln zusätzlich Umweltdaten von Bodenbeobachtungsstationen zu Datenzentren. Weiterhin überwachen sie das Erdmagnetfeld, den energetischen Teilchenfluss in der Satellitenumgebung und die Röntgenstrahlung der Sonne. Die Tabelle 1.8 fasst die Chronologie des GOESProgramms mit seinen Vorgängersatelliten ATS (Application Technology Satellie, ATS-1 – ATS-3 und ATS-6) und SMS (Synchronous Meteorological Satellite) zusammen. GOES-11 und GOES-12 sind zurzeit die aktiven GOES-Satelliten, wobei GOES-13 bereits 2006 gestartet wurde, um einen der beiden bei Bedarf zu ersetzen. Im Folgenden wird die Instrumentenfracht (payload) von GOES-8 bis GOES-15 vorgestellt: IMAGER, 5-Kanal-VIS/IR-Radiometer zur Bestimmung von Windparametern, Wolken und Wasserdampfgehalt. Es bietet eine räumliche Auflösung von 4 km in den infraroten Kanälen und 1 km im sichtbaren Bereich bei einer zeitlichen Wiederholungsrate von 30 Minuten (full disk) beziehungsweise 15 Minuten (half disk). SOUNDER, 19-Kanal-IR-Radiometer mit einem Kanal im sichtbaren Bereich. Es besitzt eine räumliche Auflösung von 8 km und wird opera-
Tabelle 1.7 Spektrale Aufteilung der GERB-Kanäle Kanal
Spektralbereich
SNR-Genauigkeit
absolute Genauigkeit
SNR
kurzwellig
0,32–4,0 μm
0,8 Wm-2sr-1
2,4 Wm-2sr-1
1 250
total radiance
0,32–3,0 μm
-2sr-1
0,15 Wm
0,4
Wm-2sr-1
400
34
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
tionell seit 1994 bis voraussichtlich 2015 genutzt. Ein Radiometer gleichen Namens befindet sich auch auf dem INSAT-3D-Satelliten. DCIS (Data Collection and Interrogation Service), speichert in situ-Beobachtungen bezie-
Tabelle 1.8
hungsweise überträgt Daten auf Anfrage an Bodenstationen. SEM (Space Environment Monitoring), Instrumentensatz zur Beobachtung von Partikelstrahlung. Das Instrument EPS (Energetic Particles
Chronologie des GOES-Programms
Satellit
Start
Ende
ATS-1
6.12.1966
ATS-3
Position
Status
Instrumente
1.12.1978
inaktiv
SSCC
6.11.1967
1.12.1978
inaktiv
MSSCC
ATS-6
30.04.1974
3.08.1979
inaktiv
VHRR
SMS-1
17.05.1974
21.01.1981
inaktiv
VISSR, DCIS, SEM
SMS-2
6.02.1975
5.08.1982
inaktiv
VISSR, DCIS, SEM
GOES-1
16.10.1975
7.03.1985
inaktiv
VISSR, DCIS, SEM
GOES-2
16.06.1977
1993
inaktiv
VISSR, DCIS, SEM
GOES-3
16.06.1978
1993
inaktiv
VISSR, DCIS, SEM
GOES-4
9.09.1980
11.11.1988
inaktiv
VAS, DCIS, SEM
GOES-5
22.05.1981
18.07.1990
inaktiv
VAS, DCIS, SEM
GOES-6
28.04.1983
1989
inaktiv
VAS, DCIS, SEM
GOES-7
26.02.1987
11.01.1996
inaktiv
VAS, DCIS, SEM
GOES-8
13.04.1994
5.05.2004
inaktiv
IMAGER, SOUNDER, DCIS, SEM, GEOSAR
GOES-9
23.05.1995
erwartet > 2007
160° O
In Bereitschaft
IMAGER, SOUNDER, DCIS, SEM, GEOSAR
GOES-10
25.04.1997
erwartet > 2009
60° W
operationell
IMAGER, SOUNDER, DCIS, SEM, GEOSAR
GOES-11
3.05.2000
erwartet > 2009
135° W
operationell
IMAGER, SOUNDER, DCIS, SEM, GEOSAR
GOES-12
23.07.2001
erwartet > 2009
75° W
operationell
IMAGER, SOUNDER, DCIS, SEM, SXI, GEOSAR
GOES-13
24.05.2006
erwartet > 2011
105° W
Betriebstest
IMAGER, SOUNDER, DCIS, SEM, SXI, GEOSAR
GOES-14
02.2007
erwartet > 2014
fertiggestellt
IMAGER, SOUNDER, DCIS, SEM, SXI, GEOSAR
GOES-15
01.2008
erwartet > 2015
geplant
IMAGER, SOUNDER, DCIS, SEM, SXI, GEOSAR
GOES-R
2014
erwartet > 2021
konfiguriert
ABI, HES, GML
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Sensor) misst niedrigenergetische Elektronen, Protonen und Alphateilchen und das Instrument HEPAD (High Energy Proton and Alpha Particles Detector) hochenergetische Protonen und Alphateilchen. Ergänzt werden diese durch XRS, einem X-ray Sensor. SXI (Solar X-ray Imager), seit GOES-12 an Bord und untersucht die Sonne in einminütigen Zeitintervallen. GEOSAR (Geostationary Search and Rescue), hat die gleiche Funktion wie GEOSAR auf der Meteosat-Plattform und erfüllt die Anforderungen an ein internationales Such- und Rettungssystem für unterschiedliche logistische Aufgaben. Im Jahr 2001 begann bereits die Planung für die GOES-Satelliten der neuen Generation (GOES-R). Diese soll mit GOES-16 im Jahr 2014 starten. Im Wesentlichen sind für diese Mission vier neue Instrumente geplant: ABI (Advanced Baseline Imager), wird über 16 VIS/IR-Kanäle verfügen. Die räumliche Auflösung liegt für 12 Kanäle bei 2 km, für einen Kanal im sichtbaren Bereich bei 0,5 km und für drei Kanäle im kurzwelligen Bereich bei 1 km. Die zeitliche Wiederholungsrate liegt für den gesamten aufgezeichneten Ausschnitt (full disk) bei 15 Minuten. Für die USA wird im CONUS-Modus (Continental United States) ein 3 000 × 5 000 km2 großer Ausschnitt in 5 Minuten zu empfangen sein und die Wiederholungsrate einer Aufzeichnung kann für einen 1 000 × 1 000 km2 großen Bereich sogar auf 30
35
Sekunden abgesenkt werden. Hauptaufgabe von ABI wird wie bei den Vorgängern des GOESProgramms die Ableitung von Windparametern über Wolkenanalysen sowie Wasserdampfmessungen sein. HES (Hyperspectral Environmenatal Suite), hyperspektraler Sensor zur Kurzzeitvorhersage und Überwachung der küstennahen Ozeanbereiche. Der Spektralbereich des Sounders (Sondierer) reicht von 4,44 μm bis 15,38 μm und soll hoch aufgelöste Vertikalprofile der Temperatur und des Wasserdampfgehalts liefern. Zur Aufzeichnung der küstennahen Gewässer sind 14 bis 19 VIS/ IR-Kanäle (Radiometer) mit einer Bandbreite von 20 nm sowie 3 Kanäle im kurzwelligen Infrarot (SWIR) mit einer Bandbreite von 30 bis 50 nm vorgesehen. Zudem wird selektiv im Infrarotbereich von 11 und 12 μm (Split-Window) aufgezeichnet. Die geometrische Auflösung des Sounders reicht von 2 bis 10 km, im sichtbaren Bereich des Spektrums von 0,5 bis 1,0 km. Die räumliche Auflösung des Radiometers zur Beobachtung der Küstengewässer erstreckt sich von 0,15 bis 2,0 km. Die Wiederholungsrate einer Aufzeichnung liegt für den gesamten beobachtbaren Erdausschnitt bei maximal 60 Minuten und kann je nach Beobachtungsmodus auf einige Minuten verkürzt werden. GLM (Geostationary Ligthing Mapper), CCDKamera, die im Bereich von 777,4 nm (O2) aufzeichnet. Die räumliche Auflösung liegt bei 8 km mit einer hohen Wiederholungsrate von 2 ms.
Tabelle 1.9 Chronologie des japanischen GMS/MTSAT-Programms Satellit
Start
Ende
GMS-1
14.07.1977
GMS-2
Position
Status
Instrumente
30.06.1989
inaktiv
VISSR, DCS
11.08.1981
20.11.1987
inaktiv
VISSR, DCS
GMS-3
3.08.1984
22.06.1995
inaktiv
VISSR, DCS
GMS-4
6.09.1989
24.02.2000
inaktiv
VISSR, DCS
GMS-5
18.03.1995
21.07.2005
inaktiv
VISSR, DCS
MTSAT-1R
26.02.2005
erwartet > 2015
140° O
operationell
JAMI, DCS
MTSAT-2
18.02.2006
erwartet > 2016
145° O
in Bereitschaft
IMAGER, DCS
36
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Das GMS- und MTSAT-Programm Der japanische Satellit GMS (Geostationary Meteorological Satellite) wurde 1977 im Bereich 140° Ost positioniert. Sein im Jahr 2005 gestarteter Nachfolger MTSAT (Multi-functional Transport Satellite) verbindet die Funktionen eines meteorologischen mit dem eines auf Navigation ausgelegten Satelliten. Die wichtigsten Instrumente dieses Satelliten sind die Radiometer JAMI und IMAGER, welche mit einem DCS-System (Data Collection Service) gekoppelt sind. Die Tabelle 1.9 zeigt den chronologischen Verlauf des GMS/MTSAT-Programms. JAMI (Japanese Advanced Meteorological Imager), ein 5-Kanal-VIS/IR- Radiometer mit 4 km räumlicher Auflösung in den vier Infrarotkanälen und 1 km Auflösung im sichtbaren Bereich. Er zeichnet in 30- beziehungsweise 15-minütigem Abstand auf und ist somit vergleichbar mit Instrumenten des Meteosat- und GOES-Programms. Im Jahr 2006 wurde JAMI mit dem Start des Folgesatelliten MTSAT-2 in IMAGER umbenannt. Die technischen Angaben zu IMAGER finden sich im Anhang.
GOMS-/Elektro-Programm Das russische GOMS-Programm (Geostationary Operational Meteorological Satellites), auch Elektro genannt, basiert auf drei Satelliten, die im Bereich 76° Ost positioniert sind. Die Tabelle 1.10 zeigt eine Übersicht des GOMS/Elektro-Programms. Zu den wichtigsten Instrumenten zählt ein Radiometer auf GOMS-1: STR (Scanning TV Radiometer), 3-Kanal-VIS/ IR-Radiometer mit 6,5 km räumlicher Auflösung
Tabelle 1.10
in den zwei IR-Kanälen (6,0–7,0 μm und 10,5– 12,5 μm) und 1,25 km im sichtbaren Bereich (VIS 0,46–0,70 μm). Die Wiederholungsrate der Aufnahme liegt bei 30 Minuten. Die Folgesatelliten (Elektro-1 bis -3) haben das Instrument MSU-GS an Bord. MSU-GS, 10-Kanal-VIS/IR-Radiometer mit 4 km Auflösung in sieben IR-Kanälen und 1 km Auflösung in drei VIS-Kanälen. Die Wiederholungsrate liegt wie bei den anderen geostationären Satelliten bei 30 beziehungsweise 15 Minuten. Zusätzlich befindet sich noch ein GEOSAR-Instrument, ein DCS (Data Collection System) und ein HMS (Heliogeophysical Measurement System) zur in situ-Messung geladener Teilchen des Sonnenwindes an Bord des Satelliten.
FY-2- und FY-4- Programm Das chinesische FY-2- und FY-4-Programm (FY steht für Feng-Yun, „Wind und Wolken“) hat die gleiche Aufgabe wie die oben vorgestellten Meteosat- und GOES-Programme, nämlich die Beobachtung von Windparametern und Wolken. Es ist mit FY-2 seit 1997 im Einsatz und in 105° Ost positioniert. Die Serie 2 ist geostationär, die Serie 4 ist sonnensynchron. Die Tabelle 1.11 beschreibt die Chronologie des FY-2- und FY-4-Programms. Zu den wichtigsten Instrumenten des FY-2Programms gehört das Radiometer S-VISSR (Stretched Visible and Infrared Spin Radiometer), ein Radiometer mit drei Kanälen im VIS/ IR-Bereich (0,5–1,05 μm, 6,3–7,6 μm und 1,5– 12,5 μm). Die verbesserte FY-2-Version teilt den IR-Kanal in einen zusätzlichen Kanal bei 3,5–4,0 μm und erhöht damit die räumliche Auf-
Chronologie des russischen GOMS-/Elektro-Programms
Satellit
Start
Ende
Position
Status
Instrumente
GOMS-1
31.10.1994
während 1998
76° O
inaktiv
STR, DCS, RMS
Elektro-L-1
2007
erwartet >2014
76° O
fertiggestellt
MSU-GS, DCS, HMS, GEOSAR
Elektro-L-2
2010
erwartet >2017
76° O oder 14,5° O
geplant
MSU-GS, DCS, HMS, GEOSAR
Elektro-L-3
2015
erwartet > 2022
76° O oder 14,5° O
geplant
MSU-GS, DCS, HMS, GEOSAR
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
37
Tabelle 1.11 Chronologie des FY-2- und FY-4- Programms Satellit
Start
Ende
Position
Status
Instrumente
FY-2A
10.06.1997
8. April 1998
86,5° O
inaktiv
S-VISSR, DCS, SEM
FY-2B
25.06.2000
2004
123° O
partielle Sicherung
S-VISSR, DCS, SEM
FY-2C
19.10.2004
erwartet > 2009
105° O
operationell
S-VISSR (verbessert), DCS, SEM
FY-2D
2006
erwartet > 2011
86,5° O
startbereit
S-VISSR (verbessert), DCS, SEM
FY-2E
2009
erwartet > 2014
123° O
geplant
S-VISSR (verbessert), DCS, SEM
FY-2F
2011
erwartet > 2016
86,5° O
geplant
S-VISSR (verbessert), DCS, SEM
FY-2G
2013
erwartet > 2018
123° O
geplant
S-VISSR (verbessert), DCS, SEM
FY-0/A
2012
erwartet > 2017
105° O oder 86,5° O
konfiguriert
IMAGER, SOUNDER, LIGHTNING MAPPER
FY-4M/A
2015
erwartet > 2020
123° O
konfiguriert
MW-Radiometer
lösung von anfänglich 5,76 km (IR) auf 5,0 km beziehungsweise von 1,44 km (VIS) auf 1,25 km. Die Wiederholungsrate liegt bei 30 Minuten. Die zweite Generation, das FY-4-Programm, ist bereits in Planung und lässt sich in zwei Missionen aufteilen. Zum einen handelt es sich um die FY-4O Serie („O“ steht für „optisch“), die ab 2012 starten soll und deren Satelliten neben einem IR sondierenden Spektrometer/Interferometer einen solaren X-ray-Detektor tragen. Zum anderen ist die FY-4M-Serie („M“ steht für „Mikrowelle“) mit Start ab 2015 vorgesehen, ausgestattet mit einem im Millimeter- bis Submillimeterbereich aufzeichnenden Radiometer für Wetterbeobachtungen und Niederschlagssondierungen.
INSAT- und KALPANA-Programm Das Indische Nationale Satellitenprogramm (INSAT) gehört nicht unmittelbar zum Globalen Beobachtungssystem (GOS), soll hier aber dennoch kurz erläutert werden. Indische Satellitenprogramme verbinden ihre meteorologische Mission mit Aufgaben in der Telekommunikation für Indien. Es befinden sich zwei Satelliten (74° Ost und 93,5° Ost) im Orbit, wobei nicht alle INSAT-
Satelliten meteorologische Instrumente tragen. Im Jahr 2002 wurde ein kleinerer Satellit namens MetSat ausschließlich für meteorologische Aufgaben gestartet und in 74° Ost positioniert. MetSat wurde später in Kalpana umbenannt. Kalpana Chawla war die erste Inderin im All; sie starb beim Absturz des Spaceshuttle Columbia am 1. Februar 2003. Tabelle 1.12 zeigt historische und in Planung befindliche Satelliten des INSAT- und Kalpana-Programms. INSAT-1 (1982–2002) hatte einen VHRR (Very High Resolution Radiometer) an Bord, welches die gleiche Aufgabe hat wie das AVHRR der NOAASatelliten. Das VHRR ist ein 3-Kanal-Radiometer (VIS/IR/WV) mit 8 km Auflösung in den IR-/ WV-Kanälen und 2 km Auflösung im VIS-Kanal. Der 2007 gestartete INSAT-3D weist eine ähnliche Instrumentierung wie die GOES-Satelliten auf und steht ausschließlich für meteorologische Aufgaben zur Verfügung. Die wichtigsten Instrumente sind hier der IMAGER, ein 6-KanalVIS/IR-Radiometer mit 4 km Auflösung in den drei IR-Kanälen, 1 km im sichtbaren (VIS) Bereich und 8 km Auflösung in den Wasserdampfkanälen (WV). Zusätzlich ist SOUNDER, ein 19-Kanal-IR-Radiometer mit 10 km Auflösung und einer Wiederholungsrate
38
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Tabelle 1.12 Chronologie des indischen INSAT- und Kalpana-Programms Satellit
Start
Ende
INSAT-1A
10.04.1982
INSAT-1B
Position
Status
Instrumente
6.09.1982
inaktiv
VHRR, DCS
30.08.1983
1993
inaktiv
VHRR, DCS
INSAT-1C
22.07.1988
1989
inaktiv
VHRR, DCS
INSAT-1D
12.06.1990
2002
inaktiv
VHRR, DCS
INSAT-2A
10.07.1992
2002
inaktiv
VHRR, DCS
INSAT-2B
23.07.1993
2004
inaktiv
VHRR, DCS
INSAT-2C
7.12.1995
2002
inaktiv
kein meteorol. Instr.
INSAT-2D
4.06.1997
1997
inaktiv
kein meteorol. Instr.
INSAT-2E
3.04.1999
erwartet > 2006
83° O
INSAT-3A
10.04.2003
erwartet > 2012
93,5° O
INSAT-3B
22.03.2000
erwartet > 2008
INSAT-3C
24.01.2002
erwartet > 2010
INSAT-3D
2007
Kalpana-1
12.09.2002
VHRR, CCD operationell
VHRR, CCD, DCS
operationell
kein meteorol. Instr.
74° O
operationell
kein meteorol. Instr.
erwartet > 2014
83° O
fertiggestellt
IMAGER, SOUNDER, DCS
erwartet > 2010
74° O
operationell
VHRR, DCS
von 3 Stunden für einen Ausschnitt von 6 000 × 6 000 km an Bord des Satelliten.
COMS-Programm Das südkoreanische COMS-Programm (Communication, Oceanography and Meteorology Satellite) ist jüngst mit einer Mission gestartet, die zweite befindet sich bereits in Planung. Das Programm wird von KARI (Korea Aerospace Research Institute) entwickelt. Die Tabelle 1.13 gibt eine entsprechende Übersicht. Die zwei wichtigsten Satelliteninstrumente sind: MI (Meteorological Imager), ausgestattet mit 5 Kanälen im Bereich von 0,55–12,5 μm und einer Auflösung von 1 km in einem VIS-Kanal und 4 km in den IR-Kanälen. Die Wiederholungsrate liegt bei 27 Minuten. GOCI (Geostationary Ocean Colour Imager), ausgestattet mit 8 Kanälen im Bereich von 400–865 nm zur Beobachtung der Ozeanfärbung (biologische
Aktivität). Die Auflösung erreicht 500 m in einem begrenzten Ausschnitt von 2 500 × 2 500 km. Die dargestellten geostationären Satellitenprogramme ermöglichen eine zeitlich hoch aufgelöste Abdeckung eines Längenbereichs von insgesamt 60° in Äquatornähe. Diese Satelliten sind eine wichtige Basis für die Wetterbeobachtung und Ableitung von Atmosphärenparametern (Temperatur- und Wasserdampfprofile) für die WMO. Tabelle 1.14 zeigt den Status der Abdeckung aller geostationären Satelliten im Jahr 2008. Trotz guter Allgemeinabdeckung bestehen einige Lücken in der Erfassung. Eine Hauptlücke befindet sich in Ozeanien und dem zentralen Pazifik, wo im Längensektor von 180° der abgedeckte Breitenbereich auf ± 47° absinkt. Eine kleinere Lücke befindet sich weiterhin über dem Mittleren Osten. Es besteht also in Zukunft zunehmend Handlungsbedarf für den Ersatz bestehender geostationärer Satelliten, damit der Verbund der geostationären Satelliten operationell arbeitend erhalten werden kann.
39
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Tabelle 1.13 Chronologie des COMS-Programms Satellit
Start
Ende
Position
Status
Instrumente
COMS-1
2008
erwartet > 2015
128,2° O (oder116,2° O)
konfiguriert
MI, GOCI
COMS-2
2014
erwartet > 2021
128,2° O (oder116,2° O)
konfiguriert
TBD
Tabelle 1.14 Abdeckung der Erde durch geostationäre Satelliten (Stand 2008) geographische Abdeckung
Satellit
Position
erwarteter Status
Hauptinstrumente
30° West–30° Ost Europa, Afrika, Ostatlantik
Meteosat-9
0°
operationell
SEVIRI, GERB
Meteosat-8
3,4° W
in Bereitschaft
SEVIRI, GERB
Meteosat-7
57,5° O
operationell
MVIRI
Kalpana-1
74° O
Sicherung für lNSAT-3D
VHRR
Elektro-L-1
76° O
operationell
MSU-GS
INSAT-3D
83° O
operationell
IMAGER, SOUNDER
FY-2D
86,5° O
Sicherung für FY-2C
S-VISSR
INSAT-3A
93,5° O
Sicherung für lNSAT-3D
VHRR, CCD
FY-2C
105° O
operationell
S-VISSR
COMS-1
128,2° O
operationell
MI, GOCI
MTSAT-1R
140° O
operationell
JAMI
MTSAT-2
145° O
in Bereitschaft
IMAGER
150° West–90° West Ostpazifik, Nordwestamerika
GOES-13
135° W
operationell
IMAGER, SOUNDER
GOES-14
105° W
in Bereitschaft
IMAGER, SOUNDER
90° West–30° West Südamerika, Nordostamerika, Westatlantik
GOES-12
75° W
operationell
IMAGER, SOUNDER
GOES-10
60° W
operationell
IMAGER, SOUNDER
30° Ost–90° Ost Westasien, Indischer Ozean
90° Ost–150° Ost Ostasien, Australien, Westpazifik
150° Ost–150° West Ozeanien, Zentralpazifik
Die beschriebenen geostationären Satellitensysteme unterscheiden sich hinsichtlich ihrer spektralen Aufzeichnung, also ihrer radiometrischen Auflösung und Anzahl der aufzeichnenden Kanäle insgesamt. Die radiometrische Auflösung ist dabei ein Maß für die kleinste mit einem Fernerkundungssystem noch unterscheidbare elektromagnetische Strahlung. Sie ist abhängig vom Detektorsystem und beträgt zwischen 64 Klassen
(6 Bit) und 2 048 Klassen (11 Bit) bei den neueren Systemen (z. B. IKONOS). Die Tabelle 1.15 fasst die spektralen Eigenschaften der Sensorsysteme zusammen. Das geostationäre Satellitenbeobachtungssystem wird durch polarumlaufende Satelliten ergänzt, die auch die polnahen Bereiche abdecken und damit eine komplette räumliche Abdeckung der Erde ermöglichen.
0,55–0,90 μm
3,50–4,00 μm
IR 4,0 km VIS 1,0 km
IR 4,0 km VIS 1,0 km
IR 4,0 km VIS 1,0 km
IR 4,0 km VIS/ NIR 1,0 km
VIS/IR 5,0km HRVIS 2,5 km
VIS/IR 3,0 km HRVIS 1,0 km
30 min
15 min
30 min
30 min
15 min
30 min
0,50–0,65 μm
0,60–0,90 μm
0,65–0,80 μm
0,55–0,75 μm
3,50–4,00 μm
0,56–0,71 μm
0,55–0,75 μm
3,80–4,00 μm
0,80–0,90 μm
0,50–0,90 μm
3,80–4,00 μm
0,74–0,88 μm
1,50–1,78 μm
3,40–4,20 μm
6,50–7,00 μm
5,70–7,00 μm
5,80–7,30 μm
5,35–7,15 μm
6,50–7,00 μm
7,50–8,50 μm
6,85–7,85 μm
5,70–7,10 μm
8,20–9,20 μm
10,2–11,2 μm
11,2–12,5 μm
Elektro-L-1 MSU-GS
8,30–9,10 μm
10,3–11,3 μm
11,5–12,5 μm
MTSAT-1 JAMI
9,20–10,2 μm
10,2–11,2 μm
13,0–13,7 μm
GOES-12/13 IMAGER
9,38–9,94 μm
10,2–11,2 μm
9,80–11,8 μm
GOES-10 IMAGER
11,5–12,5 μm
10,5–12,5 μm
Meteosat-7 MVIRI
11,0–13,0 μm
12,4–14,4 μm
Meteosat-9 SEVIRI (*)
Tabelle 1.15 Spektrale Aufzeichnungsbereiche geostationärer Satelliten im Vergleich (Stand 2008)
IR 5,0 km VIS 1,25 km
30 min
0,55–0,99 μm
3,50–4,00 μm
6,30–7,60 μm
10,3–11,3 μm
11,5–12,5 μm
FY-2C S-VISSR
IR 4 km,WV 8 km VIS/NIR 1,0 km
30 min
0,52–0,72 μm
1,55–1,70 μm
3,0–4,00 μm
6,50–7,00 μm
10,2–11,2 μm
11,5–12,5 μm
INSAT-3D IMAGER
IR 4,0 km VIS 1,0 km
30 min
0,55–0,8 μm
3,50–4,0 μm
6,5–7,0 μm
10,3–11,3 μm
11,5–12,5 μm
COMS-1 MI
40 1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Polarumlaufende meteorologische Satellitenprogramme Zu den Hauptaufgaben polarumlaufender beziehungsweise sonnensynchroner Satelliten zählt im Wesentlichen
• die Beobachtung von globalen Temperaturund Luftfeuchtefeldern zur numerischen Wettervorhersage • die Bereitstellung von Beobachtungsdaten für Regionen in höheren geographischen Breiten, die für die geostationären Satelliten nicht zugänglich sind Dabei zeichnen viele polarumlaufende Satelliten wesentlich mehr Daten auf, als die genannten Temperatur- und Luftfeuchteinformationen. Einige dieser Satelliten liefern Daten über Ozon oder andere Spurengase, andere nutzen die Mikrowellenradiometrie zur Beobachtung von Niederschlagsfeldern oder tragen aktive Mikrowelleninstrumente (Radar) zur Bestimmung der Oberflächenwinde über den Ozeanen oder anderer Parameter. Im Folgenden werden die für die Klimaforschung wichtigsten polarumlaufenden Satellitensysteme vorgestellt:
• das amerikanische NOAA-/POES-Programm (unterstützt von DMSP, übergeleitet in das NPOESS-Programm) • das europäische MetOp-Programm • das russische Meteor-Programm • das chinesische FY1-Programm (ersetzt durch FY3)
Das NOAA-/POES-Programm Das am 1. April 1960 gestartete amerikanische NOAA-/POES(Polarorbiting Operational Environmental Satellite-)Programm ist das am längsten bestehende meteorologische Satellitenprogramm. Mit dem POES-Satelliten von NOAA-15 (Start 1998) befindet sich bereits die fünfte Generation von Satelliten dieses Programms im Orbit. NOAA ist die Abkürzung für National Oceanic and Atmospheric Administration. Die Tabelle 1.16 fasst die Historie des NOAA-/POES-Programms zusammen. Die folgende Beschreibung der Instrumente wird sich auf die noch aktiven Satelliten der vierten und fünften Generation des NOAA-Programms beschränken: AVHRR/3 (Advanced VHRR), 6-Kanal-VIS/IRRadiometer zur Vielzweckuntersuchung mit ei-
41
ner Auflösung von 1,1 km und einer Abtastbreite (swath) von 2 900 km. HIRS/3 (Highresolution Infra Red Sounder 3), 20-Kanal-IR-Radiometer (einschließlich eines VIS-Kanals) für Temperatur- und Feuchtesondierung mit einer Auflösung von 18 km und einer Abtastbreite von 2 250 km. AMSUA (Microwave Sounding Unit A), 15-Kanal-MW-Radiometer für Temperatursondierungen mit einer Auflösung von 48 km und einer Abtastbreite von 2 340 km. AMSUB (Microwave Sounding Unit B), 5-KanalMW-Radiometer für Feuchtesondierungen mit einer Auflösung von 16 km und einer Abtastbreite von 2 250 km. Wurde für den Satelliten NOAA-N durch MHS (Microwave Humidity Sounder) ersetzt. SBUV/2 (Solar Backscatter Ultraviolet 2), 12-Kanal-UV-Spektroradiometer für Ozon-Profilmessungen mit einer Auflösung von 170 km (nur im Nadir beobachtend). SEM/2 (Space Environment Monitor), Instrument zur in situ-Messung energiegeladener Teilchen des Sonnenwindes in Orbithöhe (nicht auf NOAA-15 vorhanden). DCS/2 (Data Collection System 2), auch bekannt als ARGOS, Instrument zur Aufnahme von Daten automatischer Beobachtungsstationen (z. B. Ozeanbojen) mit einer Übertragungsfrequenz von 401,65 MHz. SARSAT (Search and Rescue Satellite Aided Tracking System), Ortungssystem für Notfälle mit einer Transmitterfrequenz von 121,5, 243 und 406 MHz. Die Satelliten des POES-Systems umrunden die Erde auf polnahen Orbits 14,1 Mal pro Tag. Gegenwärtig sind ein Vormittags- und ein Nachmittagssatellit aktiv, die eine viermalige Erfassung der gesamten Erde ermöglichen. Die Satellitendaten erlauben neben der Wetterbeobachtung und -prognose auch Klimaforschung und -vorhersage, die Messung der weltweiten Meeresoberflächentemperaturen (SST), die Sondierung der Atmosphäre bezüglich Temperatur und Feuchte, die Untersuchung der Meeresdynamik (Wellenhöhe), die Beobachtung vulkanischer Aktivität, die Waldbrandaktivität sowie globale Vegetationsanalysen (NDVI). Eine genaue Instrumentenbeschreibung für den bekanntesten NOAA-/POES-Sensor, den AVHRR, befindet sich in tabellarischer Form im Anhang.
42
Tabelle 1.16
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Chronologie des NOAA-/POES-Programms
Satellit
Start
Ende der Mission
TIROS-1
1.04.1960
17.06.1960
TIROS-2
23.11.1960
TIROS-3
Höhe
Status (09 / 2006)
Instrumente
720 km
inaktiv
VCS-WA, VCS-NA
24.12.1961
670 km
inaktiv
VCS-WA, VCS-NA, MRIR, FPR
12.07.1961
27.02.1962
780 km
inaktiv
2 x VCS-WA, MRIRFPR
TIROS-4
8.02.1962
19.07.1962
770 km
inaktiv
VCS-WA, VCS-MA, MRIR, FPR
TIROS-5
19.06.1962
27.11.1963
750 km
inaktiv
VCS-WA, VCS-MA
TIROS-6
18.09.1962
12.10.1963
700 km
inaktiv
VCS-WA, VCS-MA
TIROS-7
19.06.1963
3.06.1968
680 km
inaktiv
2 x VCS-WA, MRIR, FPR
TIROS-8
21.12.1963
1.07.1967
730 km
inaktiv
APT, VCS-WA
TIROS-9
22.01.1965
12.06.1968
1 350 km
inaktiv
2 x VCS-WA („cartwheel“)
TIROS-10
2.07.1965
1.07.1967
790 km
inaktiv
2 x VCS-WA
ESSA-1
3.02.1966
8.03.1967
770 km
inaktiv
2 x VCS-WA, FPR
ESSA-2
28.02.1966
16.10.1970
1 390 km
inaktiv
2xAPT
ESSA-3
2.10.1966
2.12.1968
1 440 km
inaktiv
2xAVCS, FPR
ESSA-4
26.01.1967
5.05.1968
1 380 km
inaktiv
2xAPT
ESSA-5
20.04.1967
20.02.1970
1 390 km
inaktiv
2xAVCS, FPR
ESSA-6
10.11.1967
3.12.1969
1 450 km
inaktiv
2xAPT
ESSA-7
16.08.1968
10.03.1970
1 450 km
inaktiv
2xAVCS,2xFPR
ESSA-8
15.12.1968
12.03.1976
1 440 km
inaktiv
2xAPT
ESSA-9
26.02.1969
15.11.1972
1 470 km
inaktiv
2xAVCS,2xFPR
ITOS-1 (TIROS-M)
23.01.1970
18.06.1971
1 470 km
inaktiv
2 x AVCS, 2 x APT, 2 x SR, FPR, SPM
NOAA-1 (ITOS-A)
11.12.1970
19.08.1971
1 450 km
inaktiv
2 x AVCS, 2 x APT, 2 x SR, FPR, SPM
NOAA-2 (ITOS-D)
13.10.1972
30.01.1975
1 450 km
inaktiv
2 x VHRR, 2 x SR, 2 x VTPR, SPM
NOAA-3 (ITOS-F)
6.11.1973
31.08.1976
1 500 km
inaktiv
2 x VHRR, 2 x SR, 2 x VTPR, SPM
NOAA-4 (ITOS-G)
15.11.1974
18.11.1978
1 450 km
inaktiv
2 x VHRR, 2 x SR, 2 x VTPR, SPM
NOAA-5 (ITOS-H)
29.07.1976
16.07.1979
1 510 km
inaktiv
2 x VHRR, 2 x SR, 2 x VTPR, SPM
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
43
Tabelle 1.16 Fortsetzung Satellit
Start
Ende der Mission
Höhe
Status (09 / 2006)
Instrumente
TIROS-N
13.10.1978
27.02.1981
850 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS
NOAA-6
27.06.1979
31.03.1987
840 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS
NOAA-7
23.06.1981
7.06.1986
860 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS
NOAA-8
28.03.1983
29.12.1985
820 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT
NOAA-9
12.12.1984
13.02.1998
850 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT, ERBE, SBUV/2
NOAA-10
17.09.1986
30.08.2001
810 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT, ERBE, SBUV/2
NOAA-11
24.09.1988
16.06.2004
843 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT, SBUV/2
NOAA-12
14.05.1991
erwartet > 2006
804 km
begrenzt in Gebrauch
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS
NOAA-13
9.08.1993
21.08.1993
820 km
inaktiv
AVHRR, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT, SBUV/2
NOAA-14
30.12.1994
erwartet > 2006
844 km
begrenzt in Gebrauch
AVHRR/2, HIRS/2, MSU, SSU, SEM, ARGOS, SARSAT, SBUV/2
NOAA-15
13.05.1998
erwartet > 2006
807 km
Sicherung
AVHRR/3, HIRS/3, AMSU-A, AMSU-B, SEM/2, ARGOS, SARSAT
NOAA-16
21.09.2000
erwartet > 2006
849 km
Sicherung
AVHRR/3, HIRS/3, AMSU-A, AMSU-B, SBUV/2. SEM/2, ARGOS, SARSAT
NOAA-17
24.06.2002
erwartet > 2009
810 km
operationell
AVHRR/3, HIRS/3, AMSU-A, AMSU-B, SBUV/2. SEM/2, ARGOS, SARSAT
NOAA-18
20.05.2005
erwartet > 2010
854 km
operationell
AVHRR/3, HIRS/3, AMSU-A, MHS, SBUV/2. SEM/2, ARGOS, SARSAT
NOAA-19 (NOAA-N1)
2009
erwartet > 2014
840 km
fertiggestellt
AVHRR/3, HIRS/3, AMSU-A, MHS, SBUV/2. SEM/2, ARGOS, SARSAT
44
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Das militärische DMSP-Programm Streng genommen gehören die Satelliten des amerikanischen DMSP (Defense Meteorological Satellite Program) nicht zum Globalen Beobachtungssystem (GOS). Einige ihrer Sensoren (insbesondere die Mikrowelleninstrumente) werden aber von der NOAA zur Verbesserung ihrer eigenen Satelliten genutzt. NOAA empfängt auf Anfrage folgende DMSP-Sensoren: SSM/I (Special Sensor Microwave/Imager), abbildendes Instrument (Imager) zur Erfassung der Niederschlagshöhe, der Windgeschwindigkeit über Meeresoberflächen und Eisflächen. SSM/T (Special Sensor Microwave/Temperature), abbildendes Instrument (Imager) für die Temperatursondierung. SSM/T2 (Special Sensor Microwave/Humidity), abbildendes Instrument (Imager) für die Feuchtesondierung. Das NPOESS-Programm Das zivile NOAA-/ POES-Programm und das militärische DMSPProgramm werden 2013 nach dem Start des letzten NOAA-Satelliten (2009) und des letzten DMSP-Satelliten (2012) zum NPOESS (National Polar-orbiting Operational Environmental Satellite System) zusammengelegt. Vorgeschaltet wird 2009 das NPP-Projekt (NPOESS Preparatory Project), welches als Testsatellit eng mit dem europäischen EPS/MetOp kooperieren soll. Die Tabelle 1.17 zeigt die Missionen des neuen
Tabelle 1.17
NPOESS-Programms und ihre zugehörigen Instrumente. Die folgende Auflistung umfasst die geplanten Instrumente der NPOESS-Missionen. Es muss aber darauf hingewiesen werden, dass zum jetzigen Stand (2008) der Messumfang einiger Instrumente überarbeitet wird. Die Daten dieser neuen Instrumente werden für die zukünftige Klimaforschung in vielfältiger Weise von Bedeutung sein (z. B. hinsichtlich Ozonmessung, Aerosolbetrachtung, Strahlungshaushalt der Erde). Geplante Nutzlast (payload) von NPOESS: VIIRS (Visible/Infrared Imager Radiometer Suite), der Nachfolger des AVHRR erhält ein 22-Kanal-VIS/IR-Radiometer mit einer Auflösung von 400 m für vier AVHRR-ähnliche Kanäle sowie eine Auflösung von 800 m für die verbleibenden 17 Kanäle bei einer Abtastbreite von 3 000 km. Diese Instrumentvorgaben werden die Basisausstattung für alle NPOESS-Satelliten sein. CrIS (Crosstrack Infrared Sounder), der Nachfolger des HIRS/4 basiert auf einem IR-Interferometer für die hoch auflösende Vertikalsondierung von Temperatur und Luftfeuchte. Es wird 1 302 Kanäle mit einer spektralen Auflösung von 0,625 bis 2,5 cm-1 und einer räumlichen Auflösung von 14 km bei einer Abtastbreite von 2 200 km besitzen. ATMS (Advanced Technology Microwave Sounder), Nachfolger des AMSUA und AMSUB für Temperatur- und Feuchtesondierungen, ein 22-
Chronologie des NPOESS-Programms
Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
NPP
2009
erwartet > 2014
833 km
13:30
fertiggestellt
VIIRS, CrlS.ATMS, OMPS-nadir
NPOESS-1
2013
erwartet > 2018
833 km
13:30
geplant
VIIRS, CrlS, ATMS, OMPS-nadir, ERBS/ CERES, SESS/SEM, A-DCS, SARSAT (OMPS-Iimb)
NPOESS-2
2016
erwartet > 2021
833 km
5:30
geplant
VIIRS, cm IS, A-DCS, SARSAT (CrlS.ATMS, TSIS in Bereitschaft)
NPOESS-3
2020
erwartet > 2025
833 km
13:30
geplant
VIIRS, CrlS, ATMS, cmIS, OMPS-nadir, SESS/SEM, A-DCS, SARSAT (ERBS/CERES, OMPS-Iimb, APS in Bereitschaft)
NPOESS-4
2022
erwartet > 2027
833 km
5:30
geplant
VIIRS, cmIS, A-DCS, SARSAT (CrlS, ATMS, TSIS in Bereitschaft)
*LST: Local Solar Time
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Kanal-MW-Radiometer mit Kanälen von 54 GHz (32 km Auflösung) und 183 GHz (Auflösung 16 km) bei einer Abtastbreite von 2 200 km. CMIS (Conicalscanning Microwave Imager/ Sounder), Nachfolger des DMSP/SSMIS-Mikrowellensondierers. OMPS (Ozone Mapping and Profiler Suite), der Nachfolger des SBUV/2 wird eine in technischer Hinsicht bestmögliche Vertikalsondierung von Ozon in der Stratosphäre ermöglichen (im Nadir). Untersuchte Gase: BrO, HCHO, NO2, O3, OClO, SO2. APS (Aerosol Polarimetry Sensor), 9-Kanal-VIS/ NIR/SWIR-Polarimeter für troposphärische Aerosoluntersuchungen. ERBS (Earth Radiation Budget Sensor), Nachfolger von ERBE und CERES (Clouds and Earth’s Radiant Energy System), die bereits auf TRMM und EOS Terra/Aqua eine erfolgreiche Mission geflogen sind (ausführlich zu diesen Missionen ▶ R&D-Programme). SESS (Space Environment Sensor Suite), Nachfolger des SEM/2 für in situ-Messungen geladener Partikelteilchen des Sonnenwindes. TSIS (Total Solar Irradiance Sensor), Sensor zur Messung der Einstrahlung und ihrer Anteile im Wellenlängenbereich von 0,2 bis 2,0 μm. ADCS (ARGOS Data Collection System), Nachfolger des DCS/2-Systems mit der zusätzlichen Möglichkeit Informationen an die Datensammelplattform zwecks Konfigurationsänderungen zu senden.
Tabelle 1.18
45
SARSAT (Search and Rescue Satellite Aided Tracking System), Nachfolger des SARSAT-Vorgängermodells, wobei nur die 406 MHz Frequenz erhalten bleibt.
Das EPS-/MetOp-Programm Das europäische EPS (EUMETSAT Polar System) hat seinen Ursprung im Jahr 1980 und startete mit dem Satelliten POEM (Polar Orbit Earth-Observation Mission). 1993 wurde die POEM-Mission in zwei Bereiche aufgeteilt – in die ENVISATMission mit dem Schwerpunkt Wissenschaft und Umwelt (ausführlich ▶ R&D-Programme) und die MetOp-Mission für die rein operationellen meteorologischen Arbeiten. MetOp hat drei Satelliten konzipiert. Die Tabelle 1.18 enthält Informationen zur MetOp-Mission. Die Instrumente der Metop-Satelliten ermöglichen eine umfangreiche operationelle meteorologische Datenerfassung und die Gesamtlast der Satelliten stellt zurzeit die modernste Messtechnik im Orbit dar. Die wichtigsten Instrumente auf MetOp sind: AVHRR/3 (Advanced Very High Resolution Radiometer), 6-Kanal-VIS/IR-Radiometer mit einer Auflösung von 1,1 km und einer Abtastbreite von 2 930 km. Er wird von der NOAA für MetOp bereitgestellt. Die Instrumentenangaben entsprechen denen des NOAA/POES-Programms (▶ Anhang). HIRS/4 (Highresolution Infrared Radiation Sounder), von der NOAA bereitgestelltes 20-Kanal-IR-Radiometer (ein Kanal im VIS) zur Tem-
Chronologie des MetOp-Programms
Satellit
Start
Ende
Höhe
LST*
Status (Sept 2006)
Instrumente
MetOp-1
19.10.2006
erwartet > 2010
834 km
09:30
aktiv
AVHRR/3, HIRS/4, AMSU-A, MHS, IASI, GOME-2, GRAS, ASCAT, SEM/2, A-DCS, SARSAT
MetOp-2
10 / 2010
erwartet > 2015
834 km
09:30
fertiggestellt
AVHRR/3, HIRS/4, AMSU-A, MHS, IASI, GOME-2, GRAS, ASCAT, SEM/2, A-DCS, SARSAT
MetOp-3
04 / 2015
erwartet > 2020
834 km
09:30
fertiggestellt
AVHRR/3, AMSU-A, MHS, IASI, GOME-2, GRAS, ASCAT, A-DCS
*LST: Local Solar Time
46
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
peratur- und Feuchtesondierung. Es besitzt eine Auflösung von 10 km bei einer Abtastbreite von 2 180 km (dieses Instrument wird aber nicht auf MetOp3 mitfliegen). AMSUA (Advanced Microwave Sounding Unit A), von der NOAA zur Verfügung gestelltes 15Kanal-MW-Radiometer zur wetterunabhängigen Temperatursondierung mit einer Auflösung von 48 km und einer Abtastbreite von 2 070 km. MHS (Microwave Humidity Sounder), 5-KanalMW-Radiometer zur wetterunabhängigen Feuchtesondierung mir einer Auflösung von 16 km und einer Abtastbreite von 2 180 km. IASI (Infrared Atmospheric Sounding Interferometer), IR-Interferometer zur Ableitung hoch aufgelöster Vertikalprofile von Temperatur und Feuchte. Das Instrument besitzt 8 461 Kanäle mit einer spektralen Auflösung von 0,25 cm-1, einer räumlichen Auflösung von 12 km und einer Abtastbreite von 2 130 km. Das Instrument wurde in Kooperation mit der französischen Raumfahrtagentur CNES entwickelt. GOME2 (Global Ozone Monitoring Experiment 2), Fortsetzung des GOME-Projekts der ERS2Mission. Es handelt sich um ein UV/VIS-Spektrometer mit 4 096 Kanälen (plus 200 Polarisationskanälen) zur Messung von Ozon (totaler Säulenanteil und Profile) sowie weiterer klimarelevanter Spurengase wie BrO, ClO, H2O, HCHO, NO, NO2, NO3, O2, O3, O4, OClO, SO2 und Aerosole. Die Auflösung beträgt 40 km bei einer Abtastbreite von 960 km beziehungsweise 80 km für eine Abtastbreite von 1 920 km. GRAS (GNSS Receiver for Atmospheric Sounding), in Okkultation messender Receiver, welcher die Phasenverschiebung von GPS-Signalen erfasst und somit hoch aufgelöste Profile von Temperatur und Feuchte aufzeichnet. Er besitzt eine vertikale Auflösung von 0,51 km und eine horizontale Auflösung von etwa 300 km. Es sind bis zu 500 Messungen pro Tag geplant. ASCAT (Advanced SCATterometer), Weiterentwicklung des ERS-1/2-Radar-Scatterometers zur Messung des Windes über Meeresoberflächen. Misst in einer Frequenz von 5,255 GHz bei einer Auflösung von 25 km bei einer zweiseitigen Abtastrate von jeweils 550 km. SEM/2 (Space Environment Monitor), von NOAA zur Verfügung gestelltes Instrument zur in situ-Messung geladener Partikelteilchen des Sonnenwindes in jeweiliger Orbithöhe.
ADCS (Advanced Data Collection System), von NOAA und CNES zur Verfügung gestelltes, auch als ARGOS bekanntes Instrument. ARGOS sammelt Daten von automatischen Stationen bei gleichzeitiger Lokalisierung der Messplattformen. Die Aufzeichnungsfrequenz liegt bei 401,65 MHz. SARSAT (Search And Rescue Satellite Aided Tracking System), von NOAA zur Verfügung gestelltes Notfallsystem, die Frequenzen des Transmitters liegen bei 121,5, 243 und 406,05 MHz (nicht auf MetOp3 installiert).
Das Meteor-Programm Das russische Meteor-Programm ist hinsichtlich Laufzeit vergleichbar mit dem amerikanischen TIROS-NOAA-POES-Programm. Jedoch wurde ein rein meteorologischen Zwecken dienender Satellit erst 1969 gestartet. Drei Meteor-Serien (Meteor-1, Meteor-2 und Meteor-3) umliefen die Erde in nicht-sonnensynchronen Orbits, während der aktuelle Meteor-3M ein sonnensynchroner Satellit ist. Das gesamte Meteor-Programm lässt sich in drei Phasen einteilen: 1. Meteor-1 mit insgesamt 25 gestarteten Satelliten und folgenden Instrumenten: • TV Kamera (0,4–0,8 μm), räumliche Auflösung 1,25–3 km, Abtastbreite 1 000 km • IR-Radiometer (8–12 μm), räumliche Auflösung 15 km, Abtastbreite 1 000 km • AC-Radiometer zur Bestimmung des Strahlungshaushalts der Erde (0,3–30 μm), räumliche Auflösung 45 km, Abtastbreite 2 500 km 2. Meteor-2 mit insgesamt 21 gestarteten Satelliten und folgenden Instrumenten: • TV Kamera (0,4–0,8 μm), räumliche Auflösung 1,25–3 km, Abtastbreite 1 000 km • IR-Radiometer (8–12 μm), räumliche Auflösung 15 km, Abtastbreite 1 000 km • SM/IR-Temperatur- und Feuchtesondierer • RMK-2, in-situ aufzeichnendes Instrument für geladene Partikelteilchen 3. Meteor-3 mit insgesamt 7 gestarteten Satelliten und folgenden Instrumenten: • MR-2000M und MR-900B, Kameras im Spektralbereich 0,5–0,8 μm, welche mit einer räumlichen Auflösung von 1 km und Abtastbreite von 3 100 km und mit einer räumlichen Auflösung von 1,5 km und einer Abtastbreite von 2 600 km abtasten
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
• Klimat, ein IR-Radiometer (10,5–12,5 μm) •
• •
•
mit einer Auflösung von 3 km und einer Abtastbreite von 3 100 km SM, 10-Kanal-IR-Radiometer im Spektralbereich 9,65–18,70 μm zur Sondierung von Temperatur und Feuchte, räumliche Auflösung 42 km bei einer Abtastbreite von 1 000 km RMK-2, Instrument zur in situ-Beobachtung des solaren Windes TOMS (Total Ozone Mapping Spektrometer), von der NASA zur Verfügung gestelltes 6-Kanal-UV-Spektrometer (0,31–0,38 μm) zur Messung von Ozon, räumliche Auflösung 47 km bei einer Abtastbreite von 3 100 km ScaRab (Scanner for Radiation Budget), von CNES zur Verfügung gestelltes Radiometer mit zwei Breitbandkanälen (0,2–4,0 μm und 0,2–50 μm) sowie zwei Schmalbandkanälen (0,5–0,7 μm und 10,5–12,5 μm). Die Auflösung beträgt 60 km bei einer Abtastbreite von 3 200 km
47
Das FY-1- und FY-3-Programm Das chinesische FY-1- und FY-3-Programm startete im Jahr 1988. Seit April 2004 ist der 2002 gestartete Satellit FY-1D der einzige operationell arbeitende Satellit der FY-Mission. Die wichtigsten Instrumente an Bord des FY-1D sind: MVISR (Multichannel Visible and Infrared Scanning Radiometer), VIS/IR-Radiometer mit einer Auflösung von 1,1 km bei einer Abtastbreite von 2 800 km. Auf den Satelliten FY-1A und FY-1B hatte MVISR insgesamt 5 Kanäle (0,48–0,53, 0,53–0,58, 0,58–0,68, 0,725–1,10, 10,5–12,5 μm). Die Satelliten FY-1C und FY-1D weisen bereits 10 Kanäle auf. SEM (Space Environment Monitoring) zur in situ-Untersuchung geladener Partikelteilchen des Sonnenwindes. Die Tabelle 1.19 zeigt den Umfang des chinesischen FY-Programms. Analog zur Darstellung der geostationären Satelliten soll eine Übersicht zur allgemeinen
Tabelle 1.19 Chronologie des chinesischen FY-Programms Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
FY-1A
7.09.1988
16.10.1988
900 km
11:30
inaktiv
MVISR, SEM
FY-1B
3.09.1990
5.08.1991
900 km
16:0
inaktiv
MVISR, SEM
FY-1C
10.05.1999
26.04.2004
862 km
6:5
inaktiv
MVISR, SEM
FY-1D
15.05.2002
erwartet > 2006
866 km
8:20
operationell
MVISR, SEM
FY-3A
2007
erwartet > 2010
836 km
10:00
fertiggestellt
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3B
2009
erwartet > 2013
836 km
14:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3C
2012
erwartet > 2015
836 km
10:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3D
2014
erwartet > 2017
836 km
14:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3E
2016
erwartet > 2019
836 km
10:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3F
2018
Erwartet > 2021
836 km
14:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
FY-3G
2020
erwartet > 2023
836 km
10:00
geplant
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
*LST: Local Solar Time
48
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Tabelle 1.20 Abdeckung durch polarumlaufende, sonnensynchrone und operationell arbeitende Satelliten (Stand 2008) Tageszeit
Satellit
LST*
Instrumente
00-03
NOAA-18
01:40
AVHRR/3, HIRS/3, AMSU-A, MHS, SBUV/2.SEM/2, ARGOS, SARSAT
03-06
DMSPS17
05:30
SSMIS
06-09
DMSPS16
08:10
SSMIS
FY-1D
08:20
MVISR, SEM
MetOp-1
09:30
AVHRR/3, HIRS/4, AMSU-A, MHS, IASI, GOME-2, GRAS, ASCAT, SEM/2, ARGOS, SARSAT
FY-3A
10:00
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
09-12
Meteor-M-1
10:20
MSU-MR, MTVZA, kmSS, Severjanin, GGAK-M
NOAA-17
10:20
AVHRR/3, HIRS/3, AMSU-A, AMSU-B, SBUV/2.SEM/2, ARGOS, SARSAT
12-15
NOAA-18
13:40
AVHRR/3, HIRS/3, AMSU-A, MHS, SBUV/2.SEM/2, ARGOS, SARSAT
15-18
DMSPS17
17:30
SSMIS
18-21
DMSPS16
20:10
SSMIS
FY-1D
20:20
MVISR, SEM
MetOp-1
21:30
AVHRR/3, HIRS/4, AMSU-A, MHS, IASI, GOME-2, GRAS, ASCAT, SEM/2, ARGOS, SARSAT
FY-3A
22:00
VIRR, MERSI, MWRI, IRAS, MWTS, MWHS, TOU/SBUS, SEM
Meteor-M-1
22:20
MSU-MR, MTVZA, kmSS, Severjanin, GGAK-M
NOAA-17
22:20
AVHRR/3, HIRS/3, AMSU-A, AMSU-B, SBUV/2.SEM/2, ARGOS, SARSAT
21-24
*LST: Local Solar Time
zeitlichen und räumlichen Abdeckung der Erde durch polarumlaufende Satelliten gegeben werden. Die Tabelle 1.20 fasst alle zur Verfügung stehenden, operationell arbeitenden, polarumlaufenden Satelliten und ihre Instrumente zusammen. Die aufgelisteten operationellen geostationären und polarumlaufenden Satellitensysteme sind die wichtigsten Datenlieferanten für eine auf Kontinuität ausgelegte Wetter- und Klimaanalyse. Im Folgenden wird auf Programme eingegangen, die in den Bereich Forschung und Entwicklung (folgend als R&D abgekürzt) gehören. Bei den R&D-Programmen werden jeweils die für die Klima- und Global-Change-Forschung relevanten und wichtigen Programme behandelt. Nachteil der meisten R&D-Programme ist, dass sie meist nur für einige Jahre oder einen noch kürzeren Zeitraum ausgelegt sind.
R&D-Programme im Interesse der Klima- und Global-ChangeForschung Als logische Einteilung bot sich die Gruppierung der R&D-Programme nach den jeweiligen nationalen Weltraumagenturen an. Im Folgenden werden die R&D-Programme folgender Institutionen vorgestellt:
• ESA (Europäische Weltraumagentur, European Space Agency)
• NASA (Amerikanische Weltraumagentur, Na• • • •
tional Aeronautics and Space Administration) JAXA (Japanische Weltraumagentur) CNES (Französische Weltraumagentur) ISRO (Indische Weltraumagentur) RosKosmos (Russische Weltraumagentur)
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Tabelle 1.21
49
Chronologie der ERS- und ENVISAT- Satelliten
Satellit
Start
Ende
Höhe
LST*
Status (Sept 2006)
Instrumente
ERS-1
17.07.1991
10 .03. 2000
785 km
10:30
inaktiv
AMI, RA, ATSR, MWR, LRR, PRARE
ERS-2
21.04.1995
erwartet > 2008
785 km
10:30
operationell
AMI, RA, ATSR-2, MWR, GOME, LRR, PRARE
ENVISAT
1.03. 2002
erwartet > 2010
800 km
10:00
operationell
ASAR, RA-2, AATSR, MWR, MERIS, MIPAS, GOMOS, SCIAMACHY, LRR, DORIS
*LST: Local Solar Time
Die europäischen ESA-Programme Zu den R&D-Programmen der ESA gehören die Earth-Watch-Mission, die ERS-1/-2- und ENVISAT-Missionen sowie die Earth-Explorer-Mission und GMES-Initiative. Die Earth-Watch-Mission umfasst das komplette Meteosat- und MetOpProgramm und wurde bereits ausführlich dargestellt (▶ Das Meteosat-Programm, ▶ Das EPS-/ MetOp-Programm). ERS (European Remote Sensing Satellite) Die Satelliten ERS-1 und ERS-2 sind Radarsysteme zur Mikrowellenfernerkundung. Das wichtigste Instrument ist das Radarsystem SAR (Synthetic Aperture Radar), das eine Bodenauflösung von 30 × 30 m erreicht. Es liefert unabhängig von den Witterungsbedingungen Tag und Nacht Farbbilder von den Meeren, Küsten- und Polareisbereichen sowie dem Festland. SAR stellt ein abbildendes Radar-System mit Blick seitlich zur Flugrichtung dar. Die effektive Antennenlänge (Apertur) wird unter Ausnutzung der Satellitenbewegung synthetisch vergrößert. Dadurch lässt sich eine räumliche Auflösung ähnlich wie bei optischen Instrumenten erreichen. Das System sendet aktiv Mikrowellen zur Erdoberfläche und misst die reflektierten Strahlen. Der Vorteil gegenüber visuellen Systemen ist die uneingeschränkte Einsetzbarkeit bei Dunkelheit und Wolkenbedeckung. SAR-Sensoren werden nach verwendeter Wellenlänge eingeteilt in C- und X-SAR. Der AMI-Sensor auf dem ERS-1 ist ein C-Band-SAR. Das SIR-C/X-SAR ist ein multifrequentes SAR in den Bereichen des L-, C- und X-Bandes. Ein weiterer Vorteil gegenüber optischen Sensoren ist, dass die räumliche Auflösung von SAR-Sensoren prinzipiell nicht von der Flughöhe abhängig ist.
Mittels SAR-Satellitenaltimetrie können Höhen über der Meeresoberfläche global bestimmt werden, welche durch lokale Schwereanomalien bedingt sind und dadurch mit dem Relief des Meeresbodens in Korrelation gebracht werden können. Die mittels SAR-Altimetrie abgeleiteten Informationen über das Relief des Ozeanbodens sind z. B. für die Betrachtung der Zirkulation des Tiefenwassers von Bedeutung ERS-2 ist seit 13 Jahren im Orbit und arbeitet bezüglich seiner Sensorik einwandfrei, obwohl die geplante Betriebsdauer nur 5 Jahre betragen sollte. Lediglich das globale Onboard – Aufzeichnungssystem fiel im Juni 2003 aus. In einer Zeitphase von 9 Monaten (1995–1996) wurden ERS-1 und ERS-2 im Tandemmodus geflogen, um mittels SAR-Interferometrie Daten für die Ableitung genauer Geländemodelle zu generieren (z. B. Geländemodell der Antarktis). Stellvertretend für das gesamte ERS-System wird die Nutzlast des ERS-2 kurz beschrieben: AMI (Active Microwave Instrument), ein CBand-Instrument (5,3 GHz), welches ein abbildendes SAR mit einer Abtastbreite von 100 km und einer räumlichen Auflösung von 30 m, ein Wind-Scatterometer (SCAT) mit einer Auflösung von 50 km und einer Abtastbreite von 500 km sowie ein SAR zur Messung der Wellenhöhe und Wellenrichtung (wave mode) auf den Meeren enthält. RA (Radar Altimeter), Ku-Band-Radar (13,8 GHz), um signifikante Wellenhöhen, Windgeschwindigkeiten, Ozean- und Eistopographie zu messen. MWR (Micro Wave Radiometer), ZweifrequenzRadiometer (23,8 and 36,5 GHz) zur Messung der totalen Wasserdampfsäule über Ozeangebieten.
50
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
ATSR2 (Along Track Scanning Radiometer 2), ein 7-Kanal-VIS/IR-Radiometer mit 4 Kanälen im ERS1/ATSR-Modus) zur Ableitung hochgenauer Temperaturen der Meeresoberfläche. GOME (Global Ozone Monitoring Experiment), Spektrometer mit 4 096 Kanälen und einer spektralen Gesamtabdeckung von 240–790 nm und einer spektralen Auflösung von 0,2 nm im UV und 0,4 nm im VIS. Untersuchte Spurengase sind: O3, O2, O4, NO, NO2, NO3, H2O, BrO, ClO, OClO, HCHO, SO2 und Aerosol. Die räumliche Auflösung beträgt 40 km entlang der Flugrichtung (along-track) und 320 km quer zur Flugrichtung (cross-track) bei einer Abtastbreite von 960 km (beziehungsweise 40 km Auflösung für eine Abtastbreite von 120 km). PRARE (Precise Range And Rangerate Equipment) und LRR (Laser Retro Reflector), Instrumente zur präzisen Bestimmung der Flugbahn, welche für die Arbeiten mit RA benötigt werden. ENVISAT (Environment Satellite) Es ist Europas größter je gebauter Erdbeobachtungssatellit mit einer Gesamtstartmasse von über 8 Tonnen. Hauptaufgabe von ENVISAT ist die Beobachtung der globalen Umweltveränderungen. Im Einzelnen soll ENVISAT neben vielen wissenschaftlichen und anwendungsorientierten Beobachtungen Messdaten zur Erforschung des Ozonlochs, zum Regenwaldmonitoring, zur Versteppung und Verwüstung riesiger Landmassen, zum Bio-Inventar und zur Verschmutzung der Meere sowie zur Entwicklung der polaren Eisregionen liefern. Der Satellit umkreist die Erde auf einer polaren Umlaufbahn in rund 100 Minuten und kann die Erdoberfläche und Atmosphäre wetterunabhängig beobachten. Alle 35 Tage werden dieselben Bereiche überflogen. Die Betriebsdauer des Satelliten war ursprünglich auf fünf Jahre ausgelegt. Die ENVISAT-Mission dauert aber bereits 6 Jahre. Alle Instrumente zeigen bis heute normale Arbeitsleistung, bis auf eine geringfügige Alterung der Sensoren MIPAS und GOMOS (siehe unten). Allerdings gab es Anfang 2006 Störungen in der Radaraltimetrie. Die Nutzlast von ENVISAT umfasst folgende Instrumente: ASAR (Advanced Synthetic Aperture Radar), SAR-C-Band-Radar (5,3 GHz), welches ähnlich wie bei ERS-1 und ERS-2 im „stripmap mode“ arbeitet. Es kann mit unterschiedlicher Polarisation (HH oder VV) aufzeichnen.
RA2 (Radar Altimeter 2), Radaraltimeter im KuBand (13,6 GHz) und S-Band (3,2 GHz), das eine bessere atmosphärische Korrektur ermöglicht. AATSR (Advanced Along Track Scanning Radiometer), verbessertes Radiometer auf Basis des ERS-2. MERIS (Medium Resolution Imaging Spectrometer), 15-Kanal-VIS/NIR-Spektroradiometer zur Bestimmung der Ozeanfarbe, Vegetationsbedeckung und des Aerosols. MERIS besitzt eine Auflösung von 300 m. MWR (Micro Wave Radiometer), überarbeitetes Mikrowellenradiometer des ERS-1-MWR. MIPAS (Michelson Interferometer for Passive Atmospheric Sounding), passiver Limb Scanner für die Atmosphärenchemie mit einem Spektralbereich von 4,15–14,6 μm und einer spektralen Auflösung von 0,035 cm-1. Untersuchte Atmosphärenbestandteile: O3, NO, NO2, HNO3, HNO4, N2O5, ClONO2, COF, HOCl, CH4, H2O, N2O, CFC’s (F11, F12, F22, CCl4, CF4), CO, OCS, C2H2, C2H6, SF6 und Aerosol. GOMOS (Global Ozone Monitoring by Occultation of Stars), Instrument, das mittels eines Spektrometers über Okkultation von 2 540 Sternen die chemische Zusammensetzung der Atmosphäre untersucht. Der Spektralbereich reicht von 250–950 nm bei einer Auflösung von 0,89 nm im UV/VIS- und 0,12 nm im NIRBereich. Untersuchte Atmosphärenbestandteile sind: O3, H2O, NO2, NO3, OClO, BrO, ClO und Aerosol. SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Cartography), Spektrometer zur Untersuchung der Atmosphärenchemie. Es kann sowohl im Limb, CrossNadir oder in Okkultation (Sonne und Mond) betrieben werden. Der Spektralbereich reicht von 240–2380 nm mit einer spektralen Auflösung von 0,24 bis 1,48 nm. Untersuchte Atmosphärenbestandteile sind: O3, O2, O4, NO, NO2, NO3, N2O, CO, CO2, CH2, H2O, BrO, ClO, OClO, HCHO, SO2 und Aerosol. DORIS (Doppler Orbitography and Radiopositioning Integrated by Satellite) und LRR (Laser Retro Reflector), Instrumente zur präzisen Bestimmung von Orbitparametern insbesondere für topographische Anwendungen. Die Tabelle 1.21 zeigt die Chronologie der ERS- und ENVISAT-Satelliten sowie die zugehörigen Instrumente.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Das Satellitenprogramm ENVISAT verdeutlicht anhand seiner vielfältigen Sensoren, wie wichtig insbesondere die Erforschung der Atmosphärenchemie für aktuelle und zukünftige Forschungsfragen ist. Deshalb sind detaillierte Beschreibungen der einzelnen ENVISAT-Sensoren in den Anhang aufgenommen worden. Allerdings sind die Daten von ENVISAT nicht ohne Weiteres frei zugänglich. Eine Datenanfrage ist vielmehr über einen gesonderten und begründeten Antrag an die ESA zu richten (ausführliche Informationen: Earth Observation Principal Investigator Portal ). Allerdings besteht trotzdem die Möglichkeit ohne große Wartezeit Daten von ENVISAT zu nutzen. Unter der angegeben Webseite ist ein sogenanntes „ENVISAT meteorological package“ auf dem FTP-Server frei verfügbar.
51
Neben dem großen ENVISAT-Programm untersucht die Europäische Union (EU) im Rahmen ihrer Earth-Explorer-Mission in kleineren Satellitenmissionen bestimmte Prozesse in der Atmosphäre beziehungsweise klimarelevante Erscheinungen wie Eisdicke, Schwerefeldanomalien, Mikrophysik der Wolken. Die Tabelle 1.22 fasst die Projekte dieser Mission zusammen (Stand 2008). Die Earth Explorer Mission ist offen für Vorschläge aus der Wissenschaft. So besteht in einem „Call for Ideas“ die Möglichkeit, zielgerichtet Missionen vorzuschlagen. Aus einem „Call“ jüngeren Datums wurden z. B. folgende Projekte einer näheren Begutachtung unterzogen: BIOMASS, zielt auf die Bestimmung der Biomasse von Waldbeständen, die Ausdehnung von Wäldern und entwaldeten Gebieten. Basiert auf der Nutzung eines P-Band-SAR.
Tabelle 1.22 Liste ausgesuchter Earth Explorer Missionen (Stand 2008) Satellit
Start
Lebensdauer
Orbit
Haupt – Instrumente
Mission
CryoSat
8.10.2005
Start gescheitert
nicht-sonnensynchron, 717 km, Inclination 92°
SIRAL SAR/lnterferometric Radar Altimeter)
Eisdicke und Topographie
GOCE
05/2007
1,3 Jahre
sonnensynchron, 250 km, LST 06/18
Gravity Gradiometer, 12-Kanal GPS receiver
Schwerefeldanomaliemessungen, genaues Geoid
SMOS
09/2007
>3 Jahre
sonnensynchron, 763 km, LST 06/18
MIRAS (Microwave Imaging Radiometer using Aperture Synthesis)
großskalige Messung von Salzgehalt und Bodenfeuchte
ADM-Aeolus
09/2008
3 Jahre
sonnensynchron, 400 km, LST 06/18
ALADIN (Atmospheric Laser Doppler Instrument)
Windprofile in Reinatmosphäre
CryoSat-2
03/2009
3,5 Jahre
nicht-sonnensynchron, 717 km, Inclination 92°
SIRAL (SAR/lnterferometric Radar Altimeter)
Eisdicke und Topographie
Swarm (3 Satelliten)
02/2010
4,5 Jahre
2 Sat. in 450 km, 87,4° 1 Sat in 530 km, 86,8°
Magnetometers (scalar and vector), Electric Field, Accelerometer
geomagnetische Feldmessungen zur Erforschung des Erdinneren
Earth-CARE
12/2012
2–3 Jahre
sonnensynchron 450 km, LST 10:30
ATLID (Atmospheric Lidar), CPR (Cloud Profiling Radar), MSI (Multi-Spectral Imager), BBR (BroadBand Radiometer)
Wolkenmikrophysik, Strahlungsmessung, Aerosol
52
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
TRAQ, zielt auf die Messung der primären Luftinhaltsstoffe in der Troposphäre zur Bestimmung der Luftqualität. PREMIER, zielt auf die hoch auflösende Messung im mm-Wellenlängenbereich und LimbSounding, um Prozesse in der Übergangszone hohe Troposphäre / untere Stratosphäre besser zu erfassen. FLEX, zielt auf die Erstellung globaler Karten der Fotosyntheseaktivität der Vegetation, um weitere fundierte Erkenntnisse über die Biosphäre und den globalen Kohlenstoffkreislauf zu gewinnen. SCOPE, zielt auf die Kartierung der CO2-Quellen- und Senkengebiete in einem Maßstab von 500 km oder besser. CoReH2O, zielt auf die Bestimmung des SchneeWasseräquivalents sowie die Messung der Mächtigkeit von Land- und Meereis. Messungen sollen mittels X-Band-SAR durchgeführt werden. GMES (Global Monitoring for Environment and Security) ist eine gemeinsame Initiative der Europäischen Kommission und der ESA mit dem Ziel, ein europäisches Netzwerk zur Erfassung und Auswertung von Umweltdaten zu erstellen. Die Daten und Analysen sollen dabei sowohl in direkten Messungen (z. B. chemische Analysen zur Luft-, Wasser-, Bodenqualität) als auch indirekt durch Fernerkundung gewonnen werden. Dabei ist mittels GMES auch eine Koordination der verschiedenen nationalen Institutionen geplant. GMES lässt sich in die fünf Missionen aufteilen:
• Sentinel-1: Bereitstellung kontinuierlicher CBand-SAR-Daten (Start 2011 und 2013)
• Sentinel-2: Bereitstellung hoch auflösender, multispektraler und hyperspektraler optischer Daten (Start 2011 und 2013) • Sentinel-3: Infrarot-Radiometrie (hochgenaue Temperaturmessung), Höhenmessung mittels Radartechnik, multispektrale Aufnahmen mit 500–1000 m Bodenauflösung; Kombination der Einzelmessungen für Küstenüberwachungen, Vorhersagen über Strömungen und Wellengang auf den Meeren und für Umweltdaten auf dem Land (Start 2012 und 2014) • Sentinel-4: Daten zur Atmosphärenchemie von geostationären Satelliten • Sentinel-5: Daten zur Atmosphärenchemie von Satelliten in niedriger Umlaufbahn Weiterführende Informationen zu GMES sowie der aktuelle Planungsstand lassen sich der Inter-
netseite zu GMES entnehmen . Die GMESDienste werden bei Umweltkatastrophen das Krisenmanagement unterstützen. Neben den Sentinel-Satelliten werden rund 30 weitere europäische Erdbeobachtungssatelliten in GMESProjekt eingebunden, z. B. ENVISAT, Meteosat, MetOp, Spot, TerraSAR, RapidEye, Topsat sowie die bereits genannten ESA-Earth Explorer Missionen SMOS, GOCE und ADM-Aeolus.
Die amerikanischen NASA-Programme Aus der Vielzahl der NASA-Erdbeobachtungsprogramme werden im Folgenden die für die Klima- und Global-Change-Forschung bedeutenden Programme vorgestellt. Dabei wird der für das Verständnis der Sensorentwicklung wichtige Blick auf die Historie der NASA-Programme ebenfalls berücksichtigt:
• das Nimbus-Programm (SeaSat, ERBS und UARS)
• das Landsat-Programm • das EOS-Programm • das Earth System Science Pathfinder-Programm Alle genannten Programme haben erheblichen Anteil an einer verbesserten „Sicht“ auf unsere Erde. Die Landsat-Satelliten ermöglichten zum ersten Mal eine komplette Abdeckung unserer Erde mit Informationen zur Landbedeckung (Vegetationseinheiten, Landnutzung). Das Nimbus-Programm (SeaSat, ERBS und UARS) Innerhalb dieses Programms wurden Konzepte und Instrumente entwickelt, die heute auf vielen operationellen Missionen eingesetzt werden. Die in Tabelle 1.23 gezeigte Übersicht der einzelnen Instrumente ist ein Spiegelbild der Entwicklung von VIS/IR-Imager, MW-Imager, IR-Sondierer und MW-Sondierer. Zusätzlich wurden Radiometer für die Messung des Strahlungshaushalts der Erde sowie für das UV-Monitoring entwickelt. Damit kann SeaSat als Wegbereiter für Missionen wie TOPEX/Poseidon, QuikSCAT und Jason gelten. Die aufgelisteten Sensoren zeigen die Vielfalt dieses Programms und seine Bedeutung für die moderne Klimaforschung. Beschreibungen der einzelnen Sensoren würden den Rahmen des vorliegenden Buches sprengen. Detaillierte Informationen können
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
53
Tabelle 1.23 Chronologie der Nimbus-, SeaSat- und UARS-Satelliten Satellit
Start
Ende der Mission
Nimbus-1
28.08.1964
23.09.1964
Nimbus-2
15.05.1966
Nimbus-3
Höhe
LST/ Inkl.*
Instrumente
680 km
12:00
HRIR, AVCS, APT
17.01.1969
1 140 km
11:30
HRIR, AVCS, APT, MRIR
13.04.1969
22.01.1972
1 100 km
12:00
HRIR, IDCS, MRIR, IRIS-B, SIRS, MUSE, IRLS
Nimbus-4
8.04.1970
30.09.1980
1 100 km
12:00
THIR, IDCS, IRIS-D, SIRS-B, FWS, SCR, MUSE, BUV, IRLS
Nimbus-5
10.12.1972
29.03.1983
1 100 km
12:00
THIR, SCMR, ESMR, ITPR, SCR, NEMS
Nimbus-6
12.06.1975
29.03.1983
1 100 km
12:00
THIR, ESMR, HIRS, PMR, SCAMS, LRIR, ERB, TWERLE
Nimbus-7
24.10.1978
1994
947 km
12:00
THIR, CZCS, SMMR, UMS, SAM-II, SAMS, SBUV, TOMS, ERB
SeaSat
27.06.1978
10.10.1978
785 km
108°
SAR, SMMR, ALT, SASS, VIRR, LTR
ERBS
5.10.1984
14.10.2005
610 km
57°
ERBE, SAGE-II
UARS
12.09.1991
14.12.2005
700 km
57°
CLAES, ISAMS, HALOE, MLS, SOLSTICE, SUSIM, HRDI, WINDII, ACRIM-2, PEM
*LST/Inkl.: Local Solar Time/Inklination
aber dem Status of the Spacebased component von GOS (CGMS-XXXIV, herausgegeben von der WMO WP25, 2006) entnommen werden. Die SeaSat-Mission demonstrierte als erste Mission die Möglichkeiten der Mikrowellenfernerkundung über alle Modi hinweg (SAR, Altimetrie, Scatterometrie). Sie bestand aus fünf Instrumenten: einem Radaraltimeter, einem Mikrowellenscatterometer, einem Mikrowellenradiometer und einem Radiometer im Bereich des sichtbaren und infraroten Lichts sowie erstmalig einem SAR als Hauptinstrument. SeaSat transportierte somit das erste SAR in den Weltraum und zeichnete während einer Verweilzeit von insgesamt nur 106 Tagen an 70 Tagen eine sehr aussagekräftige Datenmenge auf. ERBS (Earth Radiation Budget Satellite) arbeitete von 1984 bis 1998 auf NOAA-9 und von 1986 bis 2001 auf NOAA-10. Die Mission verfügte über zwei Instrumente, das ERBE (Earth Radiation Budget Experiment) zur Messung des Strahlungshaushalts der Erde und das SAG-II (Startospheric Aerosol and Gas Experiment) zur Messung der Stratosphärenchemie.
UARS (Upper Atmosphere Research Satellite) zielte erstmalig auf die Atmosphärenchemie in Stratosphäre und Mesosphäre ab. Beim Start 1991 war der Satellit mit 6 800 kg der größte jemals in den Orbit geschossene Satellit. Ursprünglich für eine Betriebsdauer von nur 18 Monaten ausgelegt, arbeitete UARS 14 Jahre. Die wichtigsten wissenschaftlichen Experimente sollten zum einen Aufschluss über die Konzentration und Verteilung wichtiger Gase (z. B. CO2, Ozon, Chlor, Methan), von Stickoxiden und Fluorchlorkohlenwasserstoffen in der oberen Atmosphäre (Stratosphäre und Mesosphäre) geben, um die chemischen Prozesse besser zu verstehen. Zum anderen sollte der Einfluss menschlicher Aktivitäten auf die Ozonschicht untersucht werden. Weitere Informationen finden sich auf der UARS Homepage . Das Landsat-Programm Das Landsat-Programm wurde für die Fernerkundung der Erdoberfläche entwickelt. Daher sind die Spektralbereiche des Systems für eine Differenzierung von Landoberflächen ausgelegt. Gleiches gilt für die
54
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Bodenauflösung von 30 × 30 Metern hinsichtlich vieler Aufgabenstellungen. Landsat-Satellitenaufnahmen werden häufig für Landnutzungsklassifikationen, für geologisch/mineralogische Explorationsarbeiten, Erntevorhersagen, Waldzustandserhebungen, Katastrophenmanagement und kartographische Arbeiten herangezogen. Die Daten sind heute eine wichtige Quelle für die Global-Change-Forschung und seit 2008 ist das gesamte Landsat-Archiv kostenfrei verfügbar. Die Tabelle 1.24 zeigt die Chronologie des Landsat-Programms. Im Jahr 1972 startete der auf Basis eines Nimbus-Wettersatelliten entwickelte Earth Resources Technology Satellite-1 (ERTS-1), welcher 1975 in Landsat-1 umbenannt wurde. Seine wichtigsten Instrumente waren: RBV(Return Beam Vidicon) und MSS (Multispectral Scanner) auf Landsat 1, 2). MSS: • Band 1: 0,475–0,575 μm, blaugrün • Band 2: 0,580–0,680 μm, rot • Band 3: 0,690–0,830 μm, nahes Infrarot Auflösung: 80 m RBV:
• Band A: 0,505–0,750 μm (panchromatisch (Landsat 3)) Auflösung: 80 m
Tabelle 1.24
• Im Jahr 1982 folgt Landsat-4 mit MSS und TM (Thematic Mapper)
• Im Jahr 1984 startet Landsat-5 mit MSS und TM. Er ist seit 25 Jahren operationell aktiv
• Der Folgesatellit Landsat-6 mit ETM geht 1993 bei einem Fehlstart verloren
• Der aktuellste Satellit dieser Serie wird 1999 als Landsat-7 gestartet, mit ETM+ (Enhanced Thematic Mapper, ETM+) an Bord. Seit Ende 2003 liefert Landsat 7 eine deutlich verringerte Bildqualität durch Ausfall des Scan Line Corrector. Dem Landsat-Programm folgte das NMP EO-1Programm (New Millenium Program – EarthObserving-1), das im Jahr 2000 gestartet wurde. Diese Mission nutzte im Wesentlichen drei Instrumente an Bord: ALI (Advanced Land Imager), vergleichbar ETM+, allerdings wurde der IR-Kanal zugunsten von drei Kanälen im Bereich 0,44, 0,87 und 1,25 μm ausgetauscht. LAC (LEISA Atmospheric Corrector), unterstützt den ALI-Sensor durch zusätzliche atmosphärische Korrekturen. Hyperion, ein hyperspektraler Sensor mit 220 Kanälen von 10 nm Bandbreite im spektralen Bereich 0,4–2,5 μm, einer räumlichen Auflösung von 30 m und einer Abtastbreite von 7,5 km.
Chronologie des Landsat-Programms
Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
ERST-1 bzw. Landsat-1 (ERTS)
23.07.1972
2.01.1978
907 km
10:00
inaktiv
RBV (Return Beam Vidicon), MSS, DCS
Landsat-2
22.01.1975
25.02.1982
908 km
10:00
inaktiv
RBV, MSS (Multispectral Scanner), DCS
Landsat-3
5.03.1978
31.03.1983
915 km
10:00
inaktiv
RBV, MSS, DCS
Landsat-4
16.07.1982
15.06.2001
705 km
10:00
inaktiv
MSS, TM, GPS
Landsat-5
1.03.1984
erwartet > 2008
705 km
10:00
operationell
MSS, TM, GPS
Landsat-6
5.10.1993
Start gescheitert
–
–
inaktiv
ETM
Landsat-7
15.04.1999
erwartet > 2009
705 km
10:00
operationell
ETM+
NMP EO-1
21.11.2000
erwartet > 2009
705 km
10:15
operationell
ALI, LAC, Hyperion
LDCM
bis 2010
keine Angaben
TBD
TBD
in Vorbereitung
OLI
*LST: Local Solar Time
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Die NMP EO-1-Mission soll nach 2009 durch neue Satelliten ergänzt werden, die einen sogenannten OLI-Sensor (Operational Land Imager, Nachfolger von ALI) an Bord haben werden. Das EOS-Programm Das EOS (Earth Observing System-)Programm der NASA wurde zur Langzeitbeobachtung des Klimas, der marinen und terrestrischen Ökosysteme entwickelt und stellt einen ersten wesentlichen Ansatz für die Erdsystemforschung dar. Es unterstützt den Aufbau eines Informationssystems, um zu einem umfassenden Verständnis der Erde als System zu gelangen. Das Programm umfasst klein- bis mittelgroße Satelliten, die seit 1999 zum Earth Science Enterprise (ESE) der NASA gehören. Folgende Missionen gehören zu EOS: EOS-Aqua, Satellit zur multidisziplinären Erforschung der miteinander in Wechselbeziehung stehenden Prozesse in Atmosphäre, Meer und Land. Er hat wie der Terra-Satellit den wichtigen MODIS-Sensor an Bord. EOS-Terra, misst die Strahlungseigenschaften von Wolken und Aerosolen und berücksichtigt Austauschprozesse zwischen Luft und Boden beziehungsweise Luft und Meer bezüglich Energie-, Kohlenstoff- und Wasserumsatz. Leider endet die Mission etwa 2012 und der Satellit wird nicht mehr operationell im Einsatz sein. Seine wichtigsten Instrumente sind:
• MODIS
(Moderate Resolution Imaging Spectroradiometer), 36-Kanal-Radiometer im Spektralbereich von 0,4 bis 14,4 μm. Es bietet in den jeweiligen Kanälen räumliche Auflösungen von 250, 500 und 1 000 m • CERES (Clouds and the Earth’s Radiant Energy System), Radiometer, das in drei Kanälen das von der Erdoberfläche reflektierte Sonnenlicht sowie die von der Erde emittierte thermische Strahlung aufzeichnet und darüber hinaus die Gesamtsumme der Strahlung vom oberen Rand der Atmosphäre bis zur Erdoberfläche misst. Ein Kurzwellenkanal (0,3–5,0 μm) dient der Messung des reflektierten Sonnenlichts, ein Langwellenkanal (8–12 μm) der von der Erde emittierten Thermalstrahlung und ein Breitbandkanal der Erfassung aller Wellenlängen. Die Daten liefern Informationen über den Strahlungshaushalt der Erde. Weiterhin werden Wolkeneigenschaften einschließlich
55
ihrer Ausdehnung, Höhe, Mächtigkeit und Partikelgröße erfasst. Diese Messungen von EOS-Terra und EOS-Aqua sind für das Verständnis der globalen Klimaänderungen von großer Bedeutung. CERES-Instrumente sind auch auf den Satelliten der TRMM-Mission installiert • ASTER (Advanced Spaceborne Thermal Emission and Reflection), ein in Japan gebautes Instrument zur bildhaften Darstellung von Temperatur, Orographie, Emissionsvermögen und Reflektionsverhalten der Landoberflächen • MISR (Multiangle Imaging SpectroRadiometer), Instrument zur Messung der bi-direktionalen Strahlung (BRDF) • MOPITT (Measurement Of Pollution In The Troposphere), Gas-Korrelationsspektrometer in den Kanälen 2,26, 2,33 und 4,62 μm, um CO-Profile und CH4-Messungen (Gesamtsäule CH4) durchzuführen EOS-Aura erforscht den Chemismus und die Dynamik der Erdatmosphäre vom Boden bis zur Mesosphäre. Seine wichtigsten Instrumente sind:
• HIRDLS (High Resolution Dynamics Limb Sounder), 21-Kanal-Radiometer, das den Spektralbereich von 6 bis 18 μm abdeckt. Folgende atmosphärische Inhaltsstoffe werden untersucht: CFC-11, CFC1-12, CH4, ClONO2, H2O, HNO3,N2O, N2O5, NO2, O3 • MLS (Microwave Limb Sounder), Limb-Sondierer mit 5 Bändern in den Frequenzen 118 GHz (9 Kanäle), 190 GHz (6 Kanäle), 240 GHz (7 Kanäle), 640 GHz (9 Kanäle) und 2 500 GHz (5 Kanäle). Untersuchte Atmosphärenbestandteile sind: BrO, ClO, CO, H2O, HCl, HCN, HNO3, HO2, HOCl, N2O, O3, OH, SO2. Zusätzlich werden Luftdruck und Temperatur erfasst mit einer vertikalen Auflösung von 1,5 km in einem Bereich von 5 120 km • OMI (Ozone Monitoring Instrument), ein von den Niederlanden und Finnland zur Verfügug gestelltes, abbildendes Spektrometer mit 1 560 Kanälen, welches einen Spektralbereich von 270 bis 500 nm abdeckt. Die spektrale Auflösung beträgt 0,4–0,6 nm. Folgende atmosphärische Inhaltsstoffe werden untersucht: BrO, NO2, O3, OClO, SO2 und Aerosol
56
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
• TES (Tropospheric Emission Spectrometer), abbildendes Interferometer für Untersuchungen im Limb- und Cross-Nadir-Scanmodus. Insgesamt wird der spektrale Bereich von 3,3 bis 15,4 μm abgedeckt. Die spektrale Auflösung liegt bei 0,06 cm-1 im cross-nadir- und 0,015 cm-1 im Limb-Modus. Untersuchte Atmosphärenbestandteile sind: CFC-11, CFC-12, CH4, CO, CO2, H2O, HCl, HDO, HNO3, N2, N2O, NH3, NO, NO2, O3, OCS, SO2 und Aerosol ICESat (Ice, Cloud and Land Elevation Satellite), Satellit zur Messung der polaren Eisbedeckung (Mächtigkeit und Ausdehnung), der Wolkenmächtigkeit und Aerosolverteilung. Weiterhin wird er für Kartierungszwecke (Vegetation und Topographie) genutzt. Wichtigstes Instrument ist das LIDAR-Messinstrument GLAS (Geoscience Laser Altimeter System). Die Tabelle 1.25 fasst die Chronologie des EOS-Programms der NASA zusammen. Das Earth System Science Pathfinder-Programm Den Abschluss der Vorstellung der NASA-Programme bildet Earth System Science Pathfinder (ESSP), das auf einzelnen kurzfristigen Satellitenmissionen basiert. Die wichtigsten Missionen sind in Tabelle 1.26 zusammengefasst.
Internationale Kooperation Bevor wir uns den japanischen Satellitenprogrammen zuwenden, soll kurz noch auf wichtige
Tabelle 1.25
internationale Missionen (Kooperationsprojekte), eingegangen werden. Die wichtigsten, für die Klimaforschung relevanten Missionen sind TRMM und CHAMP. Die Mission TRMM (Tropical Rainfall Measuring Mission) ist eine japanisch-amerikanische Kooperation und das Herzstück des ▶ GEWEXProjekts. Sie soll maßgeblich zur Erweiterung des Wissens über den globalen Energie- und Wasserhaushalt beitragen. Ziel ist, den tropischen Niederschlag über einen Zeitraum von mindestens drei Jahren hinweg zu erfassen. Da der Niederschlag als ein räumlich und zeitlich sehr variables Phänomen ausgeprägt ist, ist eine genaue Messung sehr schwierig. TRMM mittelt daher den Niederschlag in einem 5 × 5-GradGitternetz über 30 Tage hinweg und erfüllt somit die Anforderung komplexer Klimamodelle. Zusammen mit den Wolkenanalysen ergeben die TRMM-Messungen genauere Schätzungen zur vertikalen Verteilung latenter Wärme in der Atmosphäre. Hier besteht erhöhter Forschungsbedarf, da die Menge und die Verteilung des Niederschlags in den Tropen noch unsicher ist und somit die genaue Bestimmung des Massenund Energieaustausches zwischen dem tropischen Ozean und der Atmosphäre erschwert wird. Da beide Prozesse eng gekoppelt sind, besitzen Wolkenabstrahlung und Niederschlag wahrscheinlich wesentliche Auswirkungen auf die Meereszirkulation und die im Ozean enthaltene Biomasse. Zu den TRMM-Sensoren gehören:
Chronologie des EOS-Programms der NASA
Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
SeaStar
01.08.1997
erwartet > 2007
705 km
12:00
operationell
SeaWiFS
QuikSCAT
19.06.1999
erwartet > 2007
803 km
06:00
operationell
SeaWinds
EOS-Terra
18.12.1999
erwartet > 2007
705 km
10:30
operationell
MODIS, CERES, ASTER, MISR, MOPITT
EOS-Aqua
04.05.2002
erwartet > 2008
705 km
13:30
operationell
MODIS, CERES, AIRS, AMSU-A, HSB, AMSR-E
Coriolis
06.01.2003
erwartet > 2008
830 km
06:00
operationell
WindSat
ICESat
12.01.2003
erwartet > 2007
600 km
94°
operationell
GLAS
EOS-Aura
15.07.2004
erwartet > 2010
705 km
13:45
operationell
HIRDLS, EOS-MLS, OMI, TES
*LST: Local Solar Time
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
57
Tabelle 1.26 Ausgesuchte ESSP-Missionen und ihre thematischen Inhalte Satellit
Start
Lebensdauer
Orbit
Hauptinstrumente
Mission
GRACE (2 Satelliten)
17.03.2002
5 Jahre
2 Sat, Höhe 300–500 km, 89°
SuperSTAR Accelerometers, K-Band, Satellitzu-Satellit
Schwerefeldanomalien und exaktes Geoid
CALIPSO
28.04.2006
3 Jahre
sonnensynchron, 705 km, LST 13:30
2 Wellenlängen (532 und 1024 nm) polarisationsempfindliches LIDAR, 3-Kanal-Imager (8,7, 10,5 and 12 (μm), Weitwinkelkamera
Wolkenmikrophysik und Strahlungseigenschaften, Cirrus, Aerosol
CloudSat
28.04.2006
2 Jahre
sonnensynchron, 705 km, LST 13:30
94 GHz Wolkenprofilradar (CPR)
Wolkenprofile und Strahlungseigenschaften
OCO
2008
2 Jahre
sonnensynchron, 705 km, LST 13:15
3 Spektrometer in den Spektralbereichen 0,76,1,61 and 2,06 μm
CO2 Profile
Aquarius
2009
3 Jahre
sonnenynchron, 657 km, LST 06:00
L-Band-Radiometer/ Scatterometer mit polarimetrischen Fähigkeiten
globaler Salzgehalt der Meeresoberfläche
• PR (Precipitation Radar), abbildendes Nie• •
• •
derschlagsradar im Frequenzbereich von 13,8 GHz, das Niederschlagsprofile misst TMI (TRMM Microwave Imager), ein vom DMSP SSM/I abgeleiteter Mikrowellen-Imager VIRS (Visible and Infra-Red Scanner), Radiometer für den sichtbaren und infraroten Spektralbereich, abgeleitet vom AVHRR mit 5 Kanälen in 0,63, 1,6, 3,75, 10,8 und 12 μm) LIS (Lightning Imaging Sensor), abbildender Sensor in Form einer CCD-Kamera zur Blitzdarstellung (Spezialfilter bei 777,4 nm) CERES (Clouds and the Earth’s Radiant Energy System), Instrument zur Messung der von Wolken und Erdoberfläche reflektierten Sonnenstrahlung
Das TRMM-Projekt soll 2012 durch die Mission GPM (Global Precipitation Measurement) erweitert werden. Basisinstrument von GPM ist ein verbessertes Niederschlagsradar auf TRMMGrundlage. Die Tabelle 1.27 fast eine Auswahl bedeutender internationaler Missionen zusammen. Die Mission CHAMP (Challenging Mini-Satellite Payload) für geophysikalische Forschung und Anwendungen ist eine deutsch-amerikanische Mission. Die Mission wurde zur Bestimmung
des Gravitations- und des Magnetfeldes der Erde gestartet sowie zur Ermittlung der Verteilung von Temperatur, Feuchte und Druck in Tropo- und Stratosphäre. Weiterhin wird die Elektronendichte in der Ionosphäre untersucht. Der Satellit wurde im Juli 2000 gestartet. Sein Nachfolger GRACE ist mittlerweile im Orbit. GRACE ist das Akronym für Gravity Recovery and Climate Experiment; eine gemeinsame Mission von DLR und NASA. Zwei baugleiche Kleinsatelliten sollen zur Bestimmung des irdischen Schwerefeldes und zur Beschreibung von Austauschvorgängen zwischen Land, Ozean und Atmosphäre genutzt werden. Ergebnis wird eine genaue Darstellung des Geoids sein. Das Geoid ist Ausdruck des irdischen Schwerefeldes und damit die grundlegende Gestalt, auf der jede Art von Höhenmessung basiert.
Die japanischen JAXA-Programme Die japanischen Programme JAXA (Japan Aerospace Exploration Agency) und NASDA (National Space Development Agency) stehen für die Entwicklung eigener Satellitenmissionen (Tabelle 1.28) sowie für die Bereitstellung von Instrumenten für Kooperationsmissionen (z. B. TRMM, ASTER auf EOS-Terra oder AMSR-E auf EOS-Aqua).
58
Tabelle 1.27
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Internationale Missionen zur Klimaforschung
Satellit
Start
Ende
Höhe
LST/Inkl.*
Status
Instrumente
TRMM
27.11.1997
erwartet > 2008
402 km
35°
operationell
PR, TMI, LIS, VIRS, CERES
GPM „core“
2012
erwartet > 2017
407 km
65°
geplant
DPR, GMI
Microlab-1
01.04.1995
2001
785 km
70°
inaktiv
OTD, GPS/MET
SAC-C
21.11.2000
2005
705 km
10:15
inaktiv
GOLPE + Andereothers
CHAMP
15.07.2000
erwartet > 2006
450 km
87°
operationell
BlackJack + Andere
COSMIC 6 Satelliten
14.04.2006
erwartet > 2010
800 km
71°
operationell
IGOS
*LST/Inkl.: Local Solar Time/Inklination
Eine bekannte Mission ist der Satellit MOS (Marine Observatory Satellite) mit MOS-1 und MOS-2. Die MOS-Instrumentierung umfasst:
• MESSR (Multispectral Electronic Self-Scanning Radiometer), zwei parallel arbeitende VIS/NIR Pushbroom-Scanner zur Vegetationsbeobachtung (Spektralbereiche 0,51–0,59, 0,61–0,69, 0,73–0,80 und 0,80–1,10 μm). Es wird eine räumliche Auflösung von 50 m bei einer Abtastbreite von 185 km erzielt (für gekoppelte Instrumente) • VTIR (Visible and Thermal Infrared Radiometer), 4-Kanalradiometer zur Wolkenbeobachtung
Tabelle 1.28
• MSR (Microwave Scanning Radiometer), 2-Kanalradiometer mit Frequenzen in 23,8 und 31,4 GHz zur Bestimmung der Wasserdampfsäule über dem Ozean Ein weiterer bedeutender japanischer Satellit ist JERS (Japanese Earth Resources Satellite), der mit zwei wichtigen Instrumenten zur Atmosphärenbeobachtung bestückt war:
• SAR (Synthetic Aperture Radar), Radarsensor, der im L-Band bei 1,275 GHz operiert, bestens geeignet zur Messung der Bodenfeuchte und Erfassung der Ozeanoberfläche bezüglich kleinskaliger Phänomene
Chronologie der NASDA-/JAXA-Satellitenmissionen
Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
MOS-1
19.02.1987
29.11.1995
908 km
10:15
inaktiv
MESSR, VTIR, MSR
M0S-1B
07.02.1990
25.04.1996
908 km
10:33
inaktiv
MESSR, VTIR, MSR
JERS
11.02.1992
11.10.1998
568 km
10:45
inaktiv
SAR, OPS
ADEOS-1
17.08.1996
30.06.1997
797 km
10:30
inaktiv
OKTS, AVNIR, NSCAT, TOMS, POLDER, IMG, ILAS, RIS
ADEOS-2
14.12.2002
25.10.2003
812 km
10:30
inaktiv
AMSR, GLI, SeaWinds, ILAS-II, POLDER, DCS
ALOS
24.1.2006
erwartet > 2010
692 km
10:30
operationell
PRISM, AVNIR-2, PALSAR
GOSAT
August 2008
erwartet > 2013
666 km
13:00
geplant
TANSO-FTS, TANSO-CAI
*LST: Local Solar Time
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
• OPS (Optical Sensor), 8-Kanal-PushbroomRadiometer, der im Spektralbereich von 0,52 bis 2,40 μm aufzeichnet, sehr gut für die Erkundung von Vegetation und Landnutzung geeignet. Die räumliche Auflösung beträgt 20 m bei einer Abtastbreite von 75 km. Ein Kanal ist zusätzlich vorausschauend (foreviewing, 15,33°) für stereoskopische Aufnahmen ausgerichtet
59
meter im Aufzeichnungsbereich von 0,52 bis 0,77 μm mit drei Blickrichtungen (vorwärts, nadir und rückwärts gerichtet) zur Aufnahme stereoskopischer Bilder und daraus abgeleiteter digitaler Geländemodelle (Auflösung 2,5 m) • AVNIR-2 (Advanced Visible and Near Infrared Radiometer 2), 4-Kanalradiometer zur Vegetationsbeobachtung in den Kanalauflösungen 0,42–0,50, 0,52–0,60, 0,61–0,69 und 0,76–0,89 μm. Es erzielt eine räumliche Auflösung von 10 m bei einer Abtastrate von 70 km • PALSAR (Phased Array L-Band Synthetic Aperture Radar), L-Band-SAR (1,27 GHz) zur Erfassung der Bodenfeuchte und Ozeanfarbe im kleinen Maßstabsbereich. Unterschiedliche Modi und Polarisationsrichtungen (HH, VV) sind möglich
ADEOS (Advanced Earth Observing Satellite), synonym mit MIDORI-II, Satellit mit 8 Sensoren zur Beobachtung von Ozeanfarben und Ozeantemperatur, Ozon und der Landoberfläche. Hauptsensoren sind ein Radiometer (AMSR) und der Global Imager (GLI). Weitere Instrumente sind: ILAS (Improved Limb Atmospheric Spectrometer-II), TOMS (Total Ozone Mapping Spectrometer), POLDER (Polarization and Direction of the Earth Reflectance) und IMG (Interferometric Monitor for Greenhaus gases). ADEOS sollte insbesondere Beiträge zu Wasser- und Energiekreisläufen (z. B. Kohlenstoffkreislauf) von Atmosphäre, Ozean und Land liefern. Instrumente der ADEOS-Satelliten sind (Auswahl):
GOSAT (Greenhouse Gases Observing Satellite), Satellitenmission, die speziell auf die Treibhausgase abzielt, die im Rahmen des Kyoto-Protokolls wichtig sind. Folgende Instrumente sind insbesondere für die Messung von Treibhausgasen vorgesehen:
• POLDER (Polarization and Directionality of
• TANSO-FTS (Thermal and Near infrared Sen-
the Earth’s Reflectances), ein von Frankreich zur Verfügung gestelltes Radiometer, welches im Wellenlängenbereich 443–910 nm aufzeichnet und für die Beobachtung von Aerosolen, Ozeanfarbe und Vegetation konzipiert wurde • TOMS (Total Ozone Mapping Spectrometer), ist ein hoch auflösendes Spektrometer im Aufzeichnungsbereich von 310 bis 380 nm mit einer Kanalauflösung von 1 nm. Es wurde für die Messung von Ozon entwickelt (Messung der Gesamtsäule Ozon) • IMG (Interferometric Monitor for Greenhouse gases), Interferometer, das in drei Spektralbereichen (3,3–4,3, 4,3–5,0 und 5,0–16,7 μm) arbeitet und bei einer spektralen Auflösung von 0,05 cm-1 folgende Atmosphärenbestandteile misst: CFC-11,CFC-12, CH4, CO, CO2, H2O, HCl, HDO, HNO3, N2, N2O, NH3, NO, NO2, O3, OCS, SO2 Der aktuelle, operative Satellit Japans ist ALOS (Advanved Land Observing Satellite). Er ist auf die intensive Beobachtung der Landoberfläche ausgerichtet und hat drei wesentliche Instrumente an Bord:
• PRISM (Panchromatic Remote Sensing Instrument for Stereo Mapping), 1-Kanal-Radio-
sor for Carbon Observations Fourier Transform Spectrometer), 4-Kanalinterferometer mit 3 Kanälen im Spektralbereich von 0,75 bis 2,1 μm und 1 Kanal im Bereich von 5,5 bis 14,3 μm. Das Interferometer besitzt eine spektrale Auflösung von 0,2 cm-1 (0,5 cm-1 im Kanal 1 zentriert um die Wellenlänge 0,76 μm) zum Nachweis von CO2, CH4 und anderen Treibhausgasen • TANSO-CAI (Thermal and Near infrared Sensor for Carbon Observations Cloud and Aerosol Imager), 4-Kanal-Pushbroom-Imager (380, 674, 870 und 1 600 nm) zum Nachweis und zur Korrektur der Wolken-Aerosol-Interferenz Die zuletzt vorgestellten Satelliten (ADEOS, ALOS, GOSAT) lassen einen Entwicklungstrend hin zu Instrumenten erkennen, die stärker auf die Analyse der Atmosphärenchemie abzielen und somit Anforderungen internationaler Klimaabkommen (z. B. Kyoto) entsprechen.
Die französischen CNES-Programme Die französische Weltraumagentur CNES hat viele Instrumente für bilaterale Satellitenmissionen zur Verfügung gestellt beziehungsweise entwickelt (z. B. ARGOS und ADCS auf POES und
60
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
MetOp/EPS oder den Infrarot-Imager CALIPSO, ScaRaB auf Meteor3-7 und Resurs-O1-4, DORIS auf ENVISAT oder POLDER auf ADEOS-1/). Die bekanntesten Sensoren sind jedoch die landbeobachtenden Satelliten der SPOT-Familie. SPOT (Satellite pour l’Observation de la Terre) ist das wichtigste französische Satellitenprogramm. Die Satelliten befinden sich in 832 km Höhe auf einer polaren Umlaufbahn. Die wichtigsten Sensoren sind zwei gleichartige optische HRV-Kameras (Instrument Haute RésolutionVisible). Sie zeichnen in einem panchromatischen Modus mit 10 m räumlicher Auflösung oder in einem multispektralen Modus mit etwa 20 m räumlicher Auflösung auf. Zusätzlich besteht die Möglichkeit zur Aufnahme von Stereobildern. Die Tabelle 1.29 zeigt die Entwicklung der CNESSPOT-Satelliten. Neben vielen anderen Instrumenten ist für die Erdsystemforschung insbesondere der 1998 gestartete SPOT-Vegetation-Sensor von Bedeutung. Er zeichnet in mittlerer Auflösung (1,15 km) in vier Kanälen auf (0,43–0,47, 0,61–0,68, 0,78–0,89 und 1,58–1,75 μm). Bei einer Abtastrate von 2 200 km kann dieser Sensor nahezu täglich eine globale Abdeckung der Erde erzeugen. Neben diesen landbeobachtenden Missionen sind vor allem die ozean- und atmosphärebeobachtenden Missionen zu nennen, die Frankreich in bilateraler Zusammenarbeit konzipiert hat. Hier sind vor allem die Missionen TOPEX/Poseidon und JASON sowie PARASOL hervorzuheben.
Tabelle 1.29
TOPEX/Poseidon ist ein amerikanisch-französisches Programm, welches das NASA-eigene TOPEX- (Topographie Experiment) mit dem CNES-eigenen Poseidon-Programm verschmolzen hat. Der Satellit trägt einen Radarsensor, ein Altimeter zur Vermessung der Ozeanoberfläche. TOPEX/Poseidon ist das Kernstück des World Ocean Circulation Experiment (WOCE) und des Programms Tropical Ocean Global Atmosphere (TOGA) mit seinen ozeangestützten Messeinrichtungen (▶ Abschnitt 1.2). Aufgrund einer Manövrierunfähigkeit des Satelliten musste die sehr erfolgreiche Mission leider Anfang 2006 beendet werden. Teilziele der Mission waren: Die Erforschung der Ozeanzirkulation und seiner Interaktion mit der Atmosphäre, die Verbesserung des Verständnisses vom Wärmetransport im Ozean, die Modellierung der Gezeiten sowie die Erforschung des ozeanischen Schwerefeldes und Messungen von Meeresspiegelschwankungen im lokalen wie auch weltweiten Maßstab. Eine weitere wichtige Mission ist JASON (Joint Altimetry Satellite Oceanography Network), ebenfalls ein amerikanisch-französisches Verbundprojekt. Jason-1 ist das Nachfolge- und Parallelprojekt zu TOPEX/Poseidon. Als TandemMission folgt Jason-1 in gleicher Höhe derselben Abtastspur wie TOPEX/Poseidon (vergleichbar mit ERS-1 und -2). Ziele der Jason-Mission sind, Erkenntnisse über die Topographie der Meeresoberflächen, die Meereszirkulation sowie über Meeresspiegelschwankungen zu gewinnen.
Chronologie der landbeobachtenden CNES-Satelliten (SPOT)
Satellit
Start
Höhe
LST*
Status
Instrumente
SPOT-1
22.02.1986
SPOT-2
22.01.1990
erwartet > 2006
822 km
10:30
822 km
10:30
teilweise operationell
HRV, DORIS
SPOT-3
26.09.1993
14.11.1996
822 km
10:30
inaktiv
HRV, POAM-2, DORIS
SPOT-4
24.03.1998
erwartet > 2007
822 km
10:30
operationell
HRVIR, Vegetation, POAM-3, SILEX, PASTEC, DORIS
SPOT-5
04.05.2002
erwartet > 2008
822 km
10:30
operationell
HRG, HRS, Vegetation, DORIS
Pleiades-1
Ende 2008
erwartet > 2013
694 km
10:15
in Entwicklung
HR
Pleiades-2
Anfang 2010
erwartet > 2015
694 km
10:15
geplant
HR
*LST: Local Solar Time
Ende
HRV
61
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
Der Satellit Jason-1 ist mit fünf Instrumenten bestückt: das Hauptinstrument zur Höhenmessung, der Altimeter Poseidon-2, und ein Mikrowellenradiometer, um Störungen durch atmosphärischen Wasserdampf zu messen. Hinzu kommen drei Positonsbestimmungssysteme: das Bahnbestimmungsinstrument DORIS, der Laser-Retroreflektor und der BlackJack-GPS-Empfänger. Als Nachfolger für Jason-1 ist OSTM (Ocean Surface Topography Mission), auch Jason-2 genannt, vorgesehen. Dies ist eine gemeinsame Mission von NASA, CNES, NOAA und EUMETSAT. Bei OSTM steht vor allem die operationelle Bestimmung der Meereshöhe im Vordergrund. Die Tabelle 1.30 zeigt eine Übersicht der ozean- und atmosphärebeobachtenden CNES-Satelliten. Als weitere CNES-Missionen sind PARASOL und Megha-Tropiques zu nennen. Bei PARASOL (Polarization and Anisotropy of Reflectances for Atmospheric Science coupled with Observations from a LIDAR) handelt es sich um einen Kleinstsatelliten zur Bestimmung mikrophysikalischer Wolken- und Aerosoleigenschaften sowie der Strahlungseigenschaften von Wolken und Aerosol. Sein wichtigstes Instrument ist POLDER (Polarization and Directionality of the Earth’s Reflectances), ein Radiometer, welches im Bereich 443–1020 nm misst und insgesamt 15 Kanäle für die Messung von Aerosol, Ozeanfarbe und Vegetation aufweist. Daten von PARASOL können direkt von der CNES unter der Internetseite bezogen werden. Das Projekt Megha-Tropiques ist ein Kooperationsprogramm der CNES und ISRO und soll
zu einem globalen Niederschlagserfassungssystem in den Tropen beitragen. Folgende Instrumentierung ist vorgesehen:
• MADRAS (Microwave Analysis & Detection of Rain & Atmospheric Structures), ein von ISRO und CNES entwickeltes Mikrowellenradiometer zur Messung des Niederschlags in fünf Frequenzen (18,7, 23,8, 36,5, 89 und 157 GHz) • SAPHIR (Sondeur Atmospherique du Profil d’Humidite Intertropicale par Radiometrie), Mikrowellenradiometer im 183,33 GHz-Band zur Wasserdampfprofilmessung • ScaRaB (Scanner for Radiation Budget), 4-Kanalradiometer mit zwei Breitbandkanälen (0,2– 4,0 und 0,2–50 μm) und zwei Schmalbandkanälen (0,55–0,65 μm und 10,5–12,5 μm). Das Radiometer dient der Bestimmung des Strahlungshaushalts am Außenrand der Atmosphäre (Top of Atmosphere, TOA)
Das indische ISRO-Programm ISRO betreibt die IRS-(Indian Remote Sensing-) Satelliten seit 1988. Es bestehen zwei Serien, die IRS-1 und der Nachfolger IRS-P. Die Tabelle 1.31 zeigt die Chronologie der IRS-Satelliten. Zurzeit sind drei IRS-Satelliten in Betrieb, der IRS-P4 (OceanSat), der IRS-P5 (CartoSat-1) und der IRS-P6 (ResourceSat-1). Stellvertretend für das gesamte IRS-Programm werden die wichtigsten Instrumente erläutert. Die Zuordnung der Instrumente zu den einzelnen Satelliten kann ebenfalls Tabelle 1.31 entnommen werden:
Tabelle 1.30 Chronologie der ozean- und atmosphärebeobachtenden CNES-Satelliten Satellit
Start
Ende
Höhe
LST* / Inklination
Status
Instrumente
TOPEX/Poseidon
10. 08.1992
erwartet > 2006
1 336 km
66°
operationell
NRA, SSALT, TMR, DORIS
JASON
7.12. 2001
erwartet > 2008
1 336 km
66°
operationell
Poseidon-2, JMR, DORIS
OSTM (JASON-2)
2008
erwartet > 2015
1 334 km
66°
geplant
Poseidon-3, AMR, DORIS
PARASOL
18.12.2004
erwartet > 2007
705 km
13:30
operationell
POLDER+
Megha-Tropique
Ende 2009
erwartet > 2014
867 km
20°
geplant
MADRAS, SAPHIR, ScaRaB
*LST: Local Solar Time
62
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
LISS (Limb Imaging Self Scanning Sensor), Pushbroom-Radiometer zur Vegetationsbeobachtung mit vier Kanälen im Bereich von 0,46–0,52, 0,52– 0,59, 0,62–0,68 und 0,77–0,86 μ (LISS-1). Die räumliche Auflösung von LISS-1 beträgt 72 m bei einer Abtastrate von 140 km. Der Nachfolger LISS-2A/B hatte die gleiche spektrale Auflösung bei einer verbesserten räumlichen Auflösung von 36 m. Bei den Folgeinstrumenten (LISS-3 auf IRS-1C, -1D und -P6) wurde der „blaue“ Kanal (0,46–0,52 μm) durch einen SWIR-Kanal (1,55–1,75 μm) ersetzt. Die räumliche Auflösung betrug nun in den VNIR-Kanälen 23 m und im SWIR-Kanal 70 m. Mit LISS-4 auf IRS-P6 wurde die Anzahl auf drei VNIR-Kanäle reduziert (0,52–0,59, 0,62–0,68 und 0,77–0,86 μm), wobei die räumliche Auflösung auf 5,8 m (mulitspektral) bei einer Abtastbreite von 24 km erhöht werden konnte. PAN (Panchromatic Camera), 1-Kanalkamera im Bereich von 0,50–0,75 μm mit einer Auflösung von 6 m.
Tabelle 1.31
WiFS (Wide Field Sensor), Sensor zur Ableitung von Vegetationsindizes. Er arbeitet in zwei Kanälen mit einer engen spektralen Auflösung von 0,62–0,68 und 0,77–0,86 μm. AWIFS (Advanced Wide Field Sensor), eine Weiterentwicklung des WiFS mit vier Kanälen für Vegetationsmonitoring (0,52–0,59, 0,62–0,68, 0,77–0,86 und 1,55–1,75 μm). MEOS (Monocular Electro-optical Stereo Scanner), 1-Kanalkamera im Bereich 0,57–0,70 μm, die simultan drei Bilder aufnimmt (vorwärts gerichteter, Nadir und rückwärts gerichteter Blick) für stereoskopische Betrachtungen. MOS (Multispectral Optoelectronic Scanner), von Deutschland zur Verfügung gestelltes Instrument zur Messung der Ozeanfarbe, der Vegetation, des Aerosols und von Wolkenparametern. Es beinhaltet drei Subinstrumente: MOS-A, ein 4-Kanalscanner im Bereich von 760 nm zur Messung von Sauerstoff; MOS-B, ein 13-KanalScanner im Bereich 408–1010 nm und MOS-C, 1-Kanalscanner im Bereich 1,6 μm.
Chronologie des IRS-Programms
Satellit
Start
Ende
Höhe
LST*
Status
Instrumente
IRS-1A
17.03.1988
1992
904 km
10:30
inaktiv
LISS-1, LISS-2-A/B
IRS-1B
29.08.1991
2001
904 km
10:30
inaktiv
LISS-1, LISS-2-A/B
IRS-1C
28.12.1995
?
817 km
10:30
?
PAN, LISS-3, WIFS
IRS-1D
29.09.1997
?
784 km
10:30
?
PAN, LISS-3, WIFS
IRS-1E = IRS-P1
20.09.1993
Start gescheitert
-
-
inaktiv
LISS-1, MEOSS
IRS-P2
15.10.1994
1997
817 km
10:30
inaktiv
LISS-2-M
IRS-P3
21.03.1996
2004
817 km
10:30
inaktiv
WiFS, MOS, X-AE
IRS-P4 (OceanSat-1)
26.05.1999
erwartet > 2007
720 km
12:00
operationell
OCM. MSMR
IRS-P5 (CartoSat-1)
05.05.2005
erwartet > 2010
618 km
10:30
operationell
PAN-A, PAN-F
IRS-P6 (ResourceSat-1)
17.10.2003
erwartet > 2009
817 km
10:30
operationell
LISS-3, LISS-4, AWiFS
OceanSat-2
2008
erwartet > 2013
720 km
12:00
geplant
OCM. MSMR
CartoSat-2
2010
erwartet > 2015
618 km
10:30
geplant
PAN-A, PAN-F
ResourceSat-2
2009
erwartet > 2014
817 km
10:30
geplant
LISS-3, LISS-4, AWiFS
*LST: Local Solar Time
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
OCM (Ocean Color Monitor), 8-Kanal-Radiometer mit schmal auflösenden Kanälen im Bereich 402–885 nm zur Beobachtung der Ozeanfarbe und von Aerosol. MSMR (Multifrequency Scanning Microwave Radiometer), Mikrowellenradiometer in vier Frequenzen (6,6, 10,65, 18 und 21 GHz), das in zwei Polarisationen aufzeichnen kann. MSMR wurde zur Messung der Oberflächentemperatur, Windmessung und Wasserdampfbestimmung über den Ozeanen entwickelt. Die räumliche Auflösung reicht von 27 km (bei 21 GHz) bis 85 km (bei 6,6 GHz) bei einer Abtastbreite von 1 360 km. Alle IRS-Daten werden von der indischen NRSA (National Remote Sensing Agency) aufgezeichnet, prozessiert und dokumentiert.
Das russische RosKosmos-Programm Viele seiner Missionen wurden in russisch-ukrainischer Kooperation durchgeführt. Für die Fragestellungen der Klimatologie und GlobalChange-Forschung sind vor allem die Resursund Okean-Missionen zu nennen. Die ResursSatelliten wurden für die Landbeobachtung und die Okean-Satelliten für die Ozeanbeobachtung konzipiert. Es befinden sich zurzeit zwei Exemplare im Orbit, Resurs-O1-3 (seit 1994) und Resurs-O1-4 (seit 1998). Beide Satelliten operieren in polaren, sonnensynchronen Umlaufbahnen mit einer mittleren Orbithöhe von 678 km (-3) beziehungs-
63
weise 835 km (-4). Die wesentlichen Informationen über die Erde werden mit zwei Radiometern aufgenommen: dem MSU-E-Sensor, einem multispektralen optoelektronischen Radiometer mit hoher Auflösung, und dem MSU-SK-Sensor, einem multispektralen optomechanischen Radiometer mittlerer Auflösung. Beide Sensoren schließen die Lücke hinsichtlich räumlicher Auflösung und Detailgenauigkeit zwischen SPOT/ Landsat TM und NOAA AVHRR. Abschnitt 1.3 schließt mit einer Übersicht über sämtliche operationellen meteorologischen Satelliten, alphabetisch geordnet nach ihren Instrumenten (Tabelle 1.32). Diese Liste dokumentiert das umfangreiche Analysepotenzial der heutigen satellitengestützten Beobachtungssysteme, ohne die eine umfassende Beobachtung unseres Erdsystems in seinen einzelnen Sphären nicht möglich wäre. Das Ozonloch über der Antarktis beziehungsweise der südlichen Hemisphäre konnte nur mithilfe dieses „Blicks von oben“ entdeckt werden. Genaue Kenntnisse über diese Erdbeobachtungssysteme und die von ihnen bereitgestellten beziehungsweise abgeleiteten Datenprodukte sind unerlässlich, um heute Klimaforschung zu betreiben und Aussagen über zukünftige Entwicklungen auf unserer Erde treffen zu können. Im folgenden zweiten Teil des Buches ▶ „Klimawandel – Global Change“ werden uns deshalb wieder viele aus Satellitendaten abgeleitete Informationen begegnen.
Tabelle 1.32 Liste der wichtigsten Instrumente für die Klimaforschung und der zugehörigen Satelliten Instrumente (Akronym)
Vollständige Bezeichnung der Instrumente
Satelliten
Nutzungsdauer
ABI
Advanced Baseline Imager
GOES-R und folgende
2014 →
AC
Radiation Budget Sensor
Meteor-11 bis 28
1969–1978
AMSU-A
Advanced Microwave Sounding Unit – A
NOAA-15 bis 19 MetOp-1 bis 3
1998–2014 2006–2020
AMSU-B
Advanced Microwave Sounding Unit – B
NOAA-15/16/17
1998–2007
APS
Aerosol Polarimetry Sensor
NPOESS-1/3
2013–2025
APT
Automatic Picture Transmission
TIROS-8, ESSA-2/4/6/8 ITOS-1, NOAA-1
1967–1976 1970–1971
ARGOS-DCS
ARGOS Data Collection and localisation System
TIROS-N, NOAA-6 bis 19 NPOESS-1 bis 4, MetOp-1 bis 3
1978–2012 2013–2027 2006–2020
64
Tabelle 1.32
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Fortsetzung
Instrumente (Akronym)
Vollständige Bezeichnung der Instrumente
Satelliten
Nutzungsdauer
ASCAT
Advanced Scatterometer
MetOp-1 bis 3
2006–2020
ATMS
Advanced Technology Microwave Sounder
NPP, NPOESS-1 bis 4
2009–2027
AVCS
Advanced Vidicon Camera System
ESSA-3/5/7/9, ITOS-1, NOAA-1
1966–1971
AVHRR/3
Advanced Very High Resolution Radiometer
TIROS-N, NOAA-6 bis 19 MetOp-1 bis 3
1978–2014 2006–2020
CCD
Charge Coupled Device Camera
INSAT-2E, INSAT-3A
1999–2012
CMIS
Conical-scanning Microwave Imager/ Sounder
NPOESS-2 bis 4
2016–2027
CrlS
Cross-track Infrared Sounder
NPP, NPOESS-1 bis 4
2009–2027
DCIS
Data Collection and Interrogation Service
SMS-1/2, GOES-1 bis15 GOMS-1 und folgende
1974–2015 1994→
DCS
Data Collection Service
Meteosat-1 bis 11 GMS-1 bis 5, MTSAT-1/2 FY-2 A bis F INSAT-1A bis 3D, Kalpana
1977–2018 1977–2014 1997–2015 1982–2014
ERBE
Earth Radiation Budget Experiment
NOAA-9 und NOAA-10
1984–2001
ERBS
Earth Radiation Budget Sensor
NPOESS-1/3
2013–2025
FCI
Flexible Combined Imager
Meteosat, dritte Generation
2015 ^
FPR
Fiat Plate Radiometer
TIROS-2/3/4/7, ESSA-1/ 3/5/7/9 ITOS-1, NOAA-1
1960–1972 1970–1971
GEOSAR
Geostationary Search and Rescue
GOES-8 bis 15 Meteosat-8 bis 11 (MSG) INSAT-3A und D Elektro-L und folgende
1994–2015 2002–2018 2003–2010 2007 →
GERB
Geostationary Earth Radiation Budget
Meteosat-8 bis 11 (MSG)
2002–2019
GGAK-M
Space Environment Monitor
Meteor-M 1/2
2007–2012
GLM
Geostationary Lightning Mapper
GOES-R und folgende
2014 →
GOCI
Geostationary Ocean Color Imager
COMS-1/2
2008–2021
GOME-2
Global Ozone Monitoring Experiment –2
MetOp-1 bis 3
2006–2020
GRAS
GNSS Receiver for Atmospheric Sounding
MetOp-1 bis 3
2006–2020
GVHHR
Geostationary Very High Resolution Radiometer
ATS-6
1974
HES
Hyperspectral Environmental Suite
GOES-R und folgende
2014 →
HIRS/4
High-resolution Infrared Sounder
TIROS-N, NOAA-6 bis 19 MetOp-1/2
1978–2014 2006–2015
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
65
Tabelle 1.32 Fortsetzung Instrumente (Akronym)
Vollständige Bezeichnung der Instrumente
Satelliten
Nutzungsdauer
IASI
Infrared Atmospheric Sounding Interferometer
MetOp-1 bis 3
2006–2020
IMAGER
GOES Imager IN SAT Imager MTSAT Imager
GOES-8 bis 15 INSAT-3D MTSAT-2
1994–2015 2007–2014 2010–2015
IR
Infrared Instrument
Meteor-11 bis 28, Meteor-21 bis 22
1969–1994
IRAS
Infrared Atmospheric Sounder
FY-3 bis 7
2007–2023
IRFS-2
IR Sounding Spectrometer
Meteor-M-2
2008–2012
IRS
Infrared Sounder
Meteosat, dritte Generation
2015 →^
JAMI
Japanese Advanced Meteorological Imager
MTSAT-1R
2005–2010
KGI-4C
Space Environment Monitor (particles)
Meteor-3M
2001–2005
Klimat
Infrared Imaging Radiometer
Meteor-3 bis 7, Meteor-3M
1985–2005
KMSS
High-resolution VIS/NIR radiometer
Meteor-M 1/2
2007–2012
Ll
Lightning Imager
Meteosat, dritte Generation
2015 →
MERSI
Medium Resolution Spectral Imager
FY-3 A bis G
2007–2023
MHS
Microwave HuMitteity Sounding
NOAA-18/19, MetOp-1 bis 3
2005–2014 2006–2020
MI
Meteorological Imager
COMS-1/2
2008–2021
MIVZA
Imaging microwave radiometer
Meteor-3 M
2001–2005
MR-2000M1
Television Camera
Meteor-3 bis 7, Meteor-3M
1985–2005
MR-900B
Television Camera
Meteor-3 1 bis 7
1985–1995
MRIR
Medium Resolution Infrared Radiometer
TIROS-2/3/4/7
1960–1967
MSGI-5EI
Space Environment Monitor (irradiances)
Meteor-3 M
2001–2005
MSSCC
Multi-color Spin Scan Cloud Camera
ATS-3
1967–1975
MSU
Microwave Sounding Unit
TIROS-N, NOAA-6 bis 14
1978–2003
MSU-E
High-resolution VIS/NIR radiometer
Meteor-3 M
2001–2005
MSU-GS
Elektro-GOMS Imager
Elektro-L and und folgende
2007 →
MSU-MR
VIS/IR Imaging Radiometer
Meteor-M 1/2
2007–2012
MTVZA
Imaging/Sounding Microwave Radiometer
Meteor-3M und Meteor-M 1/2
2001–2012
MVIRI
Meteosat Visible Infra-Red Imager
Meteosat-1 bis 7
1977–2008
MVISR
Multichannel Visible Infrared Scanning Radiometer
FY-1 A bis D
1988–2006
66
Tabelle 1.32
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Fortsetzung
Instrumente (Akronym)
Vollständige Bezeichnung der Instrumente
Satelliten
Nutzungsdauer
MWHS
Micro-Wave HuMitteity Sounder
FY-3 A bis G
2007–2023
MWRI
Micro-Wave Radiation Imager
FY-3 A bis G
2007–2023
MWTS
Micro-Wave Temperature Sounder
FY-3 A bis G
2007–2023
OMPS
Ozone Mapping and Profiler Suite
NPP, NPOESS-1/3
2009–2025
Radiomet
Radio-occultation Sounder
Meteor-M 1/2
2007–2012
RMK-2
Space Environment Monitor
Meteor-21 bis 22, Meteor-3 bis 6
1975–1994
RMS
Radiation Measurement System
GOMS-1/2 und folgende
1994 →
SAGE-Ill
Stratospheric Aerosol and Gas Experiment – III
Meteor-3 M
2001–2005
SARSAT
Search and Rescue Satellit-Aided Tracking System
NOAA-8 bis 19 außer 12, NPOESS-1 bis 4, MetOp-1/2
1983–2012 2013–2027 2006–2016
SBUV/2
Solar Backscatter Ultraviolet/ 2
NOAA-9 bis 19 außer 12/15
1984–2014
ScaRaB
Scanner for Radiation Budget
Meteor-3 bis 7
1994–1995
SEM (GEO)
Space Environment Monitor
SMS-1/2, GOES-1 bis 15, GMS-1 bis 5, FY-2 A bis F
1974–2015 1977–2003 1997-2015
SEM (LEO)
Space Environment Monitor
TIROS-N, NOAA-6 bis 19, MetOp-1/ 2 FY-1 A bis D, FY-3 A bis G
1978–2012 2006–2015 1988-2021
SESS
Space Environment Sensor Suite
NPOESS-1 bis 4
2013–2025
Severjanin
X-band Synthetic Aperture Radar
Meteor-M 1/2
2007–2012
SEVIRI
Spinning Enhanced Visible Infrared Imager
Meteosat-8 bis 11 (MSG)
2002–2019
SFM-2
Ultraviolet spectrometer
Meteor-3 M
2001–2005
SM
Infrared Sounding Radiometer
Meteor-21 bis 22
1975–1994
SOUNDER
GOES Sounder INSAT Sounder
GOES-8 bis 15, INSAT-3D
1994–2015 2007–2014
SPM
Solar Proton Monitor
NOAA-2 bis 5
1972–1979
SR
Scanning Radiometer
ITOS-1, NOAA-1 bis 5
1970–1979
SSCC
Spin Scan Cloud Camera
ATS-1
1966–1972
SSM/I
Special Sensor Microwave – Imager
DMSPF- 8/10/11/13/14/15
1987–2006
SSM/T
Special Sensor Microwave – Temperature
DMSPF-4 bis 15
1979–2006
SSM/T2
Special Sensor Microwave – HuMitteity
DMSPF-11/12/14/15
1991–2006
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
67
Tabelle 1.32 Fortsetzung Instrumente (Akronym)
Vollständige Bezeichnung der Instrumente
Satelliten
Nutzungsdauer
SSMIS
Special Sensor Microwave – Imager/ Sounder
DMSPF-16 bis 20
2003–2016
SSU
Stratospheric Sounding Unit
TIROS-N, NOAA-6 bis 14
1978–2003
STR
Scanning TV Radiometer
GOMS-1
1994–2000
S-VISSR
Stretched Visible-Infrared Spin Scan Radiometer
FY-2 A bis F
1997–2016
SXI
Solar X-ray 1 mager
GOES-12 bis 15
2001–2015
TOMS
Total Ozone Mapping Spectrometer
Meteor-3 bis 6
1991–1993
TOU/SBUS
Total Ozone Unit & Solar Backscatter Ultraviolet Sounder
FY-3 A bis G
2007–2023
TSIS
Total Solar Irradiance Sensor
NPOESS-2/4
2016–2027
TV
Television Camera
Meteor-11 bis 28, Meteor-21 bis 22
1969–1994
VAS
VISSR Atmospheric Sounder
GOES-4 bis 7
1980–1995
VCS
Vidicon Camera System
TIROS-1 bis 10, ESSA -1
1960–1967
VHRR (GEO)
Very High Resolution Radiometer
INSAT-1A bis 3A, Kalpana
1982–2012
VHRR (LEO)
Very High Resolution Radiometer
NOAA-2 bis 5
1972–1979
VIIRS
Visible/Infrared Imager Radiometer Suite
NPP, NPOESS-1 bis 4
2009–2027
VIRR
Visible and Infrared Radiometer
FY-3 A bis G
2007–2023
VISSR
Visible-Infrared Spin Scan Radiometer
SMS-1/2, GOES -1/2/3, GMS-1 bis 5
1974–1980 1977–2003
VTPR
Vertical Temperature Profile Radiometer
NOAA-2 bis 5
1972–1979
68
1 Klima als interdisziplinärer und internationaler Forschungsschwerpunkt
Wichtig zu wissen • Die Klimatologie als Wissenschaft geht immer
•
•
•
• •
•
•
• •
• •
mehr zu einer übergreifenden Betrachtungsweise des Systems Atmosphäre – Erde – Mensch (Erdsystem-Denken) über. Der Mensch greift seit seinem „Auftritt“ in vielfältiger Weise in das Erdsystem ein und verändert somit die Wirkungszusammenhänge zwischen Atmosphäre und Erde. Die überwiegende Mehrzahl der Wissenschaftler geht heute davon aus, dass sich das weltweite Klima verändert und ein erheblicher Teil dieser Klimaänderung auf menschliche Aktivitäten und Einflüsse zurückgeht. Die Temperaturerhöhung der letzten 100 Jahre liegt bei etwa 0,7° C. Die Veröffentlichung des Vierten Sachstandsberichts des Weltklimarats (IPCC) über den Klimawandel lässt keinen Zweifel an der Realität der vom Menschen verursachten globalen Erwärmung. Es ist weiterhin unsicher, wie sich die globale Klimaentwicklung auf bestimmte Regionen der Erde auswirken wird. In der Forschungslandschaft der Klimatologie ist eine starke Fragmentierung zu beobachten, die einen Überblick und eine Bewertung des Forschungsstandes zunehmend erschwert. Hauptproblem für Gesellschaft und Politik im 21. Jahrhundert ist, dass Entscheidungen bei unsicherer Entscheidungsgrundlage und unter starkem Zeitdruck getroffen werden. Es besteht die strategische Notwendigkeit, eine neue interdisziplinäre Wissenschaftsstruktur, ein Netzwerk, zu bilden sowie eine Klimaschutzstrategie zu entwickeln, die auf dem aktuellsten Stand der Technik aufbaut und alle maßgeblichen Akteure (Bürger, mittelständische Wirtschaft, Industrie, Wissenschaftler, Politikverantwortliche) einbindet. Deutschland hat bereits eine „High-Tech-Strategie“ zum Klimaschutz entworfen. Unter Klima versteht man vereinfacht ausgedrückt, die mittlere Statistik des Wettergeschehens für eine bestimmte Zeitperiode und ein bestimmtes Gebiet. Grundsätzlich setzt sich das Klima eines Ortes aus einem Makro-, Meso- und Mikroanteil zusammen. Die Weltorganisation für Meteorologie (WMO) als Sonderorganisation der Vereinten Nationen (UN) für Meteorologie, Hydrologie und die damit verbundene Geophysik lenkt die
•
•
•
•
•
•
•
internationale Klimaforschung und ihre Programme. Der Weltklimarat (IPCC) ist heute das bestimmende zwischenstaatliche Gremium für die Beratung der Länder in Klimafragen. Die politische Bewertung möglicher zukünftiger Klimaentwicklung stützt sich auf die Sachstandsberichte des IPCC. Es bestehen heute zwei zentrale Forschungsfragen, die im aktuellen Weltklimaforschungsprogramm (WCRP) verankert sind: • die Bestimmung/Bewertung der Vorhersagbarkeit des Erdklimas • die Bestimmung/Bewertung der anthropogenen Einflüsse auf das Erdklima Die Amsterdamer Deklaration zum Globalen Wandel ist die Basis der Earth System Science Partnership. Die Deklaration zielt auf die stärkere Integration und Zusammenarbeit der großen globalen Umweltforschungsprogramme ab. Kernpunkt ist die Integration der Wissenschaftsdisziplinen über die Fachgrenzen hinweg mit ausdrücklicher Betonung der stärkeren Zusammenarbeit von Natur- und Sozialwissenschaften. Es zeichnet sich ab, dass ausgehend von den letzten Jahren neben disziplinären Fragen in verstärktem Maße Wechselwirkungen zwischen physikalischen, biologischen, geologischen und chemischen Komponenten des Klimasystems analysiert werden und insbesondere deren Relationen zu möglichen Änderungen der Gesellschaftssysteme in den Vordergrund rücken. Klimamessdaten der Vergangenheit sowie die aktuellen und zukünftigen Messnetze sind Voraussetzung und Basis der Klima- und GlobalChange-Forschung Die Gesamtheit aller Klima- und klimarelevanten Daten (Satelliten- und in situ-Daten) müssen unter einem gemeinsamen Qualitätsstandard in ein System integriert werden. Diese Aufgabe übernimmt international das Global Earth Observation System of Systems (GEOSS). Alle Daten sollten darüber hinaus standardisiert und frei verfügbar sein. Das geschilderte internationale Datenerfassungssystem liefert letztendlich das „Futter“ für die hoch komplexen Klimamodelle, die für die Berechnung von Klimaprojektionen genutzt werden.
1.3 Klimadiagnose aus dem All – Globale Datensätze und zukünftiger Bedarf der Klimaforschung
69
• Es können globale Klimamodelle (Global Cir-
• Die Informationsgewinnung mit Fernerkun-
culation Model, GCM) und regionale Klimamodelle (z. B. REMO, WETTREG) unterschieden werden. Der Hauptunterschied liegt darin, dass ein globales Klimamodell die gesamte Troposphäre abbildet, während ein regionales Modell in der Regel die gleiche Modellphysik nutzt, diese aber nur auf einen bestimmten geographischen Ausschnitt der Erde anwendet. Die systeminternen Rückkopplungsprozesse von gekoppelten Systemen sind im Augenblick eine große Herausforderung für die Modellierung. Ein immer wichtiger werdendes Glied im globalen und regionalen Beobachtungssystem sind die zahlreichen bestehenden und sich in Planung befindlichen Satellitensysteme. Wissen und Kenntnisse über diese Fernerkundungssysteme sowie deren Informationsangebot werden für das Verständnis einer zukünftigen Klimaforschung immer wichtiger. Geostationäre und polarumlaufende Satelliten bilden das Globale Beobachtungssystem (GOS) der Erde. Der Begriff Fernerkundung bedeutet nach verallgemeinernder Definition das Erfassen und Aufnehmen von Objekten aus der Entfernung, ohne direkten Kontakt des Aufnahmesystems (Sensors) mit dem zu erkundenden Objekt.
dungssystemen steht damit im Gegensatz zu in situ-Verfahren, welche die Werte direkt am Ort der zu messenden Variable erfassen. Die Fernerkundung ermöglicht als einziges Verfahren die Gewinnung flächenhafter Informationen über unsere Erde. • Die objektbeschreibende elektromagnetische Strahlung setzt sich als Funktion der Wellenlänge aus spezifischen Anteilen reflektierter, gestreuter und/oder emittierter Strahlung (Reflexion, Streuung, Emission) zusammen. Interaktionsmedien stellen die Atmosphäre und die Erdoberfläche im Sinne aller natürlichen und künstlichen Oberflächen dar. Deshalb wird der zentrale Bereich der Fernerkundung auch als Erdbeobachtung (Earth Observation, EO) bezeichnet. • Heute bestimmen zwei Trends die zukünftige Entwicklung der Fernerkundung, die einen zunehmend vielseitigen Einsatz für die Analyse des Erdsystems erlauben: • die Entwicklung hin zu immer feinerer spektraler Differenzierung und höherer räumlicher Auflösung • die Entwicklung hin zu großräumiger Erfassung für ein globales Erdsystemmonitoring (Land, Ozean und Atmosphäre)
•
•
• •
2
Basiswissen und Grundgesetze der Klimatologie
Die Kenntnis über das spezifische Wissenschaftsgebäude der Klimatologie und dessen Grundfundamente bildet die Basis, um weitere Forschungserkenntnisse einzuordnen, Hypothesen aufzustellen beziehungsweise zu verwerfen. Zu den Grundfundamenten gehören die über Jahrzehnte hinweg abgeleiteten Gesetzmäßigkeiten über unsere Atmosphäre sowie die in dieser Zeit entdeckten naturwissenschaftlichen Gesetzmäßigkeiten. Das vorliegende Kapitel soll das Rüstzeug zum Verständnis der späteren Kapitel zu den Themen „Klimawandel“ (▶ Teil II) sowie „Klima und Gesellschaft“ (▶ Teil III) liefern. Es beschränkt sich allerdings auf die aus Sicht des Autors wichtigsten Grundlagen zum Verständnis des Themas Klimawandel und möchte nicht mit allgemeinen Lehrbüchern zur Klimatologie konkurrieren. Eine umfassende Ausarbeitung zu Grundlagen der Klimatologie findet sich in einschlägigen Lehrbüchern und Standardwerken zur Klimatologie von Joachim Blüthgen (1966), Peter Hupfer (1991), Walter Roedel (1992), Wilhelm Lauer (1993), Wolfgang Weischet (1995) und Hans Häckel (2008), um nur eine kleine Auswahl zu nennen.
2.1 Zusammensetzung und Aufbau der Atmosphäre Zusammensetzung der Atmosphäre Die Erdatmosphäre ist das Resultat einer langen Entwicklungsgeschichte. In ihrer heutigen Gaszusammensetzung ist die Erdatmosphäre grundverschieden von der solaren Uratmosphäre (auch Urnebel oder Primordialatmosphäre ge-
nannt), aus dem unser Sonnensystem entstanden ist. Vielfältige biochemische und geochemische Prozesse haben die Erdatmosphäre im Vergleich zu anderen Planeten unseres Sonnensystems zu einem einmaligen Luftgemisch gemacht, ohne das menschliches Leben undenkbar wäre. Unsere heutige Atmosphäre ist ein Gemisch aus verschiedenen Gasen, das neben den Hauptbestandteilen Stickstoff (N2 , relativer Volumenanteil 78,09 %) und Sauerstoff (O2 , relativer Volumenanteil 20,95 %) eine Anzahl von Spurenstoffen enthält, von denen insbesondere Argon (Ar, relativer Volumenanteil 0,93 %) und Kohlendioxid (CO2 , relativer Volumenanteil 0,03 %) zu nennen sind. Bei Argon handelt es sich überwiegend um das Isotop Ar-40, welches durch radioaktiven Zerfall von Kalium-40 im Erdmantel entstanden ist. Bei den weiteren Spurenbestandteilen der Atmosphäre sind in der Reihenfolge ihrer Häufigkeit H2O, Neon (Ne, 18,2 ppm [Abk. für parts per million]), Helium (He, 5,24 ppm), Krypton (Kr, 1,14 ppm), Methan (CH4, 1,7 ppm), Wasserstoff (H2) und Distickstoffoxid (N2O, 0,3 ppm) zu nennen. Die Kennwerte unseres Planeten Erde sind in Tabelle 2.1, und die Zusammensetzung der Atmosphäre ist Tabelle 2.2 zu entnehmen. Eine sehr anschauliche Betrachtung der Gasmengen in der Atmosphäre (speziell von Spurengasen) ist die Angabe der Säulenhöhe, die ein betreffendes Gas unter Normalbedingungen (0 °C, 1 013 hPa) einnehmen würde. Unter Normalbedingungen würden sich in einer isobaren Atmosphäre folgende Säulenhöhen ergeben: Stickstoff (6 250 m), Sauerstoff (1 670 m), Argon (74 m), Wasserstoff (35 m), Kohlendioxid (2,5 m), Edelgase ohne Argon (0,20 m) und Ozon (0,035 m). Die Nennung der Säulenhöhe verdeutlicht den geringen Anteil der Spurenstoffe und die Verletzlichkeit der
72
2 Basiswissen und Grundgesetze der Klimatologie
Ozonschicht. Für den wichtigen Atmosphärenbestandteil Ozon ist neben der Säulenhöhe auch die Angabe in Dobson-Einheiten (Dobson Unit, DU) gebräuchlich. Eine Ozonsäule von 1 cm entspricht 1 000 DU. Die mittlere Ozonsäule unserer Atmosphäre liegt somit bei 300–400 DU.
Tabelle 2.1
Vertikaler Aufbau der Atmosphäre Die Erdatmosphäre wird in ihrer Gesamtheit in zweierlei Hinsicht begrenzt. Zum einen bilden die Grenzflächen des Festlandes, der Wasser- und Eisflächen eine untere Grenze für die
Kennwerte einiger Planeten und ihrer atmosphärischen Zusammensetzung (nach Fabian 1992) Erde
Venus
Mars
Jupiter
150
108
228
778
6 371
6 049
3 390
69 500
mittlere Dichte der Planeten (in g/cm )
5,52
5,23
3,96
1,33
mittlere Oberflächentemperatur (in °C)
15
462
–50
–130
Druck an der Oberfläche (in hPa)
1
90
0,007
0,1
Hauptbestandteile der Planetenatmosphären (relativer Volumenanteil)
N2 (78,09 %) O2 (20,95 %) Ar (0,93 %) CO2 (0,03 %)
CO2 (95–97 %) N2 (3,5–4,5 %) H2 (0,06–0,14 %)
CO2 (95 %) N2 (3 %) Ar (1,5 %)
H2 (88 %) He (11 %)
Spurenbestandteile
H2O Ne He Kr CH4 H2 N2O
SO2 Ar CO Ne
O2 CO H2 O Ne Kr Xe
NH3 CH4 H2 O H2S C2H2 C2 H6
mittlerer Abstand von der Sonne (in Mio. km) mittlerer Planetenradius (in km) 3
Tabelle 2.2
Die Zusammensetzung trockener und staubfreier (aerosolfreier) Luft in Erdbodennähe
chemische Formel
Gasname
Konzentration (in Volumenanteil)
Größenordnung
N2 O2 Ar CO2 Ne He CH4 Kr H2 N2O Xe CO O3 NOx (=NO, NO2) FCKW CFCl3 CF2Cl2
Stickstoff Sauerstoff Argon Kohlendioxid Neon Helium Methan Krypton Wasserstoff Distickstoffoxid Xenon Kohlenmonoxid Ozon Stickoxide Fluorchlorkohlenwasserstoffe Trichlorfluormethan Dichlordifluormethan
78,084 % 20,946 % 0,934 % 0,0355 % = 355 ppm 8,2 ppm 5,2 ppm 1,7 ppm 1,1 ppm 0,56 ppm 0,31 ppm 0,09 ppm = 90ppb 50–200 ppb 5–50 ppb 0,05–5 ppb 0,25 ppb = 250 ppt 0,45 ppb = 450 ppt
(% = 10–2)
(ppm = 10-6)
(ppb = 10–9)
(ppt = 10–12)
73
2.1 Zusammensetzung und Aufbau der Atmosphäre
wie CO2 oder die Quellgase von der Troposphäre in die Stratosphäre diffundieren können, wirkt die sehr niedrige Tropopausentemperatur (bis zu –80 °C) für den Wasserdampf wie eine Kältefalle. Nur sehr kleine Wasserdampfmengen können deshalb in die Stratosphäre gelangen. Zudem werden nur geringe Wasserdampfmengen fotochemisch in der mittleren Atmosphäre gebildet (z. B. aus Methan). Quellgase wie Methan (CH4), Wasserstoff (H2), Kohlenmonoxid (CO) und Methylchlorid (CH3Cl) sind Gase, die in der unteren Atmosphäre eher reaktionsträge sind. In der höheren Atmosphäre bilden sie aber die „Quelle“ für sehr reaktive Substanzen. So können z. B. durch fotolytische Spaltung hochreaktive Substanzen in der Stratosphäre entstehen, die zum Ozonabbau führen. Die Trockenheit der mittleren Atmosphäre bedingt, dass in der Stratosphäre kein Wettergeschehen mit Wolkenbildung und Ausregnen wie in der Troposphäre existiert. In der oberen Stratosphäre steigen die Temperaturen wieder kräftig an und erreichen an der Stratopause, der Grenzschicht zwischen Stratosphäre und Meso-
Thermosphäre The Mesopause
0,001 0,01
80 Mesosphäre Mesospäre
0,1
60 Stratopause
1
40 20 0
Stratosphäre
10
Tropopause Troposphäre
100
–80° –60° –40° –20° 0° 20° Temperatur (C)
40°
60°
Luftdruck (mbar)
100
Höhe (km)
Atmosphäre (allgemein zusammengefasst als Erdoberfläche), und zum anderen bildet der Übergang zum Weltraum eine natürliche Obergrenze der Erdatmosphäre. Aufgrund der Gravitationskraft der Erde nehmen Dichte und Druck in der Atmosphäre mit zunehmender Höhe ab. Die Obergrenze der Atmosphäre wird fiktiv in einer Höhe von 1 000 km angenommen, ab 700 km entspricht der Luftdruck annähernd einem technischen Vakuum. Aufgrund der Dichte- und Druckabnahme mit zunehmender Höhe kommt es zur „Ausschichtung“ in der Atmosphäre entsprechend dem Molekulargewicht der Inhaltsstoffe. Die leichteste Substanz, der Wasserstoff (etwa 0,5 ppm), ist dabei ganz oben. Die Ausschichtung führt in Verbindung mit dem solaren Strahlungsumsatz zu einer charakteristischen vertikalen Temperaturverteilung und Stockwerkeinteilung der Atmosphäre. Die Gründe der Schichtung der Atmosphäre liegen auch in der thermischen Abhängigkeit chemischer Prozesse und der nach Dichte und Zusammensetzung der Atmosphäre unterschiedlichen Durchlässigkeit für bestimmte Strahlen (z. B. UV-Strahlung). Die unterste Atmosphärenschicht wird Troposphäre (Wettersphäre) genannt. In ihr spielen sich alle typischen Wettervorgänge wie Bewölkung und Niederschlag ab. Ihre Obergrenze ist die Tropopause. Die Tropopause als Grenzschicht zwischen Troposphäre und Stratosphäre steigt von den polaren Gebieten in Richtung Äquator von rund 5 km auf bis zu 15–17 km Höhe an und stellt eine weltumspannende Inversionsschicht dar. In der Troposphäre nimmt die Lufttemperatur mit zunehmender Höhe vom Erdboden bis hin zur Tropopause ab. Die Troposphäre ist die unterste, dichteste und dünnste Atmosphärenschicht. Trotzdem enthält sie fast 90 % der gesamten Erdluftmasse sowie des Wasserdampfes. Oberhalb der Tropopause schließen sich Stratosphäre und Mesosphäre an, die auch als „mittlere Atmosphäre“ benannt werden. Die mittlere Atmosphäre ist der solaren UV-Strahlung zwischen 170 und 290 nm ausgesetzt, sodass die meisten der in der Troposphäre noch stabilen Bestandteile wie Sauerstoff und die Quellgase fotolysiert, das heißt gespalten werden. Des Weiteren ist die mittlere Atmosphäre sehr trocken. Während die gasförmigen Bestandteile
1000
80° w m2μm
w cm2μm 0,2
2000 a
0,1 0
b
0,5 500
1000
1,0 1,5 2,0 2,5 3,0 3,5 (μm) 1000 1500 2000 2500 3000 3500 (nm) Wellenlänge
2.1 oben: Spektrale Verteilung der Sonnenstrahlung am Außenrand der Atmosphäre (a) und am Erdboden (b) unten: Schichtung der Erdatmosphäre mit zugehörigem Temperaturverlauf (blaue Kurve). Die Pfeile zeigen die Eindringtiefe der solaren Strahlung in die Erdatmosphäre an.
74
sphäre, etwa 0 °C mit einem mittleren Schwankungsbereich von –10 °C bis +10 °C. In der Mesosphäre nimmt die Temperatur abermals rasch ab, um dann in der Mesopause (Grenzschicht zwischen Mesosphäre und Thermosphäre/Ionosphäre) in ca. 100 km Höhe bis auf – 80 °C abzusinken. Von der Mesopause an nimmt die Temperatur in der Ionosphäre wieder ständig zu (Abbildung 2.1).
2.2 Die Sonnenstrahlung – Energiequelle allen Lebens Die Erde und ihre Atmosphäre erhalten ihre nahezu gesamte Energie von der Sonne. Die Sonnenstrahlung bildet die Voraussetzung für die Temperaturverteilung und die davon mittelbar oder unmittelbar abhängigen Klimaelemente. Die Kenntnis des Strahlungshaushalts ist daher Grundlage jeder klimatologischen Forschung. Die elektromagnetische solare Strahlung ist die von der Sonne emittierte Strahlung, welche gemäß dem Planckschen Strahlungsgesetz der Strahlung eines rund 6 000 Kelvin heißen, schwarzen Körpers entspricht. Diese Strahlung ist die wichtigste Energiequelle für die Erde. Der Gesamtstrahlungsfluss der Sonne beträgt etwa 3,9 × 1026 Watt. Die Bestrahlungsstärke am Außenrand der Atmosphäre wird Solarkonstante genannt und liegt bei 1 367,0 ± 0,70 Watt/m2. Diese Quasikonstante wird durch unterschiedliche Messmethoden (Satellitenmessungen, terrestrische Messungen) erfasst und schwankt im Mittel um ± 3,3 %. In der Literatur finden sich Angaben zur Solarkonstante, die zwischen 1 360 und 1 370 W/m2 liegen. Die Erde schneidet aus der Sonnenstrahlung ein Bündel der Fläche π × R2 mit R als Erdradius aus. Die Erdoberfläche selbst beträgt 4 × π × R2. Ohne Berücksichtigung des Einflusses der Erdatmosphäre ergibt sich somit als mittlere solare Einstrahlung ein Viertel der Solarkonstanten (~ 342 W/m2). Infolge der elliptischen Umlaufbahn der Erde um die Sonne besitzt die Solarkonstante einen Jahresgang. Je nach Entfernung der Erde zur Sonne ergibt sich für die Solarkonstante ein Korrekturfaktor von 1,033 (Erde steht im Perihel – sonnennächster Punkt ihrer Bahn) und 0,967 (Erde steht im Aphel – sonnenfernster Punkt).
2 Basiswissen und Grundgesetze der Klimatologie
Im Laufe von 21 000 Jahren verschiebt sich die Apsidenlinie unter Einwirkung der anderen Planeten um 365 Tage. Geographisch bedeutsam ist dabei, dass sich die Erde zurzeit des Winters auf der Nordhemisphäre in Sonnennähe und zurzeit des Sommers auf der Nordhemisphäre in ihrem sonnenfernsten Punkt befindet. Das Winterhalbjahr ist auf der Nordhalbkugel deshalb insgesamt mit 179 Tagen um 7 Tage kürzer als auf der Südhabkugel. Das Sommerhalbjahr ist auf der Nordhalbkugel um die gleiche Zeit verlängert. Die Strahlungsintensität in den einzelnen Breitenzonen der Erde hängt vom Winkelgrad der Sonnenhöhe ab (Isonne = I0 × sin h, wobei Isonne die Strahlungsintensität, I0 die Solarkonstante und h die Sonnenhöhe ist) und wird von den Parametern des solaren Klimas (Erdrevolution und Schiefe der Ekliptik) gesteuert.
2.3 Parameter des solaren Klimas: Erdrevolution, Beleuchtungsklima und Jahreszeiten Das Beleuchtungsklima der Erde (Tages- und Jahreszeiten) ist Resultat der Lage der Erde im Sonnensystem. Der Umlauf der Erde um die Sonne, die sogenannte Erdrevolution, dauert etwa 365,25 Tage. Die Erde beschreibt dabei eine elliptische Bahn, in dere Brennpunkt die Sonne steht (Abbildung 2.2). Die mittlere Entfernung Erde – Sonne beträgt etwa 150 × 106 km mit einer Schwankungsbreite zwischen 147 × 106 km (größte Sonnennähe = Perihel am 2. Januar eines Jahres) und 152 × 106 km (größte Sonnenferne = Aphel am 2. Juli eines Jahres). Die Erde umkreist die Sonne mit einer um 23,5° geneigten Erdachse. Die Neigung der Erdachse unterliegt säkularen Schwankungen und wird als Schiefe der Ekliptik bezeichnet. Die Schiefe der Ekliptik führt im Jahresumlauf zu einer unterschiedlichen Beleuchtung der Erde, die zur Ausbildung strahlungsklimatischer Zonen (Tropen, Mittelbreiten, Polargebiete) führt. Die damit in Zusammenhang stehende Sonnenhöhe und daraus resultierende Dauer des längsten Tages war es sogar, die im Altertum dem Klimabegriff seinen Inhalt gab
2.3 Parameter des solaren Klimas: Erdrevolution, Beleuchtungsklima und Jahreszeiten
(griech. klima = geneigt). Die Erdrotation, die Drehung der Erde um ihre eigene Körperachse (Erdachse), erfolgt von West nach Ost in etwa 24 Stunden (genauer 23 Stunden, 56 Minuten, 4 Sekunden).
75
Die Erdrotation verursacht die Tageszeiten. Nur am Äquator sind aufgrund der Schiefe der Ekliptik Tag und Nacht immer gleich lang. In allen anderen Breitenbereichen kommt es zu einer ständig wechselnden Länge von Tag und Nacht.
Elektromagnetische Strahlung und ihr Spektrum Eine elektromagnetische Welle ist gekennzeichnet durch die Frequenz (Häufigkeit der Schwingungen pro Sekunde) und die Amplitude (Abstand zwischen zwei Wellenlängenbergen beziehungsweise -tälern). Jede Strahlenquelle sendet ein für sie typisches Gemisch vieler unterschiedlicher Wellenlängen aus, ihr Spektrum. Der Aufbau des Spektrums hängt dabei von der Temperatur des Strahlers ab. Ein schwarzer Strahler (auch: schwarzer Körper oder Planckscher Strahler) ist physikalisch ein idealisierter Körper, der auf ihn treffende elektromagnetische Strahlung für jede Wellenlänge vollständig absorbiert. Zugleich ist ein schwarzer Körper (Begriff nach Gustav Kirchhoff, 1860) eine ideale thermische Strahlungsquelle, die elektromagnetische Strahlung mit einem charakteristischen, nur von der Temperatur abhängigen Spektrum aussendet. Die Theorie des schwarzen Körpers dient als Grundlage für theoretische Betrachtungen sowie als Referenz für praktische Untersuchungen elektromagnetischer Strahlung. Intensität und Frequenzverteilung der von einem schwarzen Körper ausgesandten elektromagnetischen Strahlung werden durch das von Max Planck formulierte Plancksche Strahlungsgesetz beschrieben. Nach seiner Deutung durch Albert Einstein im Jahr 1905 (Einsteins Lichtquantenhypothese) wurde es die Grundlage der Quantenmechanik. Das Maximum der Frequenzverteilung verschiebt sich bei steigenden Temperaturen zu höheren Frequenzen bzw. kürzeren Wellenlängen (Wiensches Verschiebungsgesetz). Die gesamte ausgestrahlte Energie ist dabei proportional zur vierten Potenz der absoluten Temperatur des schwarzen Körpers (Stefan-Boltzmann-Gesetz). Zu den wichtigsten Strahlungsgesetzen gehören das
• Wiensche Verschiebungsgesetz. Nach Wilhelm Karl Werner Wien benanntes Strahlungsgesetz, das die Berechnung der Wellenlänge des Strahlungsmaximums λmax mit η = konst. = 2,898 μm K und T = absolute Temperatur der strahlenden Oberfläche vornimmt η λmax = T .
Es findet in der Fernerkundung (Abschnitt1.3) bei der Bestimmung von Oberflächentemperaturen (MODIS LST) im Rahmen von Wärmehaushaltsuntersuchungen und in mikroklimatischen Analysen Anwendung. • Stefan-Boltzmann-Gesetz. Nach Josef Stefan und Ludwig Erhardt Boltzmann benanntes Gesetz zur Bestimmung der Gesamtenergiedichte über alle Spektralbereiche, welche der Fläche unter der Planckschen Strahlungskurve entspricht. Es verdeutlicht die starke Abhängigkeit dieser Gesamtenergiedichte von der Temperatur des schwarzen Körpers (vgl. Strahlungsgesetzte bei Kappas, 1994). Wichtige Bereiche des solaren Spektrums sind • thermaler oder langwelliger Wellenlängenbereich (3,0 bis 100 μm, Maximum bei 10 μm): Die Strahlungsquelle der Erde beträgt hier insgesamt rund 287 K • Infrarotstrahlung (IR) mit Wellenlängen von 800 nm–1 mm • sichtbare Strahlung (VIS) mit Wellenlängen von 700 nm–400 nm • Ultraviolettstrahlung (UV) mit Wellenlängen von 380 nm–10 nm UV-A: 320–380 nm UV-B: 280–320 nm UV-C: <280 nm 1 nm = 1 Nanometer ist ein Millionstel eines Millimeters (1 nm = 10-9 m) Der Absorptions- und Reflektionsgrad, allgemein 1−ε ≥ 0, eines Körpers hängt von der Beschaffenheit seiner Oberfläche ab. Der schwarze Strahler ist ein Körper, der einen Absorptionsgrad von ε = 1 besitzt. Das bedeutet, er absorbiert alle antreffende Strahlung; dementsprechend ist sein Reflektionsgrad Null. Experimentelle Erkenntnisse zeigen, dass Körper mit hohem Absorptionsvermögen auch ein großes spektrales Strahlungsvermögen besitzen.
76
Kirchhoff, Gustav Robert (1824–1887), deutscher Physiker; gab 1845/46 die Gesetze der elektrischen Stromverzweigung (Kirchhoffsche Regeln) an und schuf 1857 eine Theorie der Ausbreitung der Elektrizität auf elektrischen Leitern. Er erkannte den Zusammenhang zwischen Lichtemissions- und Absorptionsvermögen bei glühenden Körpern und formulierte 1859 das Kirchhoffsche Strahlungsgesetz. 1862 wurde von ihm der Begriff des Schwarzen Körpers eingeführt; mit R. W. Bunsen begründete er 1859/60 die Spektralanalyse und erkannte die Fraunhoferschen Linien im Sonnenspektrum als Absorptionslinien.
Planck, Max (1858–1947), deutscher Physiker; führte Studien über Entropie und zur Wärmestrahlung durch. Dabei entdeckte er 1899 eine neue Naturkonstante, das plancksche Wirkungsquantum. 1900 leitete er das richtige Gesetz der schwarzen Wärmestrahlung ab (Plancksches Strahlungsgesetz). Der Entwicklung der Quantenmechanik stand er eher zurückhaltend gegenüber. Erkannte aber sofort die Tragweite der speziellen Relativitätstheorie, deren rasche Durchsetzung in Deutschland v. a. sein Verdienst war. 1918 erhielt Planck den Nobelpreis für Physik.
Einstein, Albert (1879–1955), deutsch-schweizerisch-amerikanischer Physiker; einer der bedeutendsten theoretischen Physiker aller Zeiten. Forschung und Lehre in Bern, Zürich, Prag, Berlin, Princeton. Einstein revolutionierte mit der Speziellen Relativitätstheorie (1905) und der Allgemeinen Relativitätstheorie (1915) das Verständnis von Raum und Zeit. Durch die Formulierung der Lichtquantenhypothese im Jahre 1905 trug er zur Entwicklung der Quantentheorie und damit zur Revolutionierung des Strahlungs- und Materiebegriffs in der klassischen Physik bei. 1921 erhielt Einstein den Nobelpreis für Physik.
2 Basiswissen und Grundgesetze der Klimatologie
Stefan, Josef (1835–1893), österreichischer Physiker; ab 1863 Professor in Wien; Arbeiten über kinetische Gastheorie, die Strahlung Schwarzer Körper, Hydrodynamik, Elektrizitätstheorie und zur Theorie der Wechselströme (insbesondere Berechnung der Induktionskoeffizienten von Drahtrollen); stellte 1879 empirisch ein Strahlungsgesetz auf, das später (1884) von L. Boltzmann theoretisch abgeleitet wurde (Stefan-Boltzmann-Gesetz), und bestimmte mit diesem unter anderem die Temperatur der Sonnenoberfläche.
Wien, Wilhelm Karl Werner (1864–1928), deutscher Physiker; Beugungs- und Interferenzversuche mit Licht, bestätigte die Randwellen; stellte 1893 das Wiensche Verschiebungsgesetz auf, das die Wellenlänge maximaler Emission des schwarzen Körpers mit seiner Temperatur verknüpft, und 1896 die Wiensche Strahlungsformel über die Energieverteilung der schwarzen Strahlung; hydrodynamische Arbeiten; gemeinsam mit O. Lummer gelang ihm 1895 die Realisierung eines schwarzen Körpers; Messungen an Kathoden- und Kanalstrahlen, bewies deren Ladung; bestimmte 1907 die Wellenlängen von Röntgenstrahlen; erhielt 1911 den Nobelpreis für Physik.
Boltzmann, Ludwig (1844– 1906), österreichischer Physiker und Mathematiker; lieferte 1872 die Bestätigung der Maxwellschen Theorie; gab eine Begründung der Thermodynamik durch Anwendung der statistischen Mechanik; stellte 1872 das H-Theorem (Boltzmann-Theorem) auf; einer der Begründer der kinetischen Gastheorie (Boltzmannsche Stoßgleichung); stellte die Boltzmann-Gleichung (Boltzmann-Postulat) auf; gab 1884 eine theoretische Begründung für das von J. Stefan 1879 empirisch gefundene Stefan-Boltzmann-Gesetz der Gesamtstrahlung eines Schwarzen Körpers.
77
2.3 Parameter des solaren Klimas: Erdrevolution, Beleuchtungsklima und Jahreszeiten
Die Tageslänge beläuft sich an den Polkreisen im Sommer zurzeit des höchsten Sonnenstandes (Sommersolstitium = Stand der Sonne an den Wendekreisen) auf 24 Stunden. Die Tageslänge wächst bis zu den Polen auf einen halbjährigen ununterbrochenen Tag an. Bei dieser Erdstellung geht für die Sommerhalbkugel am Polarkreis die Sonne nicht unter (Polartag) und für die Winterhalbkugel die Sonne nicht auf (Polarnacht). In den Tropen hingegen steht die Sonne mindestens einmal im Jahr im Zenit (Scheitelpunkt über dem Beobachter, sein Gegenpunkt ist der Nadir), und zwar im Nordsommer über dem nördlichen Wendekreis (23° 30' N, Wendekreis des Krebses) und im Südsommer über dem südlichen Wendekreis (23° 30' S, Wendekreis des Steinbocks). Die dazwischen liegende Tropenzone ist somit durch einen zweimaligen Sonnenhöchststand (Zenit) gekennzeichnet, der unmittelbar über dem Äquator im halbjährigen Abstand am 21. März und 23. September erreicht wird. Außerdem ist die Mittagshöhe der Sonne in der Tropenzone nie kleiner als 42°. Mit zunehmender Entfernung vom Äquator Richtung Wendekreise nähern sich diese beiden Sonnenhöchststände immer mehr an. Dies ist für die Anordnung der tropischen Regen- und Trockenzeiten von fundamentaler Bedeutung. Die Jahreszeiten gliedern das Jahr in verschiedene Perioden, die sich durch charakteristische klimatische Eigenschaften auszeichnen. Im alltäglichen Sprachgebrauch sind damit hauptsächlich meteorologisch deutlich voneinander unterscheidbare Jahresabschnitte gemeint; in den gemäßigten Breiten sind dies Frühling (März–Mai), Sommer (Juni–August), Herbst (September–November) und Winter (Dezember– Februar), in den Tropen sind es Trocken- und Regenzeiten. Eine Ursache für die Schwankung der Solarkonstanten am Außenrand der Atmosphäre ist die Veränderung der Erdbahnparameter in langen Zeitskalen. Zu den Veränderlichen der Erdbahnparameter, auch Präzessionen genannt, gehören:
Aus den langperiodischen Schwankungen der Erdbahnelemente leitete der jugoslawische Astrophysiker Milutin Milanković die astronomische Theorie der Klimaschwankungen ab. Es handelt sich um periodisch auftretende Abweichungen der Solarkonstanten in der Größenordnung von 5–10 Prozent. Als planetare Ursache für diese Schwankungen der Intensität der Sonneneinstrahlung auf der Erde wurden die oben genannten und sich überlagernden Effekte berechnet und als Milanković-Zyklen bezeichnet. Milanković berechnete die solare Erdbestrahlung für einen zurückliegenden Zeitraum von 600 000 Jahren unter Berücksichtigung der Schwankungen der drei Erdbahnparameter, die mit Perioden von 95 000 Jahren (Exzentrizität), 41 000 Jahren (Schiefe der Ekliptik) und 21 000 Jahren (Perihellänge) erwartet werden. Die berechneten Strahlungskurven zeigen bei qualitativer Betrachtung eine auffallende Übereinstimmung mit der Klimageschichte, vor allem mit dem Auftreten von Kalt- und Warmzeiten während der letzten Million Jahre.
Milankovic´, Milutin (1879–1958), serbischer Astronom, bekannt durch seine klimatologischen Arbeiten, insbesondere die Erklärungsversuche der Eiszeiten durch langperiodische Schwankungen der Bahnenelemente der Erde und der damit verbundenen Änderungen der Sonneneinstrahlung.
Äquinoktialstand 21. März Solstitialstand 21. Juni
Polarkreis Tag Äquator
Tag
152 . 106 km
Sonne
147 . 106 km
• die numerische Exzentrizität der Erdumlaufbahn • die Schwankung in der Neigung der Erdachse (Schiefe der Ekliptik) • die Veränderung der Apsiden bzw. der Perihellänge
Solstitialstand 22. Dez. N
Tag Nacht S
Aphel (4. Juli)
Nacht
Äquinoktialstand 23. Sept.
Perihel (2. Jan.)
2.2 Entstehung der Jahreszeiten durch die Erdrotation.
78
2.4 Der Einfluss der Atmosphäre auf die Sonnenstrahlung Die Atmosphäre ist eine wichtige Komponente des Klimasystems. Sie greift aktiv in den Strahlungshaushalt der Erde ein und verändert durch ihre Eigenschaften sowohl die kurzwellige, einfallende Sonnenstrahlung als auch die abgehende, langwellige terrestrische Strahlung. Der atmosphärische Einfluss auf die kurzwellige Strahlung geht überwiegend auf die Streuung und Absorption an Luftmolekülen, Aerosolpartikeln, Wolkentröpfchen und Eiskristallen zurück. Die langwellige terrestrische Strahlung wird hingegen durch Wasserdampf (H2O) und strahlungsaktive Gase (CO2, O3, N2O, CH4) verändert. Die strahlungsaktiven Gase absorbieren und emittieren insbesondere im Infrarotbereich des Spektrums. Diese Emission durch strahlungsaktive Gase wirkt in Richtung Weltraum als auch in Richtung Erdoberfläche. Damit erhält die Erde einen nicht unerheblichen Anteil langwelliger Wärmestrahlung über die Himmels- oder Gegenstrahlung. Diesen Effekt hatte bereits 1896 Svante August Arrhenius erkannt und vor einem möglichen Treiboder Glashauseffekt gewarnt, hervorgerufen durch die Verbrennungsprozesse der modernen Zivilisation, die zunehmend Kohlendioxid freisetzt. Schauen wir uns die Globalstrahlungsverteilung der Sonne an, so ist diese die Summe aus direkter Sonnenstrahlung und diffuser Himmelsstrahlung. Rund 18 % der eingestrahlten Energie wird direkt durch Ozon und Wasserdampf in der Atmosphäre absorbiert. Ozon absorbiert fast die gesamte UV-Strahlung mit Wellenlängen <0,3 μm. Dieser Effekt ist lebenswichtig für unsere belebte Erde. Selektive Effekte schwächen bzw. verändern die Sonnenstrahlung beim Durchgang durch die Atmosphäre. Den Gesamteffekt nennt man Extinktion. Die Extinktion ergibt sich aus diffuser Reflexion und selektiver Absorption. Beide Effekte sind abhängig von der Wegstrecke, welche die Strahlung in Abhängigkeit vom Sonnenstand durch die Atmosphäre nimmt. Je länger der Weg der Strahlung durch die Atmosphäre ist, umso stärker ist der Strahlungs-
2 Basiswissen und Grundgesetze der Klimatologie
Arrhenius, Svante August (1859–1927), schwedischer Physikochemiker und Nobelpreisträger (1903); neben zahlreichen Arbeiten zu physikalischer Chemie auch meteorologische und astronomische Forschungen über Klimaschwankungen, Gewitter und Polarlichter; begründete 1906 die PanspermieLehre, die besagt, dass das Leben auf der Erde nicht hier begann, sondern durch Meteorite aus dem Weltraum auf die Erde gebracht wurde.
verlust. Durch diffuse (ungerichtete) Reflexion kommt es vor allem zur Streuung der Strahlung an Gasen, Aerosolpartikeln und atmosphärischem Wasser (in Form von Wolken, Dunst, Nebel oder Eiskristallen). Stärke und Art der diffusen Reflexion hängt dabei von der Größe der Teilchen und somit indirekt von der Wellenlänge der Strahlung ab. Die Streuung an Teilchen, die gegenüber der Wellenlänge des Lichts klein ist, nennt man Rayleigh-Streuung. Die Lineardimension dieser Teilchen liegt unter 0,1 μm (z. B. Luftmoleküle, kleinste Aerosolpartikel). Die Intensität der Rayleigh-Streuung ist annähernd proportional zu λ-4 (mit λ = Wellenlänge der einfallenden Strahlung). Kurzwelliges Licht wird also wesentlich stärker gestreut als langwelliges Licht; daraus resultiert auch die blaue Farbe des Himmels. Sind die streuungverursachenden Teilchen größer als die Lichtwellenlänge oder mit ihr vergleichbar, so spricht man von der Mie-Streuung durch die sich eine Aufhellung des Himmels in der Sonnenumgebung ergibt. Detaillierte Informationen zur Physik der Lichtstreuung finden sich bei Van de Hulst (1981). Bei der selektiven Absorption wird Strahlungsenergie von absorbierenden Materialien aufgenommen und dabei in Wärmeenergie transformiert. Bestimmte Materialien absorbieren nur in bestimmten Wellenlängenbereichen, andere Wellenlängen werden reflektiert oder durchgelassen (Transmission). Das Verhältnis von absorbierter und gesamter einfallender Strahlung ist eine Materialkonstante und wird als Absorptionskoeffizient bezeichnet. Durch die Absorption kann es dazu kommen, dass bestimmte Spektral-
79
2.5 Die Globalstrahlung
bereiche der ankommenden Strahlung sehr stark geschwächt werden oder ganz wegfallen (Absorptionsbanden). Solche Absorptionsbanden werden insbesondere durch Ozon (O3), Kohlendioxid (CO2) und Wasserdampf (H2O) verursacht. Die senkrecht nach unten gerichteten Pfeile in Abbildung 2.1 deuten an, wie weit die Strahlung der unterschiedlichen Wellenlängen in die Atmosphäre eindringt.
1000 Ly pro Jahr
20°
60° Globalstrahlung
120
direkte Strahlung
80 diffuse Strahlung
40 80
Nachdem im Abschnitt 2.4 auf die Abnahme der kurzwelligen Einstrahlung durch diffuse Reflexion und selektive Absorption eingegangen wurde, bleibt zu fragen, welche Menge an kurzwelliger Strahlung überhaupt noch auf eine Flächeneinheit der Erde einstrahlt. Die Gesamtenergie an kurzwelliger Strahlung, die aus direkter Sonnenstrahlung (Q) und indirekter Strahlung (q, diffuses Himmelslicht) resultiert und auf eine Flächeneinheit der Erde einstrahlt, wird Globalstrahlung genannt. Dabei unterliegt die Globalstrahlung starken regionalen Unterschieden, da die diffuse Reflexion und selektive Absorption von der Ausprägung unterschiedlicher Faktoren gesteuert wird. Wesentliche Parameter sind die breitenabhängige Länge des Strahlungsweges, der unterschiedliche Gehalt an Wasserdampf und Aerosol in der Atmosphäre sowie der wechselnde Bewölkungsgrad in den unterschiedlichen Zonen der Erde. Für dynamischklimatologische Fragestellungen wird fasst ausschließlich die Höhe der Gesamtsumme von Q + q in ihrer regionalen Verteilung berücksichtigt. Betrachtet man das Strahlungsklima im Hinblick auf seine Bedeutung für das organische Leben und die Ausgestaltung von Lebensräumen auf der Erde, so ist das Wissen über die Einzelanteile an der gesamten kurzwelligen Strahlung und ihrer Relationen zueinander wichtig. Der Anteil an diffuser Himmelsstrahlung steuert die Expositionsunterschiede im Lebensraum von Mensch, Tier und Pflanze. Ein hoher Anteil diffuser Strahlung führt zur Verringerung des LichtSchatten-Kontrasts und dadurch zur Abnahme der Expositionsunterschiede. Mit zunehmender geographischer Breite wächst der Einfluss diffuser Himmelsstrahlung an. In den Polargebieten
20°
160
N
2.5 Die Globalstrahlung
60°
60
40
20
0 in °
20
40
60
80 S
2.3 Meridionalprofil der kurzwelligen Strahlung auf die Erde: Globalstrahlung, direkte und diffuse Strahlung vom Äquator bis zu den Polen (mit Ly = Langley: 1 Kalorie cm-2 = 2.39 x 105 J m-2).
hat die diffuse Himmelsstrahlung den größten relativen Anteil. Nur zur Sommersonnenwende (Sommersolstitium) ist die direkte Strahlung hier vier- bis fünfmal stärker als die diffuse Strahlung. Ab 60° nördlicher beziehungsweise südlicher geographischer Breite hat die diffuse Strahlung insbesondere in den Wintermonaten eine gleich große Bedeutung wie die direkte Sonnenstrahlung. Die Abbildung 2.3 zeigt das Verhältnis von direkter zu diffuser Strahlung und Globalstrahlung im Meridionalprofil vom Äquator bis zu den Polen Fasst man die Wechselwirkungen der Parameter Sonnenhöhe, Wasserdampf- und Aerosolgehalt sowie Bewölkung zusammen, so zeigt sich eine gegenläufige Beziehung von Globalstrahlung zu diffuser Himmelsstrahlung. Bei hohem Sonnenstand ist die Globalstrahlung verhältnismäßig hoch und die diffuse Strahlung gering. Ein hoher Bewölkungsgrad reduziert die Globalstrahlung bei einem relativ hohen Anteil diffuser Strahlung. Hoher Wasserdampf- und Aerosolgehalt verringert ebenfalls die Globalstrahlung, der Anteil diffuser Strahlung ist wiederum relativ groß. Insgesamt führen diese Effekte in den unterschiedlichen geographischen Breiten der Erde (Tropen, Subtropen, Mittelbreiten, Polarregionen) zu einem sehr unterschiedlichen Einstrahlungsklima. Die mittlere Verteilung der Globalstrahlung (Abbildung 2.4) für die Monate Juni (nordhemisphärischer Sommer, südhemisphärischer Winter)
80
und Dezember (nordhemisphärischer Winter, südhemisphärischer Sommer) zeigt neben interessanten Einzelheiten folgende Hauptmerkmale: Die Maximalwerte der Globalstrahlung treten auf der Nordhemisphäre auf und zwar nahe des Wendekreises (23° 30` Nord) und über Landfläche. Vergleichbare Gebiete der Südhemisphäre (23° 30` Süd) erhalten 10–15 % weniger kurzwellige Energie. Das zeitliche und räumliche Mittel liegt zwischen 180–190 W/m2. Einen herausragenden „Strahlungsgenuss“ erhalten die sommerlichen Trockengebiete der Subtropen. In diesen Regionen kommt es zwischen Juni und August zu hohen Sonnenständen bei sehr geringer Bewölkung und gleichzeitiger geringer Trübung der Atmosphäre. Deutlich zu erkennen ist das Einstrahlungsmaximum im Sommer über dem asiatischen Hochland (hochgelegene Heizfläche). Im Hinblick auf die allgemeine atmosphärische oder planetarische Zirkulation (▶ Abschnitt 2.10) können folgende Aussagen getroffen werden:
• Die Gesamtmenge an kurzwelliger Strahlung, die Globalstrahlung, wird überall auf der Erde um mehr als 35 % der einkommenden Strahlung reduziert. Die Reduktion der Strahlung ist stark abhängig von der geographischen Breite. • Die maximale Globalstrahlung erhält die Erde in den Trockengebieten der nordhemisphärischen Tropen (etwa 20° N). In diesen Gebieten kann über Land bis zu 70 % der theoretisch möglichen Strahlung bis zum Erdboden vordringen (über Ozeanflächen bis zu 55 %). • In den inneren Tropen (Äquatorialzone, bis etwa 10° N und S) ergibt sich ein relatives Minimum der Globalstrahlung, welches diesmal über Land stärker ausgeprägt ist (bis zu 40 % der ankommenden Strahlung) als über den äquatorialen Wasserflächen (bis zu 48 % Strahlungsanteil). • Die größte Strahlungsreduktion der Globalstrahlung findet ab 60° N und S statt. Aufgrund der breitenabhängigen Strahlungsunterschiede wird das Energiegefälle zwischen Polar- und Tropenregion auf beiden Hemisphären verschärft und es entstehen Regionen größter Nord-Süd-Unterschiede zwischen 35° und 45° sowie zwischen 50° und 60° geographischer Breite.
2 Basiswissen und Grundgesetze der Klimatologie
Dezember <15 15–70 70–150 150–210
<210
Juni <150 150–210 <210 150–210
150–210 70–150 15–70 <15
>320 W/m2
265–320 W/m2
210–265 W/m2
2.4 Monatsmittel der Globalstrahlung im Juni und Dezember (Zahlenwerte in W/m2).
Diese Regionen haben erheblichen steuernden Einfluss auf die allgemeine atmosphärische Zirkulation. Die Ausführungen zeigen, wie wichtig die Betrachtung des globalen und regionalen Strahlungsumsatzes (Strahlungshaushalt) an der Erdoberfläche und den unterschiedlichen Oberflächen- oder Bedeckungstypen (Wüste, Ackerland, Waldflächen, Schnee- und Eisflächen usw.) für unser Erdsystem ist. Albedo bezeichnet das relative Rückstreuvermögen oder Reflexionsvermögen der Erde, ausgedrückt in Prozent. Die planetare Albedo beschreibt den Gesamtreflexionsanteil der Erde. Sie fasst die Rückstreuung an Atmosphärenteilchen und die Bodenalbedo, also das Reflexionsvermögen der unterschiedlichen Erdoberflächen zusammen. Die globale Bodenalbedo variiert zwischen 7 % und 12 %. Die Variation basiert auf dem unterschiedlichen Rückstreuverhalten von Oberflächeneinheiten sowie dem herrschenden Sonnenstand. In Tabelle 2.3 sind
81
2.5 Die Globalstrahlung
30%
solare Einstrahlung/ 1/4 der Solarkonstante S0=342 W/m2 = „100%“
planetare Albedo 4%
Absorption in der Atmosphäre
Stratosphäre
Oberflächeneinheit
Albedo (α in % der Globalstrahlung)
Wasser: Wärmezufuhr zur Atmosphäre (19%)
Troposphäre
Tabelle 2.3 Albedowerte wichtiger Erdoberflächeneinheiten
15% 6% Streuung an Luftmolekülen 10%
Einfallswinkel Sonnenstrahlung 40–50°
7–10
Einfallswinkel Sonnenstrahlung um 20°
20–25
Schnee:
20% Streuung an Dunst u. Wolken 30%
15%
10% Globalstrahlung
frischer Neuschnee
75–95
alter Schnee
40–70
See-Eis:
30–40
55% Reflexion an der Erdoberfläche Absorption an der Erdoberfläche 51% (174 W/m2)
4%
Wärmeabgabe (51%) der Erdoberfläche
Sandflächen: trocken
35–40
feucht
20–30
Böden: 2.5 Globales Strahlungsbudget im System Atmosphäre – Erdoberfläche (gerundete Werte mit einer Unsicherheit von ± 2%). Die solare Einstrahlung am Außenrand der Atmosphäre beträgt 342 W/m2 = 100%. Die planetare Albedo der Erde beträgt rund 30 % der solaren Einstrahlung. 20% der einfallenden Strahlung werden von der Atmosphäre (insbesondere im Bereich der Troposphäre und Stratosphäre) absorbiert und rund 50% der einfallenden Strahlung vom Erdboden. Die in der Atmosphäre absorbierte Strahlung führt zu einer erheblichen Wärmezufuhr (19 %) in die Atmosphäre.
die wichtigsten Albedowerte für unterschiedliche Oberflächeneinheiten aufgelistet. Die Oberflächenbeschaffenheit (z. B. strukturiert – rau oder glatt, feucht oder trocken, hell oder dunkel, grob- oder feinkörnig) beeinflusst die spezifische Albedo. Relativ glatte Oberflächen wie Wasser, Schnee oder Sand besitzen einen hohen Anteil gerichteter Reflexion und sind deshalb stark vom Einfallswinkel der Sonnenstrahlung abhängig. Die Albedo ist somit ein wichtiger Klimafaktor und unterliegt zudem starken Veränderungen durch anthropogene Einflüsse (Rodung von Waldflächen, Landnutzungsänderungen, Urbanisierung).
Braunerden
10–20
Tonböden (grau) trocken feucht
20–35 10–20
Vegetationseinheiten: Grasflächent
10–20
Getreideflächen
15–25
Nadelwald
5–15
Laubwald
10–20
Tundra
15–20
schneebedeckte Tundra
70–80
Savanne/Steppe
15–20
Wüste
25–30
Anthropogene Flächen: Beton
17–27
Asphalt
5–10
Wolken in der Athmosphäre: Stratuswolken
40–60
Cumuluswolken
70–90
82
2.6 Wärmehaushalt der Atmosphäre: fühlbarer und latenter Wärmestrom Die solare Einstrahlung an der Erdoberfläche beträgt im globalen Mittel rund 174 W/m2, das entspricht etwa 51 % der solaren Gesamteinstrahlung (Abbildung 2.5 und 2.6). Es verbleibt der Erdoberfläche nach Abzug des Nettostrahlungsverlusts im terrestrischen Strahlungsbereich (72 W/m2) ein globaler Überschuss („Strahlungsbilanz“) von etwa 102 W/m2. Dieser Wert entspricht rund 30 % der Solarkonstanten. Die globale Strahlungsbilanz der Erdoberfläche (Gesamtstrahlungsbilanz Erde = QErde) ist natürlich lokal beziehungsweise regional von der geographischen Breite und der jeweiligen Bodenalbedo in dieser Region abhängig. Der Strahlungsbilanzüberschuss der Erdoberfläche muss der Atmosphäre durch nichtradiative Prozesse wieder zugeführt werden. Ebenso ist eine gegebenenfalls negative Strahlungsbilanz (z. B. im Winter der Polarregionen) durch Wärmeabgabe aus der Atmosphäre auszugleichen. Im Wesentlichen gibt es zwei direkte Mechanismen, um den Strahlungshaushalt auszugleichen:
• Energietransport in Form von Wasserdampf, sogenannter latenter Wärme: Verdunstung von Wasser, welches dann in der Atmosphäre wieder kondensiert und seine „Kondensationswärme“ (Verdampfungswärme) an die Atmosphäre abgibt • Energietransport in Form unmittelbarer Wärmeabgabe an die Atmosphäre durch Wärmeleitung an der Erdoberfläche, die sogenannte fühlbare Wärme Latente und fühlbare Wärme sind über dem Land annähernd gleich groß. Über dem Meer und anderen großen Wasserflächen hingegen überwiegt die Verdunstung in der Funktion des Energietransports. Bilanziert man das Verhältnis von latenter zu fühlbarer Wärme, so entspricht der latente Wärmestrom von der Erdoberfläche (Ozeanflächen eingeschlossen) zur Atmosphäre im globalen Mittel etwa 70–90 W/m2, der fühlbare Wärmestrom im globalen Mittel nur etwa 30 –40 W/m2. Über den Ozeanen der Erde werden
2 Basiswissen und Grundgesetze der Klimatologie
thermische Abstrahlung 70%
planetare solare Einstrahlung Albedo 30% 100% (342 W/m2) 6% Absorption 19%
19%
49%
26% Streuung Reflexion Globalstrahlung 55%
Wärme- latente leitung Wärme 7% 23% 4%
Bodenabsorption 51%
21%
64% thermische Absorption u. Emission Gegenstrahlung
thermische Absorption Strahlung 88% 109%
2.6 Strahlungs- und Energieflüsse im System Erdoberfläche – Atmosphäre; linke Seite: solarer Energiefluss, rechte Seite: terrestrisch-thermische Flüsse.
85 % von QErde durch Verdunstung und nur 15 % durch unmittelbare Wärmeabgabe an die Atmosphäre ausgeglichen. Dem globalen Mittelwert für den latenten Wärmefluss von 70–90 W/m2 entspricht eine mittlere globale Verdunstungsrate von 800–1000 mm pro Jahr. In Abbildung 2.6 sind die Strahlungs- und Energieflüsse im System Erdoberfläche – Atmosphäre zusammenfassend dargestellt. Da die geothermische Energie der Erde (die Wärmeflussdichte der Erde) nur 0,06 W/m2 entspricht und somit für die Bilanz der Erdoberfläche gegenüber der Atmosphäre kaum Bedeutung hat, soll die herausragende Rolle des Wasserdampftransports für den Energieausgleich zwischen den unterschiedlichen geographischen Breiten bereits an dieser Stelle betont werden. Global gemittelt wird das Äquivalent zu QErde durch die oben genannten Flüsse der Atmosphäre wieder zugeführt. Dies entspricht etwa 102 W/ m2 oder 30 % der Solarkonstanten. Die Atmosphäre erhält dazu noch zusätzlich die Energie, die durch sie selbst absorbiert wurde, nämlich etwa 19 % der Solarkonstanten oder 65 W/m2 sowie den Teil der thermischen Abstrahlung, der nach Abzug der atmosphärischen Gegenstrahlung der Atmosphäre (überwiegend durch Wolken) verbleibt. Insgesamt ergeben die aufge-
83
2.6 Wärmehaushalt der Atmosphäre: fühlbarer und latenter Wärmestrom
¥1015 W 8 gesamt 6 Atmosphäre polwärts
4 latent Ozean
2
fühlbar äquatorwärts
zeigten Flüsse eine Energieabgabe an die Atmosphäre in Höhe von 70 % der Solarkonstanten. Die Solarkonstante beträgt 1 368 W/m2. Auf die gesamte Erdoberfläche bezogen ergibt sich eine mittlere Bestrahlungsstärke von einem Viertel des Wertes der Solarkonstanten, nämlich 342 W/ m2. Dies bedeutet, dass die Erde zum Ausgleich der Gesamtbilanz (Abbildung 2.6) diese Energie (rund 240 W/m2) als thermische Strahlung in den Weltraum emittieren muss. Eine Abstrahlung von 240 W/m2 entspricht gemäß StefanBoltzmann-Gesetz einer mittleren Strahlungstemperatur von –18 °C. Diese mittlere Strahlungstemperatur resultiert aus dem genannten Energieüberschuss von 240 W/m2 und entspricht einer mittleren globalen Lufttemperatur in 6 km Höhe. Vergleicht man diese ohne Treibhauseffekt berechnete Temperatur von –18 °C mit der mittleren globalen Oberflächentemperatur von +15 °C, so erhält man einen natürlichen Treibhauseffekt von 15–(–18)=33 K. Die Gesamtstrahlungsbilanz Q des Systems Erdoberfläche – Atmosphäre muss zwar global ausgeglichen sein, seine lokalen und regionalen Werte hängen aber erheblich von der geographischen Breite, der Tages- und Jahreszeit sowie weiteren meteorologischen Bedingungen ab. Abbildung 2.7 zeigt die Breitenabhängigkeit von Q und unterscheidet die latenten und fühlbaren meridionalen Wärmeflüsse. Aus den dargestellten Energiebilanzen resultiert im Prinzip die Wärme- beziehungsweise Temperaturverteilung der Erdoberfläche und der bodennahen Luftschichten. Allerdings erfährt die tatsächliche Verteilung der bodennahen Lufttemperaturen durch vielfältige Wechselwirkungen eine starke regionale Differenzierung. Abbildung 2.8 skizziert zunächst die räumliche Verteilung der regionalen Temperaturen für die Monate Januar und Juli im langjährigen Mittel. Wie zu erwarten, sind die höchsten Sommertemperaturen etwa in 20° bis 30° geographischer Breite über den Kontinenten zu finden. In dieser Zone wirken maximale Einstrahlung, relative Trockenheit und Kontinentalität zusammen. Gleiches gilt für die niedrigsten Temperaturen, die im Inneren der Kontinente zu finden sind, wo ebenfalls Trockenheit mit einem extremen Kontinentaleffekt zusammenfällt. Extreme Wintertemperaturen finden sich in Nordost-Sibirien mit Januarwerten < –50 °C. Bemerkenswert ist das Ausschwingen
0
–2 0°
30° geographische Breite
60°
90°
2.7 Meridionale Energieflüsse: Gesamter Energiefluss, Energiefluss Atmosphäre und Ozeane, latenter und fühlbarer Energiefluss. Die positiven Werte zeigen einen polwärts gerichteten Wärmetransport an, die negativen Werte stehen für einen äquatorwärts gerichteten Wärmetransport. Insgesamt existiert ein Energiefluss von den wärmeren Gebieten zu den kälteren Regionen. Ausgehend vom Äquator, wo der Energietransport im Jahresmittel nahezu Null ist, steigt der Energietransport in Richtung Pole schnell an und erreicht zwischen 30° und 40° geographischer Breite ein Maximum. Das Maximum des atmosphärischen Energietransports verschiebt sich bis in Breiten von 40° bis 50°. Der ozeanische Wärmetransport hingegen wirkt zwischen 20° und 30° Breite am stärksten und sinkt dann zu höheren und niederen Breiten wieder ab. Trotzdem ist der ozeanische Wärmetransport bis weit hinein in die höheren Breiten aufgrund der großen Wärmekapazität der Ozeane von großer Bedeutung. Bemerkenswert ist noch die Umkehrung der Flussrichtung der latenten Wärme in Äquatornähe, die durch die Wirkung der Passatströmung zustande kommt und in Abschnitt 2.10 besprochen wird.
der 0 °C-Isotherme über dem Nordatlantik. Selbst im nordhemisphärischen Hochwinter reicht die 0 °C-Isotherme noch bis zum Polarkreis (66° nördl. Breite), während im Übergangsbereich Nordatlantik – europäisch-asiatischer Kontinent diese Isotherme fast schlagartig um 2 500 bis 3 000 km nach Süden auf etwa 45° nördlicher Breite zurückfällt. Dies dokumentiert den enormen ganzjährigen Wärmetransport des Atlantiks durch nördlich gerichtete Meeresströmungen.
84
2 Basiswissen und Grundgesetze der Klimatologie
Der Kältepol in Sibirien (dunkle Fläche in Abbildung 2.8) liegt etwa auf der gleichen geographischen Breite wie die 0 °C-Januarisotherme über dem Nordatlantik. Dies führt zu großen zonalen Temperaturgradienten über der Nordhemisphäre. Der große Unterschied zwischen Sommer- und Wintertemperaturen auf der Nordhalbkugel im Vergleich zur Südhalbkugel ist eine Folge des größeren Landmasseanteils auf der Nordhalbkugel. Die größere verfügbare Wärmekapazität der Ozeanflächen auf der Südhalbkugel wirkt ausgleichend auf die Temperaturschwankungen der südlichen Hemisphäre. Starke Kontinentalität ist hier besonders südlich des 70. Breitengrades im Bereich der Antarktis zu finden. Für die allgemeine atmosphärische Zirkulation sind allerdings weniger die absoluten Temperaturwerte, sondern stärker die meridionalen Temperaturgradienten von Interesse. Ab dem 30. Breitengrad polwärts betrachtet, ergeben sich
Juli 0°
0°
10° 10° 20°
20°
20°
20°
10°
10° 0° –10° –20° –30°
–40° –60°
–50°
0° –10° –20° –40° –30°
30°
Januar –30° –20° –10° 0°
–40° –30° –20° –10° 0° 10°
10° 20°
20°
20°
20° 10°
10° 0°
0°
–10° –20°
–20° –10° –50°
30°
2.8 Regionale Temperaturverteilung der bodennahen Luftschicht im Januar und Juli (verändert nach Blüthgen und Weischet 1980). Alle Temperaturangaben sind auf Meereshöhe umgerechnet.
meridionale Temperaturgradienten von 5 ° bis 6 °C pro 1 000 km Meridionaldistanz. Auf der Nordhalbkugel finden sich im Sommer Gradienten von 3 ° bis 6 °C beziehungsweise im Winter von 6 ° bis 10 °C auf 1 000 km Distanz. Die Auswirkungen dieser Gradienten werden uns bei der Betrachtung der atmosphärischen Dynamik noch weiter beschäftigen.
2.7 Der natürliche Treibhauseffekt und seine strahlungsaktiven Gase Der natürliche Treibhauseffekt der Erde beziffert sich auf 33 K und hängt ursächlich mit der Existenz sogenannter strahlungsaktiver Gase zusammen. Die Physik des Treibhauseffekts ist gut verstanden und lässt sich mithilfe fundamentaler Gesetze der Physik nachvollziehen. Das StefanBoltzmann-Gesetz verdeutlicht die starke Abhängigkeit zwischen der spezifischen Ausstrahlung eines idealen schwarzen Körpers und dessen Temperatur. Danach strahlt der schwarze Körper Wärmestrahlung ab, deren Intensität von seiner Temperatur (T) abhängt und proportional zu deren vierter Potenz ist. Zur Ableitung einer Beziehung zwischen T4 und einer bestimmten abgestrahlten Intensität in W/m2 bedarf es einer Konstante mit der Einheit (W/m2K4). Diese Konstante wird Stefan-Boltzmann-Konstante (σ = 5,67 × 10–8) genannt und ist ebenso fundamental wie die Lichtgeschwindigkeit. Mit dem StefanBoltzmann-Gesetz kann nun die Wärmestrahlung unterschiedlicher schwarzer Oberflächen berechnet werden. Die Gleichgewichtstemperatur zu einer Abstrahlung von 240 W/m2 entspricht –18 °C. Ohne den natürlichen Treibhauseffekt in Form strahlungsaktiver Gase (z. B. H2O, CO2, O3, CH4) würde Leben auf der Erde unmöglich sein, da dieses auf dem Vorhandensein von flüssigem Wasser basiert. Große Bereiche der Erde würden ohne den natürlichen Treibhauseffekt in Eis und Schnee erstarren, mit einer Erdalbedo von rund 60 % und einer daraus folgenden Abstrahlung von Q (10060)/4 = 136,8 W/m2 (mit Q/4 = 342 W/m2). Gemäß Tabelle 2.4 würde dies die Erdoberflächentemperatur auf –52 °C oder darunter absenken.
2.7 Der natürliche Treibhauseffekt und seine strahlungsaktiven Gase
In der Evolutionsgeschichte unserer Erde ist dies aber nicht geschehen, da eine vor Jahrmilliarden wesentlich höhere CO2-Konzentration zu einem höheren Treibhauseffekt führte und dadurch die schwache Sonnenintensität kompensierte. Mit zunehmender Sonnenaktivität entwickelten sich zuerst Einzeller im Meer und danach Mehrzeller und Landpflanzen, die durch ihre Fotosyntheseleistung atmosphärisches CO2 abbauten und gleichzeitig die Atmosphäre mit dem treibhausneutraleren Sauerstoff (O2) anreicherten. Der zunächst stärkere Treibhauseffekt der Uratmosphäre wurde dadurch sukzessive verringert, sodass für die folgende biologische Evolution ein günstiger Temperaturbereich von 20–26 °C über die letzten 600 Millionen Jahre vorherrschte. Die ersten Pflanzen dürften vor etwa 475 Millionen Jahren (Datierungen schwanken zwischen 500 und 440 Millionen Jahre) das Land erobert haben, nachdem sich genügend Sauerstoff angereichert hatte und dieser durch fotolytische Spaltung einen ersten dünnen Ozonschirm bildete, der die Pflanzen vor zu harter Ultraviolettstrahlung schützte. Während der überwiegenden Phase des Phanerozoikums, dürfte die mittlere Globaltemperatur um +25 °C gelegen haben, was einem wesentlich höheren CO2-Gehalt der ErdTabelle 2.4 Schwarzkörperstrahlung nach dem Stefan-Boltzmann-Gesetz (σ T4) für verschiedene Temperaturen T in °C
T in K
Emission in W/m2
–273,16
0
0
50,0
223,16
141
20,0
253,16
233
18,0
255,16
240
10,0
263,16
272
0
273,16
316
+10,0
283,16
365
+15,0
288,16
389
+20,0
293,16
419
+60,0
333,16
699
90,0
363,16
986
85
atmosphäre im Vergleich zur heutigen Zeit entspräche. Der Begriff Phanerozoikum ist ein biostratigrafischer Gliederungsbegriff und kann in etwa mit „Zeitalter des sichtbaren Lebens“ übersetzt werden. Er umfasst die drei Zeitphasen Paläozoikum, Mesozoikum und Känozoikum. Die Entstehung des Begriffs Phanerozoikum ist darin begründet, dass ab dem Kambrium – der untersten (=frühesten) Periode des Paläozoikums – erstmals in großer Anzahl makroskopisch sichtbare Fossilreste auftreten.
Durch die biologische Evolution und die damit verbundenen atmosphärischen Rückkoppelungen (Fotosynthese) hat sich die Erdoberflächentemperatur bis heute auf +15 °C reduziert. Durch die Anreicherung zusätzlicher menschlicher Treibhausgase in der Atmosphäre wird das bestehende Treibhaus „perfekter“, das heißt, die Wärmestrahlung kann schlechter in den Weltraum entweichen und die Temperatur steigt. Dieser Mechanismus wird in ▶ Teil II „Klimawandel und Global Change“ wieder aufgegriffen. Wie bereits in ▶ Abschnitt 2.4 besprochen, wird der Wärmehaushalt innerhalb der Atmosphäre durch Streuung und selektive Absorptionsprozesse bestimmt. Die Absorptionsprozesse führen zur Bildung von Wärme, welche vereinfacht nichts anderes als Bewegungsenergie von Atomen und Molekülen ist. Die elektromagnetische Strahlung der Sonne kann aber nur asymmetrische Moleküle anregen. Die symmetrischen Moleküle und Hauptkomponenten der Atmosphäre Stickstoff (N2) und Sauerstoff (O2) absorbieren keine Strahlung. Die Hauptabsorptionsleistung wird von den asymmetrischen Spurengasen Wasserdampf (H2O), Kohlendioxid (CO2) und Ozon (O3) geleistet. Andererseits emittieren die asymmetrischen Spurengase infrarote Strahlung nach dem Kirchhoffschen Strahlungsgesetz bei denjenigen Wellenlängen, in denen sie auch absorbieren. Im Wesentlichen sind dies die drei Spektralbereiche:
• unterhalb von 8 μm (Wasserdampf) • zwischen 9 und 10 μm (Ozon) • oberhalb von 13 μm (Kohlendioxid und Wasserdampf) Zwischen diesen wichtigen Absorptionsbanden (8–9 und 10–13 μm) kann die von der Erde ausgehende Wärmestrahlung fast ungehindert (in
86
Abhängigkeit von der Bewölkung) in den Weltraum emittieren. Diese Wellenlängenbereiche werden deshalb auch atmosphärische Fenster genannt und können als „Löcher“ im Treibhaus bezeichnet werden. Diese spektralen Fenster haben auch deshalb große Bedeutung, weil sie sich im solaren Wellenlängenbereich gerade dort befinden, wo die Erde gemäß Strahlungsgesetz am meisten Energie abgibt, nämlich im Bereich von 10 μm. Eine wichtige Rolle spielt hier das Ozon. Ozon absorbiert in einem Spektralbereich, in dem einerseits keine anderen wichtigen Absorptionsbanden liegen und der andererseits nahe am Emissionsmaximum der Erde liegt. Der natürliche Treibhauseffekt unserer Erde ist also ein Evolutionsprodukt und basiert auf dem fragilen Gleichgewicht von Strahlungsströmen und sich daraus ergebenden Energiebilanzen. Bei der Analyse dieses fragilen Gleichgewichts der Strahlungsbilanz fällt zudem die wichtige Rolle der Wolken (beziehungsweise des Wasserdampfes) auf, die sowohl im kurzwelligen als auch im langwelligen Bereich des Strahlungsspektrums wirken. Zurzeit sind Wasserdampf und Wolken zu etwa ⅔ und Kohlendioxid zu etwa ⅓ am Treibhauseffekt beteiligt. Sollen nun Aussagen über die zukünftige Veränderung des natürlichen Treibhauseffekts getroffen werden, so muss man sich auf zwei Hauptprobleme bei der Erstellung von Klimaprojektionen konzentrieren:
• Welche Rolle spielen Art, Höhenlage und Menge der Wolken für den Treibhauseffekt?
• Wie wird sich die Einbringung strahlungsaktiver Gase entwickeln, und wie werden diese gemäß ihrer Rückkoppelungen im Erdoberfläche-Atmosphäre-Ozean-System wirken? Der natürliche Treibhauseffekt ist durch die Veränderung der Struktur und Häufigkeit der Bewölkung sowie durch die Konzentration strahlungsaktiver (= strahlungsabsorbierender, asymmetrischer) Moleküle beeinflussbar. Es gilt also für die Einschätzung einer möglichen Veränderung des natürlichen Treibhauseffekts, die Wirkung aller menschlichen Emissionen hinsichtlich ihrer Strahlungsabsorption zu bewerten. Die wichtigsten, bis jetzt bekannten Treibhausgase sind Kohlendioxid (CO2), Methan (CH4), Fluorchlorkohlenwasserstoffe (FCKW), Ozon (O3) und Lachgas (N2O). Die Reaktion der Atmosphäre auf zusätzliche Treibhausgase sowie deren
2 Basiswissen und Grundgesetze der Klimatologie
Klimawirksamkeit wird in ▶ Teil II behandelt. Im Folgenden wird das Augenmerk auf die Wechselwirkungen und Eigenschaften von Komponenten des Klimasystems gelegt.
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem Unter Klimafaktoren versteht man Prozesse und Zustände, die das Klima einer Region bezüglich seiner Entstehung, Andauer und Variabilität maßgeblich beeinflussen. Zu den primären Klimafaktoren gehören die Sonnenstrahlung (solares Klima), die Meer- und Landverteilung (ozeanisches oder kontinentales Klima) sowie die Reliefsituation (Höhenlage, Ausrichtung von Gebirgen) einer Region. Darüber hinaus müssen die Auswirkungen menschlicher Tätigkeiten auf die Zusammensetzung der Atmosphäre (anthropogene Emissionen) sowie die Veränderung der Landoberflächen (Entwaldung, Landnutzung in Form von Acker- und Weideflächen, Versiegelung) als wesentliche Klimafaktoren hinzugezogen werden. Als sekundärer Klimafaktor ist die allgemeine atmosphärische Zirkulation (▶ Abschnitt 2.10) zu nennen, die insbesondere durch die Advektion von Luftmassen das Verhalten der Klimaelemente an einem Ort entscheidend mitbestimmt. Die Lehre von den Klimafaktoren findet heute ihre Weiterentwicklung in der Klimasystem- beziehungsweise Erdsystemforschung. Klimaelemente hingegen sind meteorologische oder physikalische Größen, die das Klima in einer bestimmten Region kennzeichnen. Zu den Klimaelementen gehören die Sonnenscheindauer, die Lufttemperatur, die Luftfeuchte, der Luftdruck, der Niederschlag sowie die horizontale und vertikale Windkomponente. Aus der Erfassung und statistischen Auswertung der Klimaelemente lässt sich das regionale Klima klassifizieren (Klimaklassifikationen). Zu den Haupteigenschaften der Klimaelemente gehören deren horizontale und vertikale Veränderlichkeit sowie deren Variationen bezüglich zeitlicher Perioden (Tages-, Jahresgang). Angaben zum regionalen Verhalten der Klimaelemente werden in Klimaklassifikationen festgehalten. Von ökologischer Bedeutung sind
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
ferner zusammengesetzte und speziellere Klimaelemente wie potenzielle und aktuelle Evaporation, Kontinentalitätsgrad, Trockenheitsindex, Bodentemperatur, Wassertemperatur (Sea Surface Temperature, SST) und viele weitere Größen, die zur Analyse des Klimasystems genutzt werden. Das Klimasystem beschreibt das Zusammenwirken der Klimafaktoren und Klimaelemente unter Berücksichtigung vielfältiger Wechselwirkungen und Rückkoppelungen (positive und negative) und ist heute in die Betrachtung eines komplexen Erdsystems eingebettet. Es umfasst alle für die Entstehung, Erhaltung und Variabilität des Klimasystems wichtigen Geosysteme: Lithosphäre, Hydrosphäre, Biosphäre, Kryosphäre und Atmosphäre. Für diese Teilsysteme (Abbildung 2.9) lassen sich jeweils wichtige Funktionen und Prozesse und Wechselwirkungen benennen.
•
•
•
Atmosphäre:
• Strahlungsaktive Spurengase (H2O, CO2, NOx, O3, CH4, FCKW): Ihr Gehalt in der Luft bestimmt die Absorption und Emission im langwelligen Spektralbereich und steuert somit den natürlichen beziehungsweise anthropogen verstärkten Treibhauseffekt. • Aerosole: In Abhängigkeit vom Verhältnis Absorption/Rückstreuung führen die Aerosole in ihrer Klimawirkung zu Erwärmung beziehungsweise Abkühlung. Die Klimawirkung hängt dabei von der Oberflächenalbedo und der Größe des atmosphärischen Aerosols ab. • Wolken in der Atmosphäre: Die Wolken stehen in Wechselwirkung mit kurz- und langwelligen Strahlungsströmen und greifen durch Wolkenbildung und -auflösung aktiv in den Wasserhaushalt ein und führen dabei zur Neuverteilung fühlbarer und latenter Wärme. Darüber hinaus beeinflussen sie durch ihre Albedo, ihren Absorptionsgrad und Transmission der Sonnenstrahlung in den Strahlungshaushalt ein, wobei die wichtige Rückstrahlung der Infrarotstrahlung von der Erdoberfläche vom Wassergehalt der Wolken abhängig ist. Ozeane (Sondergutachten des Wissenschaftlichen Beirats der Bundesregierung Globale Umweltänderungen (WBGU) „Die Zukunft der Meere – zu warm, zu hoch, zu sauer“):
• Globaler Wärmespeicher: Die Meeresflächen weisen eine verzögerte Erwärmung und Ab-
•
•
87
kühlung auf, was in der Nähe von Meeresflächen ein maritimes Klima zur Folge hat. Die Ozeane als Wärmespeicher sind dabei begrenzt auf eine Warmwassersphäre, deren Grenze zur Kaltwassersphäre bei einer ozeanischen Oberflächentemperatur (SST) von 8–10 °C in 50–60° geographischer Breite liegt. Globaler Wasseraustausch: Die Ozeane steuern durch Verdunstung vor allem in den subtropischen Regionen den globalen Wasseraustausch auf der Erde. Austausch von Substanzen: Die Ozeane sind die bedeutendste Senke für Luftverunreinigungen, und es besteht ein wechselseitiger Übergang von Aerosol in Hydrosol. Andererseits kommt es durch die Verdunstung zur Einlagerung von Meersalz in die Atmosphäre (zyklisches Salz). Gasaustausch Ozeane – Atmosphäre: Die Ozeane speichern etwa 38 000 Gigatonnen Kohlenstoff (Gt C). Damit speichern sie an CO2 zurzeit 50-mal mehr als die Atmosphäre und 20-mal mehr als die terrestrischen Systeme (Biosphäre und Pedosphäre). Die Ozeane sind daher langfristig die wichtigste CO2-Senke. Angetrieben durch die Partialdruckdifferenz des CO2 zwischen der Atmosphäre und dem Meer wird ein Teil des anthropogenen CO2 in das Oberflächenwasser der Ozeane eingebracht. Die CO2-Löslichkeit hängt dabei von Temperatur und Druck ab (bei steigender T sinkt die CO2Löslichkeit, bei steigendem Druck erhöht sich die CO2-Löslichkeit). Weitere wichtige Prozesse sind die Bildung von (Hydrogen-)Carbonat, die Aufnahme von CO2 durch Organismen sowie die Remineralisierung in der Tiefe der Ozeane. Wärmetransport: Das Maximum des Wärmetransports liegt zwischen Subtropen und mittleren Breiten. Es bilden sich zum einen thermohaline Strömungskomponenten (oceanic conveyor belt), küstennahe Auftriebsprozesse (upwelling) sowie kalte Ostrandströmungen entlang der Kontinente. Tropische Wirbelstürme: Die regional unterschiedlich benannten Wirbelstürme (Hurrikane, Zyklone) entstehen in Meeresgebieten mit maximaler SST (meist > 28,5 °C). Zu beiden Seiten des Äquators, etwa bis 5° Breite, gibt es ein orkanfreies Gebiet. Das ist darauf zurückzuführen, dass die Coriolis-Kraft in Äquatornähe zu gering ist, um Wirbelbewegungen auszulösen. Die Zugbahnen der Wir-
88
belstürme folgen den Gebieten maximaler Wassertemperatur und führen in den betroffenen Gebieten durch hohe Strömungswerte fühlbarer und latenter Wärme zu einem starken Wärmeentzug. Das Subsystem Lithosphäre mit seinen Landoberflächen und der Biosphäre beinhaltet zusammengefasst folgende Funktionen:
• Relief: Die Oberflächengestalt und die hypsometrische Erstreckung stellen in Form von Hochgebirgen Strömungshindernisse dar. Die Folge sind klare Luv- (Anströmungsbereich) und Lee-Bedingungen (Windschatten), wobei es im Lee zur Bildung quasistationärer Tröge (z. B. Kaltlufttropen) kommen kann. Dadurch wird ein effektiver meridionaler Impuls-, Wärme- und Wasserdampftransport initiiert. Die generelle Oberflächenrauhigkeit hat Einfluss auf den Impulsaustausch (Dissipation, das heißt Vernichtung der kinetischen Energie der Atmosphäre). • Böden: Bodentyp und Bodenart beeinflussen die Albedo. Böden ohne Bewuchs erfahren die Strahlungsabsorption direkt an der Bodenoberfläche. Eingeschränkte Bodenwasserverhältnisse führen zu einem ineffektiven Bodenwärmefluss, sodass über Böden der fühlbare Wärmestrom größer ist als der latente Wärmestrom. • Vegetation: Die Vegetation hat zunächst einen wärmeisolierenden Effekt auf die Böden. Der Bodenwärmestrom und fühlbare Wärmetransport werden verringert. Die Summe aus Pflanzenverdunstung (Transpiration) und Bodenverdunstung (Evaporation) bildet die Evapotranspiration. Albedo und Strahlungsbilanz bewachsener Flächen hängen von der Helligkeit und Farbe der Pflanzen ab. • Biogeochemische Stoffkreisläufe: Zwischen Boden, Vegetation und Atmosphäre finden zahlreiche biogeochemische Stoffverlagerungen statt. Von den bis jetzt bekannten Kreisläufen ist besonders der Kohlenstoffkreislauf, die O2Freisetzung (Fotosyntheseprozess) sowie die NOx-Emission und NOx-Bindung zu nennen. Die Kryosphäre umfasst die globalen Eismassen und Schneeablagerungen in Form von kontinentalen Eisschilden, der Schneedecke, des Meereises, der Gebirgsgletscher und des unterirdischen Eises (Permafrost) und ist ein weiteres wesentli-
2 Basiswissen und Grundgesetze der Klimatologie
ches Subsystem, welches durch seine Komponenten unterschiedlich auf das Klimasystem wirkt:
• Meereis: Zunächst kommt es zu großen Umsätzen latenter Wärmemengen beim Gefrieren und Schmelzen. Bei Meerwasser liegt die Temperatur des Dichtemaximums in Abhängigkeit vom Salzgehalt unterhalb des Gefrierpunkts. Der Abkühlungseffekt beim Gefrieren von Wasser führt zur thermischen Konvektion und somit zur Bildung von Tiefenwasser. Eisbildung und Eisschmelze verursachen Salzgehaltsschwankungen im Oberflächenwasser der Ozeane und bewirken somit eine Verstärkung beziehungsweise Abschwächung der thermohalinen Zirkulation. Die Eisbildung kann weiterhin den Austausch von Strahlungs- und Wärmeenergie zwischen Meer und Atmosphäre modifizieren. • Gebirgsgletscher: Diese Gletscher haben relativ geringe Bedeutung für das globale Klima, sind aber ihrerseits empfindliche Klimaindikatoren. • Eisschilde (Inlandeis): Die größten Eisschilde sind das antarktische und das grönländische Inlandeis, die zurzeit über 96 % der gesamten vergletscherten Fläche der Erde bedecken. Eisschilde besitzen eine hohe Albedo und sind deshalb eine enorme Wärmesenke. Im Umfeld kommt es zur Eisbildung (z. B. Eisberge). Eisschilde binden die größten Süßwasservorkommen der Erde und sind daher potenziell für mögliche Meeresspiegelschwankungen verantwortlich. • Permafrostböden: Die Dauerfrostböden reagieren sehr langsam auf Veränderungen des Klimas und wirken durch das Verhindern einer Grundwasserneubildung und Grundwasserbewegung in den Permafrostregionen auf das Klimasystem zurück (Permafrost tritt unter den heutigen Klimabedingungen im Wesentlichen nur in den höheren geographischen Breiten auf). Auch wird in diesen Regionen das Pflanzenwachstum behindert und der Oberflächenabfluss verstärkt. 2.9 Das Klimasystem als Teil komplexer Erdsystemforschung – Verknüpfung und Prozesse der einzelnen Geosysteme. ( Farbtafel)
Die einzelnen Geosysteme stehen miteinander in Wechselwirkung und weisen Rückkoppelungen (feedback) auf, wobei positive Rückkoppelungen selbstverstärkend und negative Rückkoppelun-
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
gen selbstregulierend wirken. Auf äußere Störungen reagieren die einzelnen Komponenten des Systems durchaus unterschiedlich, was auf das nicht-lineare Verhalten des Gesamtsystems hinweist. Wechselwirkungen zwischen den unterschiedlichen Subsystemen ereignen sich auf unterschiedlichen Zeitskalen und können durch Störungen (positive Rückkoppelungen) verstärken werden. Negative Rückkoppelungen können diese Störungen wieder ausgleichen und erwirken dadurch die relative Stabilität des Klimasystems. Beispiel positiver Rückkoppelung als Initialstörung ist eine „Temperaturabnahme“, welche zum Beispiel Schneefall erzeugt und somit zu weiterer Abkühlung führt. In der Wissenschaft ist die Rückkoppelung als „Schnee-Eis-AlbedoRückkoppelung“ bekannt, da sich dadurch nicht nur anfänglich die Temperatur erniedrigt, sondern auch eine Albedoveränderung einhergeht, die wiederum zur Temperaturabnahme durch vermehrte Rückstrahlung führt. Ist die Initialstörung anderseits eine „Temperaturzunahme“ oder Erwärmung, so führt dies durch steigende Verdunstung zur Erhöhung des Wasserdampfgehaltes in der Atmosphäre, dies zur Verstärkung des Treibhauseffektes durch Wasserdampf und zunehmender Absorption von Sonnenstrahlung, was wiederum zu weiterer Erwärmung führt. Eine negative Rückkoppelung ist zunächst durch den Anstieg der ozeanischen Oberflächentemperatur (SST) gegeben, welche den Wärmestrom zwischen Meer und Atmosphäre triggert und somit zu vermehrter Wolkenbildung über den Ozeanen führt. Die Verstärkung der Bewölkung führt dann allerdings zur Abnahme der Einstrahlung an der Meeresoberfläche und somit wieder zur Abkühlung beziehungsweise Ausgleich der anfänglichen Temperaturentwicklung. Aber gerade im Zusammenhang mit der Wolkenbildung, deren Wechselwirkung mit kurz- und langwelligen Strahlungsströmen, der Strahlungsbilanz und der Neuverteilung von fühlbarer und latenter Wärme über der Erde treten äußerst komplexe Wechselwirkungen auf, deren komplizierte Verkettung heute noch nicht vollends verstanden ist. Dies führt heute zu zahlreichen noch unverstandenen Eigenschaften des Klimasystems sowie der inhärenten Wechselwirkungen. Eine weitere wichtige Rolle spielen hier auch die Telekonnektionen oder Fernwirkungen, die später im ▶ Ab-
89
schnitt 2.10 der allgemeinen atmosphärischen Zirkulation erklärt wird. Das hochkomplexe Klimasystem ist durch räumliche, zeitliche sowie funktionale Wechselwirkungsprozesse gekennzeichnet, die innerhalb und zwischen seinen Komponenten ablaufen. Für den Erhalt dieser Prozesse und Strukturen ist der Entropieaustausch zwischen den Subsystemen entscheidend. Im Jahr 1865 entdeckte der deutsche Physiker Rudolf Clausius, dass ein System (z. B. ein Gas in einem Gefäß) im thermodynamischen Gleichgewicht neben der Temperatur noch eine andere Zustandsgröße besitzt, die er Entropie nannte. Die Entropie ist eine thermodynamische Größe, mit der Wärmeübertragungen und irreversible Vorgänge in thermodynamischen Prozessen rechnerisch erfasst und anschaulich dargestellt werden können. Im Gegensatz zur Temperatur ist diese Größe extensiv, dass heißt proportional zum Ausmaß des Systems. Jedem Zustand eines thermodynamischen Systems kann ein Entropiewert zugeordnet werden. Das Klimasystem, welches als solches nicht im Gleichgewicht ist, aber aus Subsystemen besteht, die jeweils für sich in einem Quasi-Gleichgewicht sind, wird durch die Summe aller Entropien dieser Subsysteme definiert. Jedem Zustand eines thermodynamischen Systems kann ein Entropiewert zugeordnet werden. Nach dem amerikanischen Meteorologen Edward Lorenz lassen sich zwei grundsätzliche Systemzustände für das Klimasystem unterscheiden: Transitivität und Intransitivität. Ein System wird als transitiv bezeichnet, wenn es nach unterschiedlichen Anfangszuständen zu ein und demselben Systemgleichgewichtszustand zurückfindet. Bestehen mehrere Gleichgewichtszustände und unterschiedliche Anfangszustände, die zu dem einen oder anderen Systemzustand führen, so wird das System intransitiv genannt. Das Klimasystem der Erde kann somit als nahezu intransitiv bezeichnet werden, denn es können mehrere quasistabile Klimazustände (z. B. stabile Warmphase seit dem Präkambrium) sowie Unterbrechungen (z. B. verschiedene Eiszeiten – intransitive Phasen) eintreten. Der Übergang zu einem neuen Zustand (intransitive Phase) kann teilweise „sprunghaft“ geschehen, wie Forschungsergebnisse der Paläoklimatologie belegen. Die Betrachtung sogenannter Kippelemente (tipping elements) im Klimasystem ist für kli-
90
mapolitische Fragen (▶ Teil III) von besonderer Bedeutung. Menschliche Aktivitäten könnten das Klimasystem über seine kritischen Grenzen hinaus belasten, sodass wichtige Prozesse im Gesamtsystem „kippen“ und ab diesem Kipppunkt (tipping point) grundsätzlich ganz anders ablaufen. Neuere Forschungsergebnisse warnen, dass die aus Klimamodellen abgeleiteten Projektionen die Gesellschaft in einem falschen Gefühl von Sicherheit wiegen könnten, da sie lediglich auf höhere Temperaturen hinweisen, ohne die Möglichkeit von Kippereignissen zu berücksichtigen. Kippelemente hoher Ereigniswahrscheinlichkeit könnten sich für den grönländischen Eisschild und das arktische Meereis ereignen. Der arktische Eisbär hat seinen tipping point vielleicht schon erreicht. Die Betrachtung von Kippelementen wird uns in ▶ Teil II „Klimawandel und Global Change“ weiter beschäftigen.
Clausius, Rudolf Julius Emanuel (1822–1888), deutscher Physiker; Beiträge zur mechanischen Wärmetheorie; Ausbau der kinetischen Gastheorie; entwickelte die Theorie der Wärmekraftmaschine weiter und verband sie mit dem mechanischen Wärmeäquivalent; erkannte, dass zur Erzeugung mechanischer Arbeit Wärme verbraucht wird; führte 1865 den Begriff Entropie als neue thermodynamische Zustandsgröße ein; präzisierte den Zweiten Hauptsatz der Thermodynamik (Clausius-Prinzip); bekannt auch durch wärmetechnische Untersuchungen (Clausius-Rankine-Prozess, W.J.M. Rankine) der Dampfmaschinen; gab die endgültige Formulierung der Clausius-ClapeyronGleichung.
Lorenz, Edward Norton (1917–2008), amerikanischer Meteorologe; seit 1946 am Massachusetts Insitute of Technology (MIT) beschäftigt; beschrieb in den sechziger Jahren als erster deterministisches Chaos am Beispiel des Wetters; prägte den Ausdruck ›Schmetterlingseffekt‹ (der Flügelschlag eines Schmetterlings in China beeinflusst das Wetter in Amerika); erhielt 1991 den renommierten Kyoto-Preis.
2 Basiswissen und Grundgesetze der Klimatologie
Nachdem wir die Rolle von Klimafaktoren und Klimaelementen sowie die bestehenden Subsysteme innerhalb des Klimasystems erklärt haben, wollen wir uns nun mit der Dynamik der Atmosphäre beschäftigen.
2.8.1 Die Ausdehnung der Luft bei Erwärmung – der Luftdruck Von wenigen Ausnahmen abgesehen (z. B. dem Wasser, das seine größte Dichte bei +4 °C erreicht) dehnen sich Stoffe mit zunehmender Temperatur aus. Die Luft in der Erdatmosphäre verhält sich wie ein ideales Gas und vergrößert bei einer Temperaturerhöhung um 1 °C ihr Volumen um 1/273. In der Atmosphäre ist für eine Ausdehnung der Luft in horizontaler Dimension kein Platz. Deshalb erfolgt die Volumenvergrößerung ausschließlich in vertikaler Richtung. Die Erwärmung einer Luftschicht erwirkt also an der Obergrenze dieser Schicht eine nach oben gerichtete Vertikalverschiebung. Diese Vertikalverschiebung kann nach der Formel Δh = (h × ΔT): 273 berechnet werden (mit Δh als Höhenänderung im Niveau, h in Metern, ΔT als Temperaturänderung in °C in einer Schicht der Dicke h in Metern). Sofern sich der Luftdruck im unteren Niveau nicht ändert, verschiebt sich in der Höhe auch die zugehörige Isobare (Linie gleichen Luftdrucks). Der Luftdruck entspricht in einer bestimmten Höhe h der Gewichtskraft, die die über dieser Höhe befindliche Luft auf eine Einheitsfläche unter der Wirkung der Schwerkraft der Erde ausübt. Er beschreibt das Gewicht einer Luftsäule vom jeweiligen Messpunkt bis zur äußeren Grenze der Atmosphäre. Existiert auf Meeresniveau ein Luftdruck von 1 000 hPa und in 5 500 m ein Druck von 500 hPa, so führt eine Erwärmung von 1 °C zu einer Hebung der 500-hPa-Isobare um 20 Meter. Aus der Definition des Luftdrucks (Schwere der Luftsäule) folgt, dass dieser mit zunehmender Höhe abnimmt, da die Luftsäule mit zunehmender Höhe geringer wird. Der Luftdruck als Funktion der Höhe wird durch die barometrische Höhenformel beschrieben. In die übliche Formel der barometrischen Höhenverteilung des Drucks geht das Gesamtgewicht der Luftsäule ein. Es wird über alle Bestand-
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
teile der Luft integriert. Betrachtet man hingegen einer strengen Boltzmann-Statistik folgend das Gewicht von Einzelmolekülen in der Atmosphäre, so hängen Skalenhöhe und Höhenverteilung der Gase unmittelbar von den Molekülmassen und somit von der Gasart ab. Danach müsste es zu einer Entmischung der Atmosphärenbestandteile kommen. Eine derartige Entmischung wird aber unterhalb einer Atmosphärenschicht von etwa 90 km nicht beobachtet. Daraus kann man schließen, dass für die Mischungs- und Transportvorgänge nicht die molekular-kinetischen Prozesse verantwortlich sind, sondern turbulente Prozesse überwiegen. Die molekulare Entmischung, wie sie die Boltzmann-Statistik fordert, wird erst in Höhen von 90–110 km beobachtet. Deshalb wird die Schicht bis etwa 90 km Höhe Homosphäre und die entmischte Schicht darüber Heterosphäre genannt. Beide Schichten unterscheiden sich insbesondere durch die freien Weglängen von Molekülen zwischen zwei Zusammenstößen. In Bodennähe beträgt die freie Weglänge zwischen Molekülen etwa 0,06 μm, in einer Höhe von 100 km etwa 15 cm und in einer Höhe von 200 km etwa 200 m. Analog zu der höhenabhängigen Ver-
91
änderung des Luftdrucks, findet man auch für das vertikale Temperaturprofil deutliche Gradienten in der Atmosphäre.
2.8.2 Temperaturverteilung in der Atmosphäre Unter den angesprochenen Klimaelementen spielt die Lufttemperatur zusammen mit Niederschlag und Luftdruck die entscheidende Rolle. Die Temperatur ist das Maß für den Wärmezustand der Luft und beschreibt thermodynamisch den Bewegungszustand der Moleküle. Die Einheit der Temperatur-Skala ist gemäß dem Internationalen Einheitensystem (SI) das Kelvin (K). In der Klimatologie ist aber die Verwendung der Celsius-Skala (°C) weit verbreitet, die in Anlehnung an die Aggregatzustände des Wassers abgeleitet wurde. Der Nullpunkt der Celsius-Skala entspricht der Schmelztemperatur des Eises (0°C = Gefrierpunkt). Ein weiterer Fixpunkt der Skala ist der Siedepunkt des Wassers (100°C bei normalem Luftdruck von 1013,25 hPa). Die Ein-
Die barometrische Höhenformel Die physikalische Formel beschreibt den Zusammenhang zwischen Luftdruck und Höhe bei einheitlicher absoluter Temperatur in der Atmosphäre. In einer vertikalen Luftsäule wird die Druckänderung dp betrachtet, welche durch die Schwere eines Säulenelements mit der Höhe dz verursacht wird. Nach der Zustandsgleichung für ideale Gase, die molbezogen p × V = R × T lautet, ergibt sich unter Vernachlässigung der Höhenabhängigkeit der Temperatur die barometrische Höhenformel: p (Luftdruck) = p0 × exp (- M × g / R × T × z) mit p = Luftdruck p0 = Bodendruck M = Molmasse V = Molvolumen g = Schwerebeschleunigung der Erde R = universale Gaskonstante (8 315 Ws/K × Mol) T = absolute Temperatur z = Höhe der Luftsäule
Der Faktor (M × g) / (R × T) beschreibt die Skalenhöhe der Atmosphäre und gibt die Höhe an, mit der der Luftdruck um den Faktor e = 2,71 abnimmt. Die Skalenhöhe der Atmosphäre der Erde beträgt rund 8,4 Kilometer. Das bedeutet, auf der Spitze des Mount Everest ist der Luftdruck nur noch rund ein Drittel so hoch wie auf Meeresniveau. Die Skalenhöhe der Atmosphäre hängt von Temperatur, Dichte und chemischer Zusammensetzung der Atmosphäre ab. Sie bezieht sich nicht nur auf die Atmosphäre als Ganzes, sondern kann auch für einzelne Bestandteile, z. B. Spurenstoffe, verwendet werden, deren Konzentrationen mit der Höhe viel schneller abnehmen. Beispiele durchschnittlicher Skalenhöhe bei 0 °C: Argon molekularer Sauerstoff molekularer Wasserstoff
rund 6 000 m rund 7 500 m rund 120 000 m
92
heiten beider Temperaturskalen sind gleich und lassen sich leicht umrechnen: K = °C + 273,15 und °C = K – 273,15 Neben Strahlungseinflüssen sind folgende Vorgänge für die Temperaturverteilung wichtig:
• Bildung und Wirkung langwelliger Strahlung • horizontaler Austausch (Advektion) • vertikaler Austausch (Konvektion) Alle drei Einflüsse auf die Temperaturausprägung werden durch Unterschiede des Sonnenstands (geographische Breite), Verteilung von Land und Meer, Oberflächengestalt (absolute Höhe und Exposition) sowie durch die weitreichenden anthropogenen Veränderungen der Bodenbedeckung
2 Basiswissen und Grundgesetze der Klimatologie
(Entwaldung und Rodung, Landnutzungsänderungen) wechselhaft beeinflusst. Die Temperatur der Luft nimmt ausgehend vom Boden mit zunehmender Höhe annähernd linear ab. Dies gilt für die Betrachtung der Troposphäre bis zu Höhen von 10–13 km in den höheren und gemäßigten Breiten und bis rund 18 km Höhe in den Tropen. In den mittleren Breiten werden Temperaturminima von –50 °C bis –60 °C in diesen Höhen erreicht, in den Tropen können die Temperaturabnahmen bis –80 °C betragen (Abbildung 2.10). Die Luft, die sich im Kontakt mit der Erdoberfläche aufheizt (Erdoberfläche als Heizfläche), kühlt sich beim weiteren Aufsteigen ab. Generell kann der Temperaturverlauf in der unteren und mittleren Troposphäre durch den
Messung der Temperatur und ihre Skalen Fahrenheit In vielen englischsprachigen Ländern wird die Fahrenheit-Skala (°F) für die Temperaturangabe genutzt. Sie geht auf den deutschen Physiker Gabriel Daniel Fahrenheit zurück. Dieser setzte den Gefrierpunkt bei +32 ° und den Siedepunkt bei +212 ° seiner Skala an, womit sich eine Unterteilung in 180 gleiche Teile ergibt. Als weiteren Fixpunkt setzte er die Körpertemperatur des Menschen mit 100 °F = 37,8 °C an. Einer Temperaturdifferenz von 1 °C entspricht eine Temperaturdifferenz von 9/5 °F. Es gelten folgende Umrechungen: t °F = [5/9 (t-32)] °C oder t °C = [9/5 t + 32] °F Celsius Fixpunkte der heute überwiegend verwendeten 100-teiligen Celsius-Skala (°C) sind die Schmelztemperatur des Eises (0 °C = Gefrierpunkt) und der Siedepunkt des Wassers (100 °C bei normalem Luftdruck von 1013,25 hPa). Diese Skala geht auf den schwedischen Astronomen Anders Celsius zurück. International wird die CelsiusSkala immer stärker genutzt. Seit 1935 werden die Temperaturangaben von Radiosonden international nur noch in Grad Celsius angegeben. Am 1. Januar1962 wechselte der britische Wetterdienst offiziell zur Celsius-Skala. In den USA hingegen ist die Fahrenheit-Skala weiter vorherrschend. Kelvin International ist die absolute Kelvin-Skala (K) verbindlich festgelegt. Sie geht zurück auf den
Engländer Sir William Thomson (seit 1892 Lord Kelvin of Largs) und basiert auf einer metrischen Graduierung. Die Temperatureinteilung beginnt beim absoluten Nullpunkt mit 0 K, bei der der Schmelzpunkt des Eises 273,16 K (0 °C bzw. 32 °F) und der Siedepunkt des Wassers 373,16 K (100 °C bzw. 212 °F) ist. Die Umrechnung von Kelvin zu Celsius ergibt sich aus: t °K absolut = 273.16 + t °C. Réaumur Von historischem Interesse ist die früher in Europa verwendete Réaumur-Skala (R), die auf den französischen Physiker René-Antoine Ferchault de Réaumur zurückgeht. In dieser Skala wird dem Gefrierpunkt des Wassers die Temperatur 0 °R und dem Siedepunkt die Temperatur 80 °R (Meeresspiegelniveau, normaler Luftdruck) zugeordnet. Die Réaumur-Skala ist heute kaum noch in Gebrauch, aber für die Betrachtung historischer europäischer Temperaturzeitreihen hilfreich. Es entsprechen 5 Celsiusgrade = 9 Fahrenheitgrade = 4 Réaumurgrade.
Fahrenheit, Daniel Gabriel, (1686–1736), deutscher Instrumentenbauer und Physiker; Begründer der wissenschaftlichen Thermometrie; baute Barometer und Pyknometer, konstruierte 1714 das erste Thermometer mit Quecksilber statt Weingeist; stellte das erste
93
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
brauchbare Aräometer her; erkannte unabhängig von R. Boyle die Abhängigkeit des Siedepunkts vom Luftdruck und konstruierte ein Hypsometer zur thermometrischen Höhenmessung; führte 1714 eine erste geeichte Temperaturskala (Fahrenheit-Skala mit der Einheit Grad Fahrenheit) ein. Celsius, Anders(1701–1744), schwedischer Astronom; beteiligte sich 1736–37 an der Expedition zur Gradmessung (Messung eines Meridianbogens) zwischen Tornea und Pello (Västerbotten), deren Ergebnisse die Abplattung der Erde bestätigten; registrierte den Zusammenhang zwischen Nordlicht und Änderungen des Erdmagnetfelds; führte Kalenderberechnungen durch, befürwortete die Einführung des Gregorianischen Kalenders; bestimmte als erster mit Messinstrumenten die Helligkeit von Sternen und schlug 1742 eine 100teilige ThermometerEinteilung (Celsius-Skala) vor.
–40°
–50° –80° –60° –70°
20 –80°
10
–70° –60°
–60°
–50°
5 –40° –30° –30°
0 90°60°
–50° –40° –30° –20° –10°
50
0° +10°
40
Kühlung durch Heizung durch therm. Strahlung solare Strahlung
Höhe (km)
15
Réaumur [reomür], René-Antoine Ferchault, seigneur de (1683–1757), franz. Physiker und Zoologe; 1730 Erfindung des Weingeistthermometers und Einführung der Réaumur-Temperaturskala mit der Einheit Grad Réaumur; zahlreiche tier- und pflanzenphysiologische Arbeiten, deren Ergebnisse der damals vorherrschenden Präformationstheorie entgegenstanden.
Transport fühlbarer und latenter Wärme vom Boden aus in die Höhe erklärt werden. Es handelt sich dabei um die Umwandlung von thermischer in potenzielle Energie. In größeren Höhen machen sich immer stärker die Strahlungseinflüsse bemerkbar, bis in der Stratosphäre die Temperatur fast überwiegend durch das Strahlungsgleichgewicht erzeugt wird (Abbildung 2.11).
Höhe (km) 30
25
Thomson, Sir William (1824– 1907), seit 1892 Lord Kelvin of Largs, britischer Physiker; Hauptforschungsgebiete des vielseitigen Physikers waren Elektrophysik und Thermodynamik; daneben leistete er bedeutsame Beiträge zur Elastizitätslehre, Hydrodynamik, Geophysik und förderte die beginnende Elektrotechnik, v. a. die Unterwassertelegrafie. Thomson definierte den Begriff der absoluten Temperatur und des Wärmetods und stellte 1848 die thermodynamische Temperaturskala (Kelvin-Temperaturskala mit der Temperatureinheit Kelvin) auf.
+20°
40° Winter
20° 0° 20° geographische Breite
40°
60° 90°
Sommer
Strahlungsgleichgewicht
30
Stratopause
Stratosphäre
20
Strahlungskühlung Konvektion Aufheizung
10
Tropopause Troposphäre
0 –6
2.10 Meridionalschnitt durch die Nordhemisphäre und allgemeine mittlere Temperaturverteilung; linke Seite: Winterperiode, rechte Seite: Sommerperiode. Linien stellen Isothermen im 10 °C-Abstand dar. Geschummerte Balken markieren die Höhenlage der Tropopause.
–2 0 +2 +4 +6 Erwärmungs- und Abkühlungsraten (K/Tag) –4
–60 –30 0 +20 Temperatur (°C)
2.11 Vertikale Abkühlungs- und Erwärmungsmechanismen in der Atmosphäre (linke Seite) und vertikales Temperaturprofil (rechte Seite).
94
Die Obergrenze der Troposphäre, die Tropopause, liegt im Bereich der Obergrenze der Wasserdampfsphäre und entspricht daher der Lage des Abstrahlungsmaximums. Die Tropopause liegt umso höher und ist umso kälter, je mächtiger die Wasserdampfschicht in der Troposphäre ist. Da der Wasserdampfgehalt der Troposphäre von der Wärme der Erdoberfläche abhängt, ist dieser im Bereich der Tropen am höchsten. Die Tropopause liegt hier um einige Kilometer höher und ist entsprechend kälter als in den höheren Breiten. Saisonal liegt die winterliche Tropopause generell 2–3 km niedriger als die sommerliche Tropopause. Die Übergänge ihrer Höhenlage (Abbildung 2.10) fallen mit den Grenzen großer Zirkulationssysteme (z. B. Hadley-Zirkulation, ▶ Abschnitt 2.10) und den dort vorherrschenden Strahlströmen (Jetstreams) zusammen (▶ Abschnitt 2.9). Das vertikale Temperaturprofil der Atmosphäre lässt sich durch adiabatische Prozesse beschreiben. Eine adiabatische Zustandsänderung ist ein thermodynamischer Vorgang, bei dem ein Luftpaket von einem Zustand in einen anderen überführt wird, ohne thermische Energie mit seiner Umgebung auszutauschen. Nach dem ersten Hauptsatz der Thermodynamik kann Energie weder erzeugt noch vernichtet werden, es erhöht sich lediglich die innere Energie um die zugeführten Energien. Bei dieser Betrachtung eines geschlossenen Systems werden nur die Energien (Wärme und Arbeit) berücksichtigt, die über die Systemgrenze fließen und dadurch mit der Änderung der inneren Energie den Zustand des Systems (Luftpakets) verändern. Zur Erklärung der adiabatischen Temperaturgradienten gehen wir von einer einfachen, modellhaften Annahme aus: Ein Luftpaket wird durch die Heizwirkung des Erdbodens erwärmt, es steigt auf, ohne dabei durch Wärmeleitung oder Strahlung Energie abzugeben oder aufzunehmen. Weil der Luftdruck mit der Höhe abnimmt, dehnt sich das Luftpaket aus und die Luft kühlt ab. Umgekehrt wird beim adiabatischen Absinken der Luft diese wieder komprimiert beziehungsweise potenzielle Energie in innere Energie umgewandelt, wobei sich die Luft erwärmt. Betrachten wir zunächst den trocken-adiabatischen Temperaturgradienten, so werden dabei nur Prozesse berücksichtigt, die nicht mit
2 Basiswissen und Grundgesetze der Klimatologie
der Kondensation von Wasserdampf und der Freisetzung von Verdampfungswärme zusammenhängen. Der trocken-adiabatische Temperaturgradient beträgt 0,98 °C/100 m und wird allgemein mit 1 °C/100 m angeben. Da jede Luftmasse nur eine ihrer Temperatur entsprechende maximale Feuchtigkeit aufnehmen kann, bleibt der trocken-adiabatische Gradient nur so lange erhalten, bis Kondensation eintritt. Obwohl die absolute Feuchte gleichbleibt, nimmt die relative Feuchte durch Abkühlung der Luftmasse bis zur Wasserdampfsättigung weiter zu. Die relative Feuchte beträgt dann 100 %. Steigt die Luft weiter auf, kondensiert der Wasserdampf und es kommt zur Freisetzung von Kondensationswärme. Die Temperaturabnahme pro 100 m ist nun geringer. Diese vertikale Temperaturabnahme folgt dem sogenannten feuchtadiabatischen Temperaturgradienten. Dieser liegt grundsätzlich unter 1 °C und verringert sich mit zunehmender Wärme der Luftmasse. In den Tropen liegt der feucht-adiabatische Temperaturgradient innerhalb der feucht-warmen Luftmassen bei etwa 0,3 °C/100 m. Mit Annäherung an die Pole nimmt der Gradient wieder zu und erreicht in polaren Breiten sowie in großen Höhen mit 0,95 °C/100 m fast den Wert des trocken-adiabatischen Gradienten. Solange der Sättigungsdampfdruck in vertikal bewegten Luftmassen nicht erreicht ist, laufen alle Luftmassenzustandsänderungen trocken-adiabatisch ab. Die Änderung der Temperatur beträgt dann 0,98 °C/100 m, bei Hebung abnehmend, bei Absenkung zunehmend. Die geschilderten adiabatischen Vorgänge sind generell in die Prozesse der thermischen Konvektion und konvektiven Hebung/Senkung eingebunden. Diese Prozesse können wiederum mit advektiven Luftmassentransporten verknüpft sein. Generell lassen sich folgende charakteristischen Temperaturverteilungen in der Atmosphäre zusammenfassen (Abbildungen 2.10 und 2.11):
• Die Temperatur nimmt in der Troposphäre allgemein mit der Höhe ab. Die Abnahme schwankt zwischen –0,5 °C/100 m und –1,0 °C/100 m. Eine Ausnahme bildet die Atmosphäre in Polnähe, wo sich über sehr kaltem Boden eine mächtige Inversionsschicht aufbauen kann.
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
• In den Tropenregionen nimmt die Temperatur in der Stratosphäre mit zunehmender Höhe um 0,5 °C/100 m zu. In den gemäßigten Breiten ist bis in eine Höhe von 25 km eine Isothermie ausgebildet. In der höheren Stratosphäre nimmt die Temperatur mit der Höhe weiter zu. Eine Ausnahme bildet hier der Bereich der winterlichen Polregionen, wo während der Polarnacht die Temperatur auch in der Stratosphäre leicht abnimmt. Abgesehen von Bodeninversionen ist die Atmosphäre somit thermisch in zwei Zonen gegliedert: Im unteren Teil der Atmosphäre herrscht überwiegend Temperaturabnahme mit der Höhe vor. Im oberen Teil ist eine Isothermie oder sogar Temperaturzunahme ausgebildet. Während also in den unteren Schichten der Troposphäre ein Temperaturgefälle vom Äquator zu den Polen herrscht, existiert oberhalb von 10 km Höhe eine Temperaturabnahme in umgekehrter Richtung. Die im Rahmen der dynamischen Turbulenz beziehungsweise thermischen Konvektion beschriebenen Prozesse unterliegen bestimmten Stabilitätskriterien. Eine atmosphärische Schichtung ist stabil, wenn relativ warme Luft in der Höhe über kälterer Luft am Boden liegt. Dadurch werden der turbulente Austausch und die Konvektion erschwert. Extremfall dieser stabilen Schichtung ist eine Temperaturinversion, die einen vertikalen Austausch und Turbulenz unterbindet. Die Schichtung ist stabil, wenn die Konvektion bei nur sehr geringer vertikaler Temperaturabnahme (kleiner als die Abnahme nach dem feuchtadiabatischen Temperaturgradienten) höhenmäßig begrenzt ist. Umgekehrt führt eine wärmere Schichtung am Boden und eine kältere in der Höhe zu einem großen vertikalen Temperaturgradienten und somit zu stärkerer Turbulenz und Konvektion, die bei Überschreiten des Temperaturgradienten von 1 °C/100 m zu einer trockenlabilen Schichtung führt. Der Gehalt an Feuchte in der Luft hat also einen entscheidenden Einfluss darauf, ob die Schichtung feucht-labil, trocken-labil oder generell stabil ist. Ein quantitatives Maß zur Beschreibung dieser Effekte ist die Äquivalenttemperatur. Diese beschreibt die Temperatur, die eine Luftmasse annehmen würde, wenn ihre gesamte latente Wärme (Wasserdampf) in fühlbare Wärme umgesetzt würde.
95
Die genannten Stabilitätskriterien haben klimatologische Konsequenzen für die unterschiedlichen Regionen der Erde. In Gebieten mit großer relativer Feuchte (immerfeuchte Tropen) wird die hoch reichende Konvektion begünstigt, da durch die tief liegenden Kondensationsniveaus ein frühes Freiwerden der latenten Wärme ermöglicht wird, welches insgesamt eine Verstärkung des freien Auftriebs zur Folge hat. In Gebieten mit relativ trockener Luft wird die Konvektion dagegen erschwert. Eine weitere Konsequenz ist, dass in den wechselfeuchten Tropen der Übergang von der Trocken- zur Regenzeit relativ kurz ist. Dies liegt daran, dass die ersten Regenfälle in diesen Regionen Wasser zur Verdunstung liefern, sodass die relative Feuchte steigt und damit die Neigung zu verstärkter Konvektion und nachfolgenden Regenfällen. Dieser relativ abrupte Übergang von der Trocken- zur Regenzeit in den wechselfeuchten Regionen wird darüber hinaus durch ein Überangebot an Stäuben (Aerosolen) am Ende der Trockenzeit ausgelöst, welche während des konvektiven Prozesses zunehmend als Kondensationskerne zur Verfügung stehen. Die sehr unregelmäßigen Niederschläge im Sahel hängen z. B. mit diesem Effekt eng zusammen. Nach eingehender Erläuterung der vertikalen Temperaturverteilung soll im Folgenden auf die horizontale Temperaturverteilung auf der Erde anhand von Isothermenverläufen eingegangen werden (Abbildungen 2.12 und 2.13) Auf der Nordhemisphäre zeigt sich eine deutliche Abhängigkeit des horizontalen Temperaturverlaufs von der Land-Wasser-Verteilung. Die Isothermen schwingen polwärts im Sommer über den Kontinenten wesentlich stärker aus, sodass nordwärts über 30° Nord hinaus eine relativ starke Temperaturzunahme zu verzeichnen ist. Über den Ozeanen ist dagegen eine Temperaturabsenkung zu erkennen. Im Winter ist die Situation auf der Nordhemisphäre umgekehrt, wobei sich die Gegensätze der Temperaturverteilung über Land und Ozean noch verschärfen. Dies ist zum einen in der unterschiedlichen Energieaufnahme und Energieabgabe von Wasser-, Land- und Schneeflächen begründet, und zum anderen steuert die Atmosphäre durch ihren unterschiedlichen Wasserdampfgehalt die Strahlungsbilanzen über diesen Regionen. Der Kältepol der Nordhemisphäre liegt im kontinentalen Nordostsibirien,
96
2 Basiswissen und Grundgesetze der Klimatologie
–35°
Januar
–35°
80°
–30°
–30° –25° –20° –10°
t
e
r
–25° –20° –66,5° –10°
th e r mis ch e r Ä q
0°
n
0° 5° 10° 40° 15° 20° 23,5° 25°
i
5°
to ua
N o r d
w
10° 15°
r
20° 25°
0°
S ü
2 5°
23,5° 25°
d s
40°
20° 15°
o
20° 15°
m
10°
10°
80°
0°
r
–5°
2.12
5°
e
0°
über 30°C
m
66,5°
5°
120° –10° –15° –20°
20° bis 30°C
0° –25°
60°
0° bis 20°C
60°
0° bis –20°C
180° –5° 120° –10° –25° –20° –15°
–20° bis –30°C
–30° bis –40°C
unter –40°C
Verlauf der Isothermen im Januar. Temperaturverläufe sind auf Meeresspiegel reduziert.
Juli
80° 0°
0° 5° –66,5°
r
5°
m
e
–10° 10°
m
10° 15°
15° 20°
N o r d
s
20° 25°
o
40°
23,5°
25°
thermischer Äquator
0°
S ü
23,5°
d
20°
20°
w
15°
40°
15°
i n
10°
10°
5°
t e
0° –5° –10°
5° 0°
66,5°
r
80° –15° –20° –25°
über 30°C
2.13
–30°–35°
20° bis 30°C
120°
60°
0° bis 20°C
0° –40° –45°
60° –50°
0° bis –20°C
120° –50° –40°
–20° bis –30°C
–5° –10° 180° –15° –20° –25° –30°
–30° bis –40°C
Verlauf der Isothermen im Juli. Temperaturverläufe sind auf Meeresspiegel reduziert.
unter –40°C
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
er ergibt sich aus der Überlagerung folgender Gegebenheiten:
• kurze Einstrahlungs- und lange nächtliche Ausstrahlungszeiten
• hohe Albedo und geringe thermische Leitfähigkeit der Schneedecke
• generell niedriger Wasserdampfgehalt der Atmosphäre in dieser Region
• größere Entfernung zum ausgleichenden Wärmespeicher der Ozeane Im Januar-Mittel werden in dieser Region –50 °C erreicht. In der Arktis hingegen liegen die Temperaturen über den Treibeisflächen des Nordpolarbeckens bei –35 °C. Die kältesten Luftmassen der Nordhemisphäre werden somit in den kontinentalen Gebieten Nordamerikas und Eurasiens gebildet. Die Südhemisphäre, auch die „Wasserhemisphäre der Erde“ genannt, ist durch einen breitenkreisparallelen Verlauf der Isothermen in den höheren Breiten gekennzeichnet. Zudem ist eine großräumige, sehr stark ausgeprägte negative Temperaturanomalie an der Westseite der Kontinente zu erkennen: Je weiter ein Kontinentbereich in Richtung Südpol reicht, desto stärker weicht die Temperatur vom Breitenkreismittel ab. Dieser Westküsteneffekt an den Kontinenten der Südhemisphäre wird durch Kaltwasserströme
97
bewirkt, die aus der ostwärts strömenden subantarktischen Drift im Bereich der Kontinentalsockel untermeerisch zum Äquator hin abgelenkt werden. Der Kältepol der Südhemisphäre liegt über den kontinentalen Eisgebieten der Antarktis und ist mit bis zu –60 °C im Winter und –25 °C im Sommer wesentlich extremer ausgeprägt als die Gebiete im Nordpolargebiet (Winter: –35 °C, Sommer: –1 °C). Der Temperaturgegensatz zwischen Äquator und Südpol ist deshalb stärker als zwischen Äquator und Nordpol. Im Bereich der Tropen sind nur geringe horizontale Temperaturunterschiede vorhanden. In den Randtropen kommt es zur Zeit des höchsten Sonnenstandes zu einer positiven Temperaturanomalie. Die nördlichen Randtropen haben gegenüber der Südhalbkugel einen wesentlich höheren Landmassenanteil, sodass sich der thermische Äquator bei etwa 10° Nord ausbildet. Aus dieser Temperaturverteilung resultiert das stärkste Wärmegefälle zwischen Tropen und Polarregion auf der Nordhalbkugel im Bereich zwischen 40° und 70° Nord und auf der Südhalbkugel im Bereich zwischen 55° und 80° Süd. Insgesamt befinden sich die Wärme abgebenden Gebiete beiderseits des Äquators zwischen 30° Nord und 30° Süd. Allen Gebieten, die polwärts 40° Breite liegen, wird bereits im Jahresmittel Wärme zugeführt.
Wichtige Begriffe im Umfeld des Klimaelements Temperatur Inversion, der Zustand der Atmosphäre, bei dem die Temperatur mit der Höhe zunimmt, was einen Ausnahmezustand in der Troposphäre darstellt. Die betreffende Schicht heißt Inversionsschicht, z. B. die Tropopause im Übergangsbereich Troposphäre – Stratosphäre.
Taupunkttemperatur, Temperatur, bei der der Wasserdampfgehalt der Luft gleich dem maximal möglichen Sättigungswasserdampfgehalt ist und die Luft keine weitere Feuchtigkeit mehr aufnehmen kann (die relative Feuchte beträgt dann 100 %).
Isotherme [von griech. thermós = warm], Linie gleicher Temperatur. Die wahre Isotherme gibt die wirkliche Temperatur in einer bestimmten Höhenlage wieder, die reduzierte Isotherme schaltet den Einfluss der Höhenlage aus und rechnet die Temperatur auf Meereshöhe um.
Relative Feuchte, Quotient aus dem tatsächlich herrschenden Dampfdruck (e) und dem bei jeweilig vorherrschender Lufttemperatur maximal möglichen Dampfdruck (E) in Prozent: f = 100 e/E.
Kondensationsniveau, Höhe oder Schicht, bei der bei aufsteigender, mehr oder weniger feuchter Luft Wasserdampf kondensiert.
Spezifische Feuchte, Wasserdampfmenge in Gramm, die in 1 kg feuchter Luft enthalten ist: s ≈ 0,622 e/p (e = Dampfdruck, p = Luftdruck).
98
2.8.3 Niederschlag und Wasserkreislauf Die Erdatmosphäre enthält etwa 13 × 1012 m3 Wasser, das zum weitaus größten Teil als Wasserdampf vorliegt. Teilt man diesen Wert durch die Größe der Erdoberfläche, so erhält man eine mittlere äquivalente Wassersäule von 25 bis 26 mm. Die weltweit gemittelte Verdunstungsbeziehungsweise Niederschlagsrate erreicht 1 000 bis 1 100 mm pro Jahr. In Relation zur mittleren Säulenhöhe des atmosphärischen Wasserdampfes bedeutet dies, dass der Wasserdampf in der Atmosphäre etwa 40-mal pro Jahr umgesetzt wird oder anders ausgedrückt im Mittel rund 10 Tage in der Atmosphäre verbleibt. Dies deutet auf die hohe Dynamik des Wassers und der Koexistenz seiner drei Aggregatzustände (fest, flüssig, gasförmig) im Erdsystem hin. Die Erde ist übrigens der einzige Planet unseres Sonnensystems, in dem Wasser in allen Aggregatzuständen vorkommt. Zur Niederschlagsbildung kommt es immer dann, wenn in feuchter Luft Übersättigung erreicht wird und somit Kondensation eintritt. Wir können hier zwei Arten von Kondensation unterscheiden:
• Die homogene Kondensation oder Nukleation, bei der durch Zusammentreffen von Wasserdampfmolekülen ein neues Teilchen entsteht. Für diesen Prozess sind sehr hohe Übersättigungen erforderlich (mehrere Hundert Prozent) • Die heterogene Kondensation, bei der an einem vorhandenen Kondensationskern (Aerosol, meist in Größenordnungen von > 0,1 μm) häufig schlagartig Kondensation eintritt. Hierfür reicht eine geringe Übersättigung (wenige Zehntel Prozent) In der realen Erdatmosphäre herrscht die heterogene Kondensation vor. Die Wolkentröpfchen wachsen dabei rasch bis zu Radien von 10 μm. Durch homogene Kondensation werden primär Tröpfchen von 5 bis 10 μm gebildet. Dies ist aber zu gering, um als Regentropfen die Erdoberfläche zu erreichen. Das können nur die Regentropfen, die groß genug sind, um die untersättigte Zone unterhalb der Wolke zu durchqueren, ohne vorzeitig zu verdampfen. Regentropfen haben deshalb typischerweise Radien von mehreren Zehn-
2 Basiswissen und Grundgesetze der Klimatologie
tel Millimetern bis zu wenigen Millimetern. Im Mittel liegt die Tröpfchengröße bei 0,5 bis 1 mm. Physikalisch ergibt sich eine Obergrenze von 5 mm, da größere Regentropfen aufgrund ihrer Fallgeschwindigkeit von 8 m/s so stark deformiert werden, dass sie in kleinere Tröpfchen zerfallen. Die wichtigsten Mechanismen der Niederschlagsbildung sind die Koaleszenz in der flüssigen Phase, dass heißt der Zusammenschluss oder die Koagulation kleinerer Tropfen zu größeren, sowie die Regenbildung unter Beteiligung der Eisphase mit Sublimation (Diffusionswachstum), Vergraupelung und Schneeflockenbildung (auch als Bergeron-Findeisen-Prozess bekannt). Die Niederschlagsbildung unter Beteiligung der Eisphase ist in den außertropischen Breiten der wichtigste und häufigste Vorgang, in den tropischen Breiten der der Koaleszenz. Die Prozesse der Niederschlagsbildung sind derart komplex, dass sie im vorliegenden Abschnitt nicht umfassend dargestellt werden können (weitere Informationen zur Niederschlagsbildung bei Pruppbacher und Klett 1978 sowie Rogers und Yau 1989).
2.8.4 Verdunstung und Niederschlag Die Umsetzung des Wassers in der Atmosphäre wird durch die Prozesse Verdunstung und Niederschlag bestimmt. Die Verdunstung ist dabei der primäre Prozess, der die Größe der Umsetzung steuert und den Wasserhaushalt mit dem Energiehaushalt verknüpft. Die Rolle der Verdunstung für den Energiehaushalt haben wir schon mit der Funktion der latenten Wärme angesprochen. Die Verdunstungsrate liegt im globalen Mittel bei rund 1 000 mm/Jahr und hängt von einer Vielzahl von Einflussgrößen ab. Hierzu gehören primär die Energiebilanz und die Verfügbarkeit von Wasser. Weiteren Einfluss auf die Verdunstung haben die unterschiedlichen Oberflächentypen (Bewuchs) sowie die Intensität des bodennahen Austausches. Die Verdunstung von Wasser- und Bodenoberflächen wird als Evaporation, die von Pflanzen als Transpiration bezeichnet. Für die Gesamtverdunstung gilt der Terminus Evapotranspiration. Des Weiteren wird der aktuellen oder tatsächlichen Verdunstung die potenzielle Verdunstung gegenübergestellt.
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
Viele Forschungsarbeiten der letzten Jahrzehnte belegen den starken Einfluss der Pflanzen auf die Verdunstung. Tabelle 2.5 stellt einige der Literatur entnommene Verdunstungswerte zusammen.
Tabelle 2.5 Verdunstungswerte für unterschiedliche Bodenbedeckungstypen Verdunstungswerte aus Mitteleuropa: Unbewachsener Ackerboden (Brache): 180 mm / Jahr Rasenfläche: 350 mm / Jahr Feuchtwiese: 700 mm/ Jahr Offene Wasseroberfläche: 500-600 mm / Jahr
99
Verdunstungswerte von Kulturbeständen: Roggen: 430 mm / Jahr Buchweizen: 411 mm / Jahr Kartoffeln: 479 mm / Jahr Hafer: 358 mm / Jahr Weizen: 308 mm / Jahr Klee: 398 mm / Jahr Verdunstungswerte von Waldbeständen: Kiefer: 213 mm / Jahr Birke: 375 mm / Jahr Fichte: 193 mm / Jahr Eiche: 220 mm / Jahr Lärche: 220 mm / Jahr Esche: 244 mm / Jahr Buche: 209 mm / Jahr Tanne: 145 mm / Jahr
Bergeron-Findeisen-Prozess Der schwedische Meteorologe Tor Bergeron schlug einen Mechanismus für die Bildung von Niederschlag und Wolken vor. Sein deutscher Kollege Theodor Robert Walter Findeisen publizierte 1931 an der Universität Hamburg seine erste Dissertation zum Thema Messungen der Größe und Anzahl der Nebeltropfen zum Studium der Koagulation inhomogenen Nebels und 1937 an der Universität Berlin seine zweite Doktorarbeit zum Thema Neue Wege der meteorologischen Feuchtigkeitsmessung veröffentlichte. Findeisen baute auf der Theorie von Bergeron auf und entwickelte den Mechanismus der Niederschlagsbildung und die Theorie über die Entstehung großtröpfigen Regens in den außertropischen Breiten. In den außertropischen Breiten ist der Feuchtegehalt der Luft für ein Tröpfchenwachstum nur über den Prozess der Kondensation zu gering. Voraussetzung für großtropfigen Regen ist ein Gemisch von Wassertröpfchen und Eis in einer Wolke. Über Eis herrscht ein geringerer Sättigungsdampfdruck als über Wasser gleicher Temperatur. Während über Eis die Luft schon gesättigt ist und zu kondensieren beginnt, kann über dem Wassertropfen noch Wasser verdunsten. In den höheren Wolkenbereichen befinden sich in einem Temperaturbereich zwischen –10 °C und –35 °C Wassertröpfchen und Eiskristalle nebeneinander. Der Wasserdampf geht also von den Tröpfchen zum Eis, die Eiskristalle wachsen.
Wenn sie groß genug sind, beginnen sie zu fallen, kommen in wärmere Luftschichten und schmelzen zu Tropfen. Beim Ausfallen durch die Wolke werden in darunter liegenden Wolken weitere Tröpfchen aufgenommen, die die Größe und die Fallgeschwindigkeit weiter erhöhen. Dieser Prozess wird Bergeron-Findeisen-Prozess genannt.
Bergeron, Tor (1891–1977), schwedischer Meteorologe; erarbeitete zusammen mit V. Bjerknes neue Methoden der Wettervorhersage; entwickelte eine Theorie, nach der Mischwolken in unseren Breiten eine wesentliche Voraussetzung für die Entstehung von Niederschlägen bilden; verdient um den Ausbau der Polarfronttheorie.
Findeisen, Walter, (1909–1945), deutscher Meteorologe; publizierte an der Universität Hamburg seine erste Dissertation zum Thema Messungen der Größe und Anzahl der Nebeltropfen zum Studium der Koagulation inhomogenen Nebels, 1937 veröffentlichte an der Universität Berlin seine zweite Dissertation zum Thema Neue Wege der meteorologischen Feuchtigkeitsmessung; der Schwerpunkt seiner Arbeit lag in der Flugmeteorologie und in der Erforschung der Wolken; siehe auch „Bergeron-FindeisenProzess“.
100
2 Basiswissen und Grundgesetze der Klimatologie
Modelle zur Verdunstungsberechnung Verfahren zur Berechnung der Verdunstung von Landoberflächen Berechnung der pozentiellen Verdunstung Die potenzielle Evapotranspiration ist definiert als die maximale Verdunstungshöhe, die unter gegebenen Klimabedingungen erzielt wird, unter der Voraussetzung, dass genügend Wasser verfügbar ist. In den unterschiedlichsten Formeln und Ansätzen werden folgende Klimaparameter verwendet: • T: Lufttemperatur [°C] • v: Windgeschwindigkeit, gemessen in 2 m ü. Geländehöhe [m/s] • s: Sonnenscheindauer [h/d] • RG: Globalstrahlung [W/m2] • e: Dampfdruck [hPa] oder rf relative [%] oder a absolute [g/m3] Luftfeuchte
Verfahren nach Haude In Deutschland hat Haude (Haude 1955) ein auf dem Dalton-Ansatz beruhendes Verfahren zur Berechnung von Monatssummen der potenziellen Evapotranspiration ETp in mm/d veröffentlicht: ETpHaude = aHaude (es-e) aHaude: empirischer (konstanter) monatlicher Pflanzenfaktor (Haude-Faktor) es-e: Sättigungsdefizit der Luft mit Wasserdampf in hPa Das Sättigungsdefizit errechnet sich aus der Temperatur- und Feuchtemessung der Luft um 14 Uhr MEZ: a = e (216,7 K / (T [°C] + 273,15 K)), d.h. Berechnung der absoluten Feuchte a der Luft in g/m3 aus dem Dampfdruck e in hPa. Bei
7 mm/d liegt eine energetische Obergrenze im Anwendungsbereich der Formel. Das Haude-Verfahren eignet sich nur für die empirische Berechnung von Monatssummen der Verdunstung. Es hat sich in Deutschland (alte Bundesländer) bewährt.
Verfahren nach Thornthwaite Dieses Verfahren (Thornwaite 1948) basiert auf einer empirischen Beziehung zwischen potenzieller Evapotranspiration ETp und der Lufttemperatur T aus Messungen in verschiedenen Klimagebieten (nur für großräumige Abschätzungen und Monatssummen zu empfehlen). Für Deutschland ergeben sich unrealistische Werte! Die Verdunstungshöhe in mm ergibt sich zu: ETpThorn = 0,533 . n .
S0 . 12
⎛10 . T ⎞ ⎜ ⎜ ⎝ J ⎠
n S0
Länge des gewählten Zeitintervalls in d mittlere tägliche astronomisch mögliche Sonnenscheindauer des Zeitintervalls in h T Mittelwert der Lufttemperatur für ein bestimmtes Zeitintervall (Tag, Monat) in °C a, J empirische Koeffizienten Mit dem jeweiligen Monatsmittel der Lufttemperatur und n = 30 bzw. 31 Tagen ergibt sich dann die Monatssumme der Verdunstungshöhe in mm. Die Größen J und a müssen am jeweiligen Standort bestimmt werden (ca. a = 0,5 und J = 0,2 · T, bei negativen Werten: T = 0): 1,514
Dez ⎛ T⎞ J = ∑ ⎜___ ⎜ 5 ⎠ Jan ⎝
a = (0,0675 · J3 - 7,71 · J2 + 1792 · J + 49239) · 10-5
Monatliche Pflanzenfaktoren für die Verdunstungsberechnung Kultur
Jan.
Feb.
März
Apr.
Mai
Juni
Juli
Aug.
Sept. Okt.
Nov.
Dez.
Winterraps Roggen Winterweizen Sommergerste Gras Mais Zuckerrüben
0,18 0,18 0,18 0,15 0,20 0,15 0,15
0,18 0,18 0,18 0,15 0,20 0,15 0,15
0,20 0,20 0,19 0,18 0,21 0,18 0,18
0,32 0,30 0,26 0,25 0,29 0,18 0,15
0,37 0,38 0,34 0,30 0,29 0,18 0,23
0,35 0,36 0,38 0,36 0,28 0,26 0,30
0,26 0,28 0,34 0,26 0,26 0,26 0,36
0,20 0,20 0,22 0,18 0,25 0,26 0,32
0,18 0,18 0,21 0,18 0,23 0,24 0,26
0,18 0,18 0,18 0,18 0,22 0,14 0,14
0,18 0,18 0,18 0,18 0,20 0,14 0,14
0,18 0,18 0,20 0,18 0,22 0,21 0,19
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
Verfahren nach Turc Dieses Verfahren wurde ursprünglich für Frankreich und Nordafrika entwickelt (Turc 1961). Für die Berechnung geht neben der Lufttemperatur auch die Globalstrahlung bzw. die Sonnenscheindauer ein, in Trockengebieten zusätzlich die relative Luftfeuchte. Für tägliche Werte in mm gilt: ETpTurc = 0,0031 · C · (RG + 209) · (T / (T + 15)) C U RG R0 S S0 T
C = 1 + ((50 - U) / 70) bei U < 50% und C = 1 bei U > 50% Tagesmittel der Lufttemperatur in % Globalstrahlung in J/cm2; RG = R0 · (0,19 + 0,55 · (S / S0)) extraterrestrische Strahlung in J/cm2 Sonnenscheindauer des Tages in h astronomisch mögliche Sonnenscheindauer in h Tagesmittel der Lufttemperatur in °C
Bei ETpTurc < 0,1 mm/d wird ETpTurc = 0,1 mm/d gesetzt. Zu langjährigen Messwerten der ETp ergaben sich im östlichen Teil Deutschlands hohe Korrelationen, allerdings mit etwas zu niedrigen Werten im Frühjahr, sodass eine Korrektur notwendig ist. Aus Wasserhaushaltsberechnungen und Vergleichen mit dem Verfahren nach Penman ergab sich für die Jahressummen ein Korrekturfaktor von ca. 1,1 (DVWK, 1996).
Verfahren nach Penman Die aus Energiebilanzverfahren und aerodynamischen Verfahren abgeleitete Kombinationsgleichung von Penman (1956) für stets feuchte, bewachsene Landflächen (näherungsweise der ETp entsprechend) lautet: γ s Rn – G + s + γ . f (v) . (es(T)–e) EPenman = s + γ . L s
Steigung der Sättigungsdampfdruckkurve γ Psychrometerkonstante Strahlungbilanz Rn G Bodenwärmestrom L spezifische Verdunstungswärme für 1 mm Verdunstungshöhe f(v) von Windgeschwindigkeit v und der Bewuchshöhe abhängige Funktion es (T) - e Sättigungsdefizit, abhängig von Lufttemperatur T und Dampfdruck e
101
Für die klassische Penman-Beziehung sind in der Regel die erforderlichen Eingangsdaten nicht verfügbar. Über Vereinfachungen lassen sich aber Tageswerte der ETp bewachsener Flächen aus Klimadaten nach dieser Beziehung berechnen.
Tatsächliche Verdunstung bewachsener Flächen Komplexes Penman-Monteith-Modell Dieser Ansatz (Monteith 1965) ist eine Weiterentwicklung des klassischen Penman-Ansatzes. Die reale ETa wird aus den jeweiligen meteorologischen Bedingungen, gekennzeichnet durch die effektive Strahlungsbilanz (Rn - G), das Sättigungsdefizit der Luft (es(t) - e) und die temperaturabhängige Steigung s der Sättigungsdampfdruckkurve, berechnet. Zusätzlich werden zwei Verdunstungswiderstände eingeführt, und zwar der von Windgeschwindigkeit, Höhe und Struktur des Pflanzenbestandes abhängige aerodynamische Widerstand ra und der die Wasserversorgung der Pflanze kennzeichnende mittlere Stomatawiderstand rs des Bestandes) rs wird gleich 0, wenn nur die Wasserschicht auf dem Blattwerk, also das Interzeptionswasser verdunstet. In diesem Fall kann keine Transpiration (stomatäre Verdunstung) erfolgen. Ein Anstieg der Widerstände bewirkt eine Verringerung der Verdunstung gegenüber der ETp. Die maximale Verdunstung eines Bestandes liegt bei dem Minimum von rs vor, das je nach Bestand mit 30...90 s/m angegeben wird. Bei Austrocknung des Bodens kann rs auf 600...800 s/m ansteigen, wobei ein ausgeprägter Tagesgang auftritt. Bedeutung der laminaren Grenzschicht Erdoberfläche/Luft bei molekularer Impulsübertragung und Impulsdiffusion: • laminare Grenzschicht (mm bis cm) verdrängt direkten Zugriff des Windes • Eigenschaftssprung der Lufttemperatur, speziellen Feuchtigkeit, Stoffkonzentration • Es greifen Austauschmechanismen ineinander, d.h. die laminare Grenzschicht beeinflusst den Austausch • Bereich von wenigen Metern bis Kilometern, abhängig von der Klimazone, in dem sich die für das stoffliche, biotische und energetische Geschehen an der Erdoberfläche wichtigen
102
2 Basiswissen und Grundgesetze der Klimatologie
Regler-, Speicher- und Prozesswirkungen abspielen. • molekulare Impulsübertragung und Impulsdiffusion dominiert (z.B. Wärmefluss deutlich langsamer als bei turbulentem Wärmeaustausch) Die Penman-Monteith-Formel lautet:
L*
ρ . cp ra
. (es (T ) – e)
⎛ r s + γ . ⎜1 + s ra ⎝
⎛ ⎜ ⎝
ETa =
1
s . (Rn – G) +
Die in der Tabelle angegebenen Werte können nur als grobe Richtwerte angesehen werden und sollen die Verdunstungstendenzen für unterschiedliche Bedeckungstypen aufzeigen. Neben den genannten Kulturpflanzen und Baumarten gibt es noch weitere wichtige Einflussgrößen der Verdunstung, z. B. die unterschiedlichen Kapillarkräfte des Bodens, die die Abgabe des Bodenwassers an die Pflanze und zur Atmosphäre steuern. So entwickeln Lehm- und Lößböden sehr hohe, Sandböden nur sehr geringe Saugkräfte. Dadurch wird die Abgabe des Bodenwassers an die Pflanze und zur Atmosphäre gesteuert. Auch das Alter der Bäume wirkt modifizierend auf die Verdunstung. 30- bis 40-jährige Bäume haben einen höheren Verdunstungsumsatz als jüngere und ältere Bestände. Weiterhin verändern Bestandsdichte und Artzusammensetzung die Verdunstung. Die unterschiedlichen Einflüsse auf die Verdunstung machen sie zu einem äußerst schwierig zu erfassenden Term im Gesamtsystem. Um die potenzielle Verdunstung einer Landschaft (pLV = potenzielle Landschaftsverdunstung) zu berechnen, müssen zusätzlich Parameter eingebracht werden wie die Boden/Pflanzen-Ratio, das Transpirationsverhalten des Bewuchses, die Albedo, die Rauhigkeit der Oberfläche sowie edaphische (bodenbedingte) Faktoren. Lauer und Frankenberg (1981) bestimmen den potenziellen Verdunstungsterm für ihre Weltklimaklassifikation über die Äquivalenttemperatur als Gesamtenergiemaß von latenter und fühlbarer Wärme
L*
spezifische Verdunstungswärme für 1 mm Verdunstungshöhe s Steigung der Sättigungsdampfdruckkurve Strahlungbilanz Rn G Bodenwärmestrom ρ Luftdichte spezifische Wärme der Luft cp aerodynamischer Widerstand ra es (T) - e Sättigungsdefizit, abhängig von Lufttemperatur T und Dampfdruck e γ Psychrometerkonstante Stomatawiderstand rs (Autoren: M. Schöninger und J. Dietrich)
sowie das Sättigungsdefizit als Feuchteterm. Dabei entspricht die potenzielle Verdunstung dem Produkt von Äquivalenttemperatur und Sättigungsdefizit. Die Größen Äquivalenttemperatur und Sättigungsdefizit lassen sich aus der Mitteltemperatur, der relativen Feuchte und dem Luftdruck berechnen, sodass ein sehr großes Netz an Klimastationen zur Berechnung einer weltweiten Klimaklassifikation zur Verfügung steht. Um die Landschaftsverdunstung zu berechnen, führen Lauer und Frankenberg sogenannte Umrechnungsfaktoren (Uf) ein, die den Einfluss auf die potenzielle Verdunstung (pV) reduzieren. Die potenzielle Landschaftsverdunstung ergibt sich somit aus: pLV = pV × Uf. Neben der potenziellen Verdunstung bereitet auch die Berechnung der aktuellen Verdunstung erhebliche Probleme. In der Praxis wird sie mittels Berechnung des Wasserhaushalts durchgeführt (Verdunstung = Niederschlag–Abfluss). Stellt man die mittlere globale Verdunstungsrate und die ihr entsprechende Niederschlagsrate von etwa 1 000 mm im Jahr dem mittleren Wasserdampfgehalt der Atmosphäre von 25 mm Wasseräquivalent gegenüber, so ergibt sich eine mittlere Verweilzeit des Wasserdampfes in der Atmosphäre von etwa 10 Tagen. Eine sehr umfassende Darstellung des Wasserhaushalts der Erde mit dessen regionaler Ausprägung findet sich bei Baumgartner und Reichel (1975).
103
2.8 Klimafaktoren und Klimaelemente bestimmen unser Klimasystem
Verdunstung 400
200
200
400
400
400
800
10
1500
1500
0
400
800
200
0
2000 1500 2000
400 200
800
2000
400
0
150
100
800
1500
2000
1500
400
00
100
20
2000
00
30
0
2000 400
800
200
200
800
800
200
200
1500
2000
800
800 800
400
400
800
200
200
Niederschlag 200 200 800 0 150
400 150
0
800 150 100
800 400
30
10
00 1500
40
00
3000
3000
00
80 0
800
200
20 0 150
1500
400
1500
15
800
00
3000
0
00 15
30
400
0
10
800
0
0
150
1500
10
80
3000
3000
3000 1500
1500
8
10
0
0
100 1500
1500
100 0 10
80
3000
400
0
1500
400
1500
400
150 0
00
800
400 100 50
2.14 Jährliche Verdunstungs- und Niederschlagsraten als Breitenkreismittel (nach Sellers 1965).
Abbildung 2.14 zeigt die zonal gemittelten, meridionalen Verteilungen von Niederschlag und Verdunstung. Die Verteilungskurve der Verdunstung hängt primär von der Verfügbarkeit von
Wasser und der effektiven Einstrahlung ab. Die Verdunstung nimmt von den Polargebieten hin zu den Subtropen kräftig zu. Die gleichzeitig geringen Niederschläge verdeutlichen die hygri-
104
sche Benachteiligung der Subtropen. Insgesamt sind drei ausgeprägte Feuchtzonen auf der Erde zu erkennen: der Bereich der Innertropischen Konvergenz (ITC) sowie die beiden Zonen der Westwinddrift. Zu den vier Trockenzonen der Erde gehören: die beiden Passatzonen und die beiden Polargebiete. Differenzen zwischen Niederschlags- und Verdunstungshöhe auf der Erde müssen durch meridionalen Wasserdampftransport ausgeglichen werden. Der Wasserdampf wird dabei aus den Gebieten mit Verdunstungsüberschuss (10° bis 35° Breite) sowohl polwärts als auch zur ITC hin transportiert. Mit dieser Ausgleichsbewegung ist ein erheblicher Transport von latenter Energie verbunden.
2.9 Dynamik der Atmosphäre Im Folgenden sollen die wichtigsten Grundlagen zum Verständnis von Luftmassenbewegungen und der sich daraus ergebenden Zirkulation der Atmosphäre besprochen werden. Die atmosphärische Dynamik orientiert sich in ihrer Beschreibung an den klassischen Erhaltungssätzen von Impuls, Masse sowie Wirbelstärke (vorticity) und ist ausgiebig in meteorologischen Fachbüchern beschrieben. Insofern wird auf die mathematischphysikalische Darstellung der atmosphärischen Dynamik in diesem Buch verzichtet. Ausgehend von der Frage, welche Kräfte auf ein Luftvolumen wirken, werden die wichtigsten Zusammenhänge zwischen diesen Parametern erläutert.
2.9.1 Wirksame Kräfte in der Atmosphäre In der Atmosphäre wirken auf ein sich bewegendes Luftteilchen unterschiedliche Kräfte, aus deren Zusammenwirken die in der Meteorologie gebräuchliche Bewegungsgleichung folgt (alle folgenden Ausführungen beziehen sich auf Kräfte pro Volumeneinheit). Vereinfacht ausgedrückt, bleiben überall dort in der Atmosphäre, wo Luftdruckunterschiede herrschen, Luftteilchen so lange in Bewegung, bis die Gegensätze ausgeglichen sind.
2 Basiswissen und Grundgesetze der Klimatologie
Folgende Kräfte wirken in der Atmosphäre:
• Gradientkraft (G), die Kraft des herrschenden Luftdruckgefälles
• Coriolis-Kraft (C), die ablenkende Kraft der Erdrotation
• Schwerkraft (Fliehkraft), welche überwiegend in der vertikalen Bewegung der Luft eine Rolle spielt • Reibungskraft (R), welche in der Grundschicht der Atmosphäre durch die Rauhigkeit der Erdoberfläche auftretende Bremswirkung ausgelöst wird Die Gradientkraft (G) entsteht, sobald sich ein Luftdruckgefälle bildet. Sie wirkt vom höheren zum tieferen Druck und steht senkrecht zum Verlauf der Isobaren. Der Abstand der Isobaren (Linien gleichen Luftdrucks) kennzeichnet als Gradient die Stärke des Luftdruckunterschieds. Würde sich die Erde nicht um ihre Achse drehen und eine einheitliche Oberfläche aufweisen, dann müsste sich zwischen den stärker sonnenbeschienenen und den dunkleren Teilen der Erde eine geschlossene Zirkulation einstellen. In dieser Zirkulation würde auf der Nachtseite kalte Luft in den unteren Schichten zur Sonnenseite strömen, dort aufsteigen und in der Höhenströmung zur Nachtseite zurückkehren. Aufgrund der Drehbewegung der Erde (Rotation) wirkt die Coriolis-Kraft (C) auf alle Luftteilchen, die sich auf der rotierenden Erde bewegen. Sie wirkt auf der Nordhalbkugel als Rechtsablenkung und auf der Südhalbkugel als Linksablenkung. Insgesamt ist die Coriolis-Kraft abhängig von der Winkelgeschwindigkeit der Erdrotation (ω), der geographischen Breite (φ), der Masse der Luftteilchen (2m) und der Windgeschwindigkeit (v). Man spricht auch anstelle von Coriolis-Kraft von Coriolis-Beschleunigung (f, welche sich nach der Formel f = 2m × v × ω × sin φ berechnen lässt. Die Coriolis-Beschleunigung steigt mit zunehmender geographischer Breite an und tendiert am Äquator gegen Null. Sie wirkt vor allem in ihrer horizontalen Komponente. Ihre Wirkung auf vertikale Strömungen ist gering. Zur Einschätzung ihrer Wirkung sei für die Größe der Coriolis-Kraft angegeben, dass in 45° geographischer Breite eine Horizontalgeschwindigkeit von 10 m/s fast genau zu einer Coriolis-Beschleuni-
2.9 Dynamik der Atmosphäre
gung von 10-3 m/s2 führt. Dies ist das 10-4-fache der Schwerebeschleunigung. Betrachten wir eine Ausgleichsbewegung, die nur durch den Druckgradienten und die Coriolis-Kraft bestimmt wird, so ergibt sich anfänglich eine Geschwindigkeitskomponente senkrecht zum Druckgefälle. Sobald sich ein Luftteilchen in Richtung eines Druckgefälles bewegt, setzt die Coriolis-Kraft ein und lenkt es nach rechts ab (Situation auf der Nordhalbkugel). Die Strömung wird weiter beschleunigt, bis die Coriolis-Kraft und die Druckgradientkraft entgegengesetzt gleich sind. Diese sich im Gleichgewicht befindliche Strömungsform wird geostrophischer Wind genannt. Geostrophische Winde verlaufen parallel zu den Isobaren, wobei – in Windrichtung gesehen – auf der Nordhalbkugel rechts Hochdruck und links Tiefdruck herrscht. Auf der Südhalbkugel drehen sich die Bedingungen um. In den mittleren Breiten verändert sich die Umdrehungsgeschwindigkeit der Erde je Breitengrad bereits um mehr als 20 km/h. Würde man ein Luftteilchen von Nord nach Süd bewegen, so würde es bereits bei einem Versatz von drei Breitengraden um mehr als 60 km/h gebremst. In der Bewegungsrichtung von Süd nach Nord würde es hingegen um mehr als 60 km/h vorauseilen beziehungsweise einen nach Osten gerichteten Geschwindigkeitsüberschuss besitzen. So werden ein aus Süd wehender Wind (Südwind) zu einem Westwind und ein aus Nord wehender Wind (Nordwind) zu einem Ostwind. Die ablenkende Kraft der Erdrotation ist ebenso wie in der Atmosphäre auch bei allen Meeresströmungen zu beobachten. So wird durch die Coriolis-Kraft jede durch Wind hervorgerufene Meeresströmung um 45° auf der Nordhalbkugel nach rechts beziehungsweise auf der Südhalbkugel nach links abgelenkt (Ekmansches Gesetz). Demnach erzeugt auf der Nordhalbkugel ein Nordwind eine Wasserdrift nach Südwest, ein Südwind eine Wasserdrift nach Nordost. Deshalb bewirkt eine Nordsturmlage im Gegensatz zu einer Weststurmlage in der Deutschen Bucht keine wesentliche Wasserstandserhöhung. Die genaue mathematische Ableitung, auf deren Darstellung an dieser Stelle verzichtet wird, ergibt, dass die Ablenkung bei allen Windrichtungen nahezu gleich groß ist, also auch bei breitenparallel wehenden Winden. Im Äquatorialbereich, einer etwa 1 000 km breiten Zone bei-
105
derseits des Äquators, wo die Ablenkung selbst gleich Null ist, besteht in der Atmosphäre und im Meer die Tendenz zur Bildung von Divergenzen, die klimatisch relevant sind (z. B. der große Regenreichtum äquatorialer Westküstenbuchten). Die Schwerkraft oder auch Fliehkraft wirkt senkrecht zur Bewegungsrichtung und ist am Äquator am stärksten. Für das Verständnis der atmosphärischen Dynamik reicht es im Allgemeinen aus, die Breitenabhängigkeit der potenziellen Energie zu betrachten. Die Schwerkraft wird dann allgemein gleich dem negativen Gradienten der potenziellen Energie gesetzt. Die wichtigsten Ursachen für die Breitenabhängigkeit der Schwerebeschleunigung sind die Abplattung der Erde und die breitenabhängige Zentrifugalkraft durch die Erdrotation. Im Mittel beträgt die Schwerebeschleunigung 9,8 m/s2. Die Schwerkraft wirkt bei der Rotation einer Luftmasse um ein Hoch- beziehungsweise Tiefdruckgebiet in der Form, dass im Hoch Zentrifugalkraft und Coriolis-Kraft entgegengesetzt und im Tiefdruckgebiet gleichsinnig wirken. Die Reibungskraft (R) wirkt vor allem in der Nähe der Erdoberfläche und bewirkt ein Abbremsen der Luftmassen. Auf der Nordhalbkugel geschieht der Luftmassenausgleich am Boden in einer im Uhrzeigersinn gerichteten Strömung aus dem Hochdruckgebiet in das Tiefdruckgebiet. Der Einströmungswinkel in das Tiefdruckgebiet hängt dabei von der Reibungskraft ab: je stärker die Reibungskomponente desto steiler der Einströmungswinkel. Nach Scherhag und Lauer (1982) findet sich in der freien Atmosphäre, wo der Wind ohne Reibungseinfluss isobarenparallel weht, ein Einströmungswinkel von 0°, auf dem Land von 35° bis 45° und über dem Ozean von 5° bis 20°. Das Kräftegleichgewicht für einen geostrophischen Wind und einen ageostrophischen Wind ist in Abbildung 2.15 zusammengefasst. Je größer die Reibungskräfte sind, umso schneller bauen sich die Druckgegensätze ab und umso geringer sind die Windgeschwindigkeiten. Stärkere Windgeschwindigkeiten finden sich deshalb fast ausschließlich über den Meeresflächen und in der höheren freien Atmosphäre. Im Bereich der Obergrenze der Troposphäre und Untergrenze der Stratosphäre befinden sich ausgedehnte Starkwindfelder, die bereits 1939 als sogenannte Strahlströme oder Jetstreams benannt wurden. Bei diesen Strahlströmen handelt es sich
106
2 Basiswissen und Grundgesetze der Klimatologie
Tief
Tief
G
G
Isobaren
980 hPa V
V C
R C
R+C
1020 hPa Hoch
Hoch
2.15 Gleichgewicht der Kräfte bei geostrophischem Wind (links) und ageostrophischem Wind (rechts). G = Gradientkraft, C = Corioliskraft, R = Reibungskraft, V = resultierende Windrichtung.
um Windfelder mit Geschwindigkeiten von 250 bis 350 km/h. Höchstwerte können sogar über 600 km/h liegen. Jetstreams haben eine Ausdehnung von mehreren Tausend Kilometern in der Längs- und von 500 bis 1 000 km in der Breitenerstreckung. Sie werden durch große horizontale Temperaturunterschiede verursacht und befinden sich z. B. im Übergangsbereich großer atmosphärischer Zirkulationszellen (Abbildung 2.18). Zwei ausgeprägte Jetstream Systeme treten sowohl auf der Nord- als auch auf der Südhemisphäre auf: Der SubtropenJetstream (STJ) und der PolarfrontJetstream (PFJ). Der STJ befindet sich auf der Nordhalbkugel in einer Höhe von 12 km über dem subtropischen Hochdruckgürtel, etwa längs einer Linie von den Bermuda Inseln – Kanarischen Inseln – Nordafrika – Indien – Südchina bis nach Kalifornien. Er ist zeitlich und räumlich außerordentlich persistent und unterliegt nur geringen jahreszeitlichen Schwankungen. Der PFJ findet sich hingegen in den nördlichen Mittelbreiten knapp unterhalb der Tropopause in einer mittleren Höhe von 10 km. Seine Lage ist eng an die Position der Polarfront gekoppelt. Dies bedingt sehr schnelle Veränderungen bezüglich seiner Stärke und Lage. Der PFJ umfasst als wellenförmiges Band den Bereich zwischen 40° und 70° nördlicher Breite. Im Winter ist er stärker ausgebildet und kann weiter nach Süden ausgreifen. Neben diesen Strahlstromsystemen gibt es im jeweiligen Winterhalbjahr der Hemisphären noch ein westliches Strahlstromband in etwa 65°
Breite, welches sich in der Stratosphäre zwischen 20 und 30 km Höhe ausbildet. Dieses Band wird daher arktischer beziehungsweise antarktischer stratosphärischer Strahlstrom genannt. Im Sommer findet sich in der Stratosphäre dagegen im Bereich der Tropen ein östliches Strahlstromband in etwa 15 bis 50 km Höhe. Dieser Jetstream wird tropischer (TJ) oder äquatorialer Jetstream (AEJ) genannt. Würde der Wind im Strömungssystem einer andauernden geostrophischen Komponente unterliegen, würde es kaum zu Veränderungen in der Witterung kommen. In der Realität wirken Gradientkraft und Coriolis-Kraft aufgrund des Trägheitsmoments in der Luftströmung etwas verzögert, sodass es zu einer ageostrophischen Komponente im Windfeld der freien Atmosphäre kommt. Ageostrophische Strömungen, die nicht parallel zu den Isobaren, sondern in einem spitzen Winkel zu ihnen verlaufen, treten vor allem in der bodennahen Reibungsschicht auf. Rasche Veränderungen des Luftdrucks oder des Wärmehaushalts in der Hochatmosphäre führen somit ständig zur Einlagerung ageostrophischer Komponenten in die Windströmungen. Die Folge sind Divergenzen und Konvergenzen im Strömungsverhalten. Eine Konvergenz führt grundsätzlich zu Massenzuwachs in einem Luftvolumen, da mehr Masse einströmt als hinaus. Eine Konvergenz am Boden führt zu Hebungsvorgängen in der Atmosphäre und zu einer Divergenz in der Höhe, wo dann mehr Masse heraus- als hineinströmt. Eine sehr bekannte Konvergenzzone ist die Innertropische Konvergenz (ITC), die uns noch später bei der Beschreibung der allgemeinen atmosphärischen Zirkulation begegnen wird. Eine Divergenz am Boden führt umgekehrt zu Absinkbewegungen in der Atmosphäre und folglich zu einer Konvergenz in der Höhe. Eine weitere wesentliche Größe für die Dynamik von Luftteilchen in der Atmosphäre ist ihre Drehbewegung um eine vertikale Achse. Diese wird durch die Wirbelgröße, auch Drehimpuls oder Vorticity genannt, beschrieben. Man unterscheidet die absolute Vorticity (η), welche die Drehbewegung meint, die ein Luftteilchen mit der rotierenden Erde ausführt, und die relative Vorticity (ζ), welche die Drehbewegung eines Luftteilchens um seine Achse relativ zur Erdoberfläche beschreibt. Die relative Vorticity ist immer auch Bestandteil der absoluten Vorticity.
107
2.9 Dynamik der Atmosphäre
Ryd-Scherhag-Effekt Der Ryd-Scherhag-Effekt beschreibt das Verhalten von Luftströmungen in Bereichen mit zu- oder abnehmenden Luftdruckgradienten. Aufgrund der Massenträgheit wird eine geostrophische Strömung in einem Bereich mit sich änderndem Luftdruckgradienten erst zeitverzögert erreicht. Dadurch strömt die Luft eine gewisse Zeit nicht parallel zu den Isobaren. Luft kann daher entsprechend des Luftdruckgefälles zum tiefen Luftdruck hin, aber auch entgegen dem Luftdruckgefälle zum hohen Luftdruck hin verlagert werden. Dieser Prozess spielt sich vor allem in der mittleren und höheren Troposphäre ab. Bodennah ergibt sich als Folge der Abfuhr oder Zufuhr von Luft in der Höhe ein tiefer oder ein hoher Bodenluftdruck mit daraus resultierenden Tendenzen zur Konvergenz (Tief) oder Divergenz (Hoch) der Bodenströmung. Bei bestimmten atmosphärischen Bedingungen entwickeln sich daraus die dynamischen Hoch- und Tiefdruckgebiete der planetarischen Frontalzone ( Abschnitt 2.17). Auf der West- bzw. Ostflanke des Tiefdrucktrogs kommt es zur Konvergenz beziehungsweise
Divergenz der Isobaren. Abbildung 2.16 zeigt den Ryd-Scherhag-Effekt, der in dieser Situation entsteht. Ein in die Konvergenzzone einströmendes Luftpaket hat eine Geschwindigkeit, die eigentlich für den dort herrschenden Druckgradienten zu klein ist. Da die Coriolis-Kraft von der Geschwindigkeit abhängig ist, das Luftpaket aber auch einer gewissen Massenträgheit unterliegt, kann das Paket nicht so schnell beschleunigt werden, dass die steigende Ablenkung den zu hohen Gradienten ausgleicht. Es erfolgt eine Ablenkung in Richtung des Gradienten, also zum niedrigeren Luftdruck. Analog dazu gilt im Bereich der Divergenz der Höhenisobaren, dass aufgrund der nun stattgefundenen Beschleunigung die für den dort herrschenden Gradienten zu hohe Coriolis-Kraft eine Ablenkung in Richtung des Hochdrucks, also entgegen dem Druckgradienten erfolgt. Grundsätzlich findet also stets im Bereich konvergierender Höhenisobaren ein Massentransport zum niedrigeren, im Bereich divergierender Isobaren ein Transport zum höheren Luftdruck statt.
T
T 485
485 G’ 490
G’
V’ G
495
V
490
B
B
495
V’’
A 500
500
A’’
A’
505
505 H
H
en Diverg
z a
z
Delt
Ko Strahlstrom Einzugsgebiet nver gen
300-hPa-Fläch e
H
T Erdoberfläche
2.16 Zusammenwirken von Coriolis-Beschleunigung und relativer Vorticity in der Strahlströmung, Konvergenz und Divergenz der Isobaren im Bereich des Strahlstroms. H = Hochdruck, T = Tiefdruck, G = Gradientkraft, A = Corioliskraft, B, V = resultierender Wind (nach Bender 2001).
108
In der atmosphärischen Zirkulation treten Drehimpuls und Coriolis-Beschleunigung als Kontrahenten auf. Der Drehimpuls nimmt bei Zunahme der Coriolis-Beschleunigung ab und bei ihrer Abnahme entsprechend zu. Dies bedingt, dass bei zyklonaler Krümmung einer Strahlströmung die Coriolis-Beschleunigung kleiner ist als die relative Vorticity und dass bei antizyklonaler Krümmung der Strömung die Coriolis-Beschleunigung stärker als die relative Vorticity wirkt. Als Konsequenz ergibt sich für Luftmassenverlagerungen in Richtung Äquator eine Zunahme der relativen Vorticity, welche die Ausprägung von Hochdruckgebieten am Boden unterstützt. Bei Luftmassenverlagerungen in Richtung der Pole hingegen wird durch die zunehmende CoriolisBeschleunigung die Ausbildung tiefen Luftdrucks am Boden verstärkt. Das Zusammenspiel von Drehimpuls und Coriolis-Beschleunigung ist für das Verständnis der Energieverlagerung in den Zonen der mäandrierenden Strahlströme der höheren Troposphäre innerhalb der atmosphärischen Zirkulation von großer Bedeutung. Es lässt sich in folgender Formel (Vorticity-Gleichung) zusammenfassen: absolute Vorticity (η) = ζ + C = konstant. Abbildung 2.16 fasst das Zusammenspiel von relativer Vorticity (ζ) und Coriolis-Beschleunigung (C) mit den zugehörigen Druckfeldern und entsprechender Konvergenz/Divergenz-Ausprägung zusammen. Eng verbunden mit dieser Betrachtung von Konvergenz und Divergenz ist die von Ryd, V.H. entwickelte als Erster 1927 eine Vorstellung über die Luftdruckänderungen im Bereich einer Frontalzone. Vorstellung der Druckverteilung wurde später von Richard Scherhag weiter entwickelt (Ryd-Scherhag-Effekt).
Scherhag, Richard Theodor Anton (1907– 1970), deutscher Meteorologe; 1945–52 Direktor der Abteilung Synoptik im Zentralamt für Wetterdienst; seit 1952 Professor und Direktor des Instituts für Meteorologie und Geophysik an der Freien Universität in Berlin; entdeckte das Berliner Phänomen der Stratosphärenerwärmung, entwickelte Verfahren und Karten der Wettervorhersage (Scherhag-Divergenzregeln).
2 Basiswissen und Grundgesetze der Klimatologie
V. H. Ryd und R. Scherhag entwickelte Divergenztheorie (Zyklonentheorie). Nach dieser Theorie entwickeln sich der Druckabfall und damit die Zyklogenese am Boden unterhalb des in der Höhenströmung vorhandenen Deltas einer Frontalzone. Als physikalische Ursache des Druckabfalls wird der Ryd-Scherhag Effekt angesehen.
2.9.2 Zyklone und Antizyklone als Beispiel der atmosphärischen Dynamik in der Westwinddrift Für die großräumige Struktur der Westwindzone sind vor allem die quasi-barotropen, langwelligen Rossby-Wellen (▶ Abschnitt 2.10.1) bestimmend. Initialstörungen dieser Wellen führen immer wieder in bestimmten geographischen Regionen zur Ausbildung von Zyklonen und ganzen Zyklonenfamilien. Diese bekannten Gebiete liegen im Nordatlantik bei Island und im Nordpazifik im Bereich der Aleutengruppe. Eine reine barotrope Rossby-Welle könnte aus sich heraus keine Zyklone bilden, da sie ihrer Definition nach stabil ist und in ihr keine Selbstverstärkungsmechanismen wirken. Für die Bildung einer Zyklone ist es aber zwingend erforderlich, dass sich in der Wellenströmung eine Instabilität ereignet, welche eine initial angeregte Wellenauslenkung in eine Richtung weiter verstärkt. Diese Selbstverstärkungseffekte sind aber an barokline Bedingungen in der Atmosphäre gekoppelt. Das Verhalten barokliner Wellen zeigt, dass beim polwärts gerichteten Ast dieser Wellen eine starke Divergenz in der Höhenströmung auftritt, welcher eine schwächere Konvergenz auf Bodenniveau gegenübersteht. Als Folge ergeben sich eine aufwärts gerichtete Vertikalbewegung und ein Luftdruckabfall in diesem Bereich. Die Bildung eines Luftdruckminimums, ein anfängliches Tief, ist eingeleitet. Der weiter sinkende Luftdruck führt zu einer zyklonalen, gegen den Uhrzeigersinn gerichteten Umströmung dieses Minimums. Der entsprechende Vorgang mit umgekehrten Vorzeichen vollzieht sich auf dem äquatorwärts gerichteten Ast der Rossby-Welle: es ergibt sich eine starke Konvergenz der Höhenströmung und eine schwächere Divergenz auf Bodenniveau. Dies
109
2.10 Die allgemeine atmosphärische Zirkulation
K1
v
A W
A"
v
K2
v
v ca. 1000–2000 km
(1)
(2)
W
K2
K1
(3) W
K2
K1
K2 K2
obere Reihe Frontverlauf
Isobaren Frontverlauf
Kaltfront Warmfront Okklusion
}
in Bodennähe
Kaltfront Warmfront
}
in der Höhe
K1 ( T2 < T1 ( K1 ( T2 < T1 (
K1 : abziehender Kaltluftkörper K2 : vorstoßender Kaltluftkörper W : Warmluftkörper
untere Reihe Kaltfront Warmfront
}
im Schnitt
2.17 Stadien der Zyklogenese. Die obere Darstellung stellt eine Aufsicht von „oben“ dar, mit der Lage der Fronten am Boden (2–3 km Höhe) und in der Höhe (etwa 8 km Höhe). In der Phase I handelt es sich um die Initialphase. Es entsteht eine erste Welle, in der warme Luft nach Norden und kalte Luft nach Süden vordringt. Die Richtung der Grundströmung ist von Westen nach Osten (von links nach rechts) gerichtet. Unter der Wirkung der stärker ausgebildeten Divergenz im polwärts gerichteten Ast verstärkt sich die Amplitude der Welle. In Phase II ist die Zyklone im Höhepunkt ihrer Entwicklung. Da die Wanderungsgeschwindigkeit der Kaltluft(-front) aufgrund des größeren Impulsaustausches schneller als die der Warmluft(-front) ist, wird der Warmluftsektor soweit eingeschnürt, bis sich die Zyklone zu einer sogenannten Okklusion entartet und auflöst. Die reale dreidimensionale Luftbewegung ist allerdings extrem kompliziert und kaum schematisch darstellbar.
führt zu einer Absinkbewegung der Luft und damit zu einem Luftdruckanstieg. Es bildet sich ein relatives Luftdruckmaximum, ein Hochdruckgebiet, welches in antizyklonaler Richtung, im Uhrzeigersinn, umströmt wird. Der polwärts gerichtete Ast der Rossby-Halbwelle wird „Rücken“ und der äquatorwärts gerichtete Ast „Trog“ genannt. In Folge dieser Initialstörungen entstehen Rückkopplungsmechanismen, die zu immer größeren Luftdruckunterschieden führen können. Abbildung 2.17 zeigt die Stadien einer Zyklogenese. Ein Zyklonensystem bewirkt einen diffusionsartigen meridionalen Energietransport, der insgesamt einen polwärts gerichteten Energiestrom
ermöglicht. Im Gegensatz zu Zyklonen, deren Lebensdauer durch ihre Dynamik auf einige Tage beschränkt bleibt, können sich Hochdruckgebiete, insbesondere winterliche Hochdruckgebiete, bis zu einigen Wochen halten.
2.10 Die allgemeine atmosphärische Zirkulation Die allgemeine atmosphärische Zirkulation (oder auch planetarische Zirkulation) mit ihren wichtigsten Erscheinungsformen (Westwinddrift, Fron-
110
2 Basiswissen und Grundgesetze der Klimatologie
ten, Zyklonen, Antizyklonen, tropische und subtropische Zirkulation, Ostwindzirkulation über den Polen) wurde schon sehr früh zu einem zentralen Thema der Klimatologie. In diesem Zusammenhang sei auf das schon etwas ältere, aber immer noch aktuelle und gut verständliche Lehrbuch von Palmén und Newton (1969) sowie auf Standardwerke zur atmosphärischen Dynamik von Gill (1982) und Defant und Defant (1958) verwiesen. Vor dem Hintergrund des globalen Klimawandels erfährt das Wissen über die zukünftige (vor allem regionale) Ausprägung der atmosphärischen Zirkulation eine neue Bedeutung und wird den politisch Verantwortlichen helfen, mögliche Anpassungsmaßnahmen finden und bewerten zu können.
p ol are
Ar kt i kf ro
op a
n
us e
T
su
PFJ
bt
ro
p
H
ro .T
ar h l Po oc h
pis
ch e
O
o Tr
p
Je
h
us e pa
oc
t
h en
TJ
p
o btr
Su
Passatinversion
ro bt
en
lle
t
on
H
po
e y-Z
dle
n
ift
Ha
wi
r dd
t ro
STJ
Su
30°
20 0
e
T
3 on 00 50 e 0 l-Z
us
W
t es
re
W
T
Fe r
t
pa
re e la ind o p tw s Po l a r f r O
-J e
po
60°
Frontalzone
O
t
90°
Tr o p
Zunächst soll eine Übersicht über die großen atmosphärischen Zirkulationsmuster gegeben werden. Details und Variationen dieser Normalausprägung der atmosphärischen Zirkulation werden dann in den folgenden Abschnitten zur außertropischen Westwind-Zirkulation, tropischen Passat- und Monsunzirkulation, äquatorialen Zonalzirkulation und zur Ostwindzirkulation über den Polen beschrieben. Entsprechend dem Stockwerkaufbau der Atmosphäre wird zwischen troposphärischer und stratosphärischer Zirkulation unterschieden. Abbildung 2.18 skizziert den „Normalfall“ der atmosphärischen Zirkulation in der Troposphäre. Beiderseits des Äquators herrscht bis etwa 35° nördlicher und südlicher Breite das Windsystem
sa as
OP
Z I TC SO- Pas s at
O
N
H a d le y -Z e lle
t
Subtropenhoch
STJ
0° 2.18 Modellhafter „Normalfall“ der atmosphärischen Zirkulation (verändert nach Klaus 1989). T = Tiefdruckgebiet, H = Hochdruckgebiet, PFJ = Polarfrontjet, STJ = Subtropenjet, TJ = Tropenjet.
2.10 Die allgemeine atmosphärische Zirkulation
des Passats vor. Die Passatwinde wehen in der Regel sehr gleichmäßig, auf der Nordhalbkugel aus Nordost und auf der Südhalbkugel aus Südost. Innerhalb der Äquatorialzone strömen die Passatwinde zusammen. Diese Zone heißt Innertropische Konvergenz (ITC). Der Passat entsteht – vereinfacht ausgedrückt – durch das Aufsteigen erwärmter Luftmassen in der Zone stärkster solarer Einstrahlung. Im Bodenbereich muss deshalb Luft äquatorwärts nachströmen. Durch den Einfluss der Coriolis-Kraft wird diese Luftströmung nach Westen abgelenkt und es entstehen beiderseits des Äquators die entsprechenden Ostwinde (Nordostpassat und Südostpassat). Aufgrund einer thermisch initiierten Zirkulation ist der Luftdruck innerhalb der ITC relativ niedrig und erhöht sich zu den höheren Breiten hin. Im Bereich des subtropischen Hochdruckgürtels sinkt die Luft wieder ab. Die Zone der ITC weicht vom geographischen Äquator mehr oder weniger stark ab. Im unmittelbaren Bereich des geographischen Äquators kann hingegen eine Gegenströmung aus Westen auftreten, die insbesondere über Land stärker ausgeprägt ist. Auch die räumliche Variation der ITC selbst ist über Land wesentlich stärker ausgebildet als über den Ozeanen. An die Passatzone schließt sich zwischen etwa 30° und 35° nördlicher und südlicher Breite die Zone der Rossbreiten an, die von häufiger Windstille geprägt ist und deshalb auch „Kalmenzone“ genannt wird. Der Bodenluftdruck ist in dieser Zone hoch (subtropischer Hochruckgürtel) und die Vertikalkomponente der Windströmung – vergleichbar der in der Passatzone – abwärts gerichtet. Daran anschließend zwischen etwa 35° und 70° nördlicher und südlicher Breite erstreckt sich die planetare Westwindzone (Westwinddrift). In diesem Bereich herrschen Westwinde oder Strömungen mit westlicher Komponente vor. Allerdings ist die Westwindzone bezüglich ihrer Regelmäßigkeit und Stabilität nicht vergleichbar mit der Passatzone. Oftmals ist die mittlere Westwinddrift von Winden verschiedener Richtung überlagert. Charakteristisch für diese Zone sind Wellenbewegungen unterschiedlicher Wellenlänge sowie das Auftreten ausgedehnter Fronten mit Tiefdruckgebieten (Zyklonen) und Hochdruckgebieten (Antizyklonen). Ursächlich lässt sich die Westwinddrift im Bereich der Frontalzone als thermische Windzone verstehen, wel-
111
che durch das Temperaturgefälle zwischen Tropen und polaren Breiten angetrieben wird. Die kalten Luftmassen der hohen Breiten treffen an der Polarfront mit den wärmeren Luftmassen der gemäßigten Zone und der Subtropen zusammen. Im Umfeld der Polarfront ist der Luftdruck relativ niedrig und steigt erst zu den Polen hin wieder an. Erst in den hochpolaren Zonen der Erde (> 65° Breite) bilden sich unter dem Einfluss größerer Eismassen zirkumpolare Ostwinde aus. Diese sind allerdings in der Vertikalen auf eine Schicht bis zu 3 km Höhe begrenzt und werden zudem von Ausläufern der Westwinddrift überlagert. Insbesondere die über den Eismassen der Antarktis zu beobachtenden Ostwinde sind von ihrer Entstehung her katabatische Winde, also kalte, sich über den Eismassen bildende Fallwinde, die unter dem Einfluss der Coriolis-Kraft nach Westen abgelenkt werden. Die Bezeichnungen „Polarfront“, „Polarluft“ oder „Tropicluft“ führen häufig zu Missverständnissen. Man darf sich unter der Polarfront keine gleichmäßig ausgebildete Front vorstellen, welche die Erde in Polnähe umspannt. Vielmehr ist die Polarfront als unregelmäßiges, stark strukturiertes Gebilde zu interpretieren, welches sowohl in sehr hohe Breiten hineinreicht, als auch weit äquatorwärts vorstoßen kann. Ebenso bezeichnet der Begriff „Polarluft“ die gesamte Luft aus relativ hohen Breiten, polwärts der Polarfront, und nicht nur die Luft aus arktischen oder antarktischen Regionen. Der Begriff „Tropicluft“ ist ein weiterer Sammelbegriff für Luftmassen aus niedrigen, überwiegend subtropischen Bereichen. Diese Luftmassen sind von der heißen Äquatorialluft zu unterscheiden. Fasst man das Modell der Zirkulation nach Abbildung 2.18 zusammen, so lassen sich unterschiedliche Zirkulationsgürtel (-systeme) für den mittleren Zustand der atmosphärischen Zirkulation skizzieren. Es ist dies zunächst die in der Zone der Passatwinde, zwischen ITC und subtropischen Hochdruckgürteln ausgeprägte Hadley-Zelle. Die nach dem englischen Meteorologen George Hadley benannte großräumige Vertikalzirkulation ist durch aufsteigende Luft am Äquator, polwärts strömende Luft in der Höhe, absinkende Luft in den Subtropen (≈ größten Wüstengebiete der Erde), sowie die zum Äquator weisende Meridionalströmung der Passate im Bodenbereich gekennzeichnet. Aller-
112
dings kann diese modellhafte Hadley-Zirkulation im Hochsommer mehr oder weniger schwach sein beziehungsweise sogar ausbleiben (ausführlich zur Hadley-Zelle siehe Henry F. Diaz und Raymond S. Bradley 2007). Ein direktes Pendant der Hadley-Zirkulation ist in der Westwinddrift nicht zu finden. Die in Abbildung 2.18 dargestellte nach dem amerikanischen Meteorologen William Ferrel benannte Ferrel-Zelle (FerrelZirkulation) ist nicht als Zelle existent, sondern nur als eine im Breitenkreismittel in einem Meridionalschnitt der mittleren Breiten auftretende Zirkulation (Mittelung über viele Einzelprozesse) zu verstehen. Im Sommer ist der horizontale Temperaturgradient in der Nordhemisphäre nur sehr schwach, sodass die meridionalen Zirkulationsmuster auch nur recht schwach ausgeprägt sind. Vor allem die Ferrel-Zelle, aber auch die Hadley-Zelle sind in den Sommermonaten beide nur schwach ausgebildet. Der Breitenbereich zwischen 35° und 70° ist durch ein starkes meridionales Temperaturgefälle (etwa 3–10 K pro 1 000 km) gekennzeichnet. Im Zusammenwirken mit der CoriolisKraft führt dies zur Ausbildung eines westwärts gerichteten thermischen Windes (Zone der Westwinddrift). Großräumige wellenförmige Störungen in der Westwinddrift (barotrope und barokline Wellen, Rossby-Wellen) führen zur Ausbildung von Tief- und Hochdruckgebieten (Zyklogenese), die das Wettergeschehen in dieser Zone bestimmen. Obwohl die Ferrel-Zelle als reale, permanente Zirkulationsform nicht existiert, können ihre Charakteristika wie folgt zusammengefasst werden: absinkende Luft auf der Subtropenseite – polwärts fließende Luft im Bodenniveau – aufsteigende Luft auf der Subpolarseite – äquatorwärts fließende Luft im Höhenniveau. Tendenziell bilden sich daher Tief-
Hadley, George (1685–1768), englischer Meteorologe; verantwortlich für die Meteorologischen Beobachtungen der Royal Society in London. Aufbauend auf Gedanken von E. Halley zur Erklärung der Passatwinde (atmosphärische Zirkulation) lieferte er 1735 eine schlüssige Erklärung des Phänomens unter Berücksichtigung der (allerdings erst später so benannten) Coriolis-Kraft; nach ihm ist die Hadley-Zirkulation benannt.
2 Basiswissen und Grundgesetze der Klimatologie
Ferrel, William (1817–1891), amerikanischer Meteorologe; bedeutende Beiträge zur Erforschung der physikalischen Grundlagen von atmosphärischen und ozeanischen Strömungen, insbesondere der planetarischen Zirkulation (Zirkulation der Atmosphäre); untersuchte den Einfluss der Erdrotation auf die Bewegungsrichtung der verschiedenen Winde. Die nach ihm benannte FerrelZelle (Ferrel-Zirkulation) beschreibt die mittleren vertikalen und meridionalen Zirkulationsverhältnisse in den mittleren Breiten der Erde.
druckgebiete eher in der Nähe der Polarfront und neigen dazu, polwärts zu driften. Hochdruckgebiete entstehen eher im Bereich des subtropischen Hochdruckgürtels mit der Tendenz, auch dorthin zu driften. Die genannten Zirkulationssysteme werden durch die geographische Verteilung der Landund Wassermassen beeinflusst und sind daher auf der Südhalbkugel deutlicher ausgeprägt als auf der Nordhalbkugel. Während die ITC zunächst eine Barriere für den meridionalen Luftaustausch darstellt, trägt ihre jahreszeitliche Verlagerung wesentlich zur Vermischung der Luftmassen beider Hemisphären bei. Außerdem ist die ITC Ursache für die in den Tropen und Subtropen zu bestimmten Jahreszeiten auftretenden Monsunregen. Die vertikale Zirkulation kann insbesondere im Bereich der Tropopausenbrüche räumlich eng begrenzt wirken. Es sind dies die Bereiche zeitlich sehr variabler Zonen mit hoher Windgeschwindigkeit. Hier ist im Übergangsbereich der Tropopausenlage Tropen – Subtropen/ gemäßigte Breiten der Subtropenjetstream (STJ) zu nennen. Weiterhin ist ein markanter Tropopausenbruch im Bereich des Polarjetstreams (PFJ) zu erkennen, der die polare Tropopausenlage von der gemäßigten Breiten abgrenzt. Die stratosphärische Zirkulation ist aufgrund ihrer stabilen Schichtung wesentlich geordneter als die troposphärische Zirkulation. Die unterschiedliche solare Einstrahlung an Sommer- und Winterpol in Verbindung mit der stratosphärischen Strahlungsheizung in der Hochatmosphäre führt zu großen hemisphärischen Unterschieden. Im Sommer liegen über der Westwinddrift der Troposphäre stratosphärische zirkumpolare Ostwinde. Auf der jeweiligen Winterhalbkugel herrscht hingegen auch in der Stratosphäre ein
113
2.10 Die allgemeine atmosphärische Zirkulation
Wie bereits erwähnt, ist die außertropische Westwindzone eher als großräumige thermische Windzone (Frontalzone) aufzufassen, in der warme subtropische Luftmassen mit kalten subpolaren Luftmassen in einer Übergangszone zusammentreffen. Während zwischen den beiden Subtropengürteln die horizontale Temperaturänderung mit der geographischen Breite eher gering ist, finden wir polwärts der Subtropengürtel wesentlich größere horizontale Temperaturgradienten. Im Mittel bilden sich horizontale Temperaturgradienten von etwa 3 bis 10 K pro 1 000 km Horizontaldistanz aus. Aufgrund der meridionalen Temperaturabnahme und der damit verbundenen Druckabnahme vom Höhenhoch am Äquator zum Kältetief über den Polarzonen, ergibt sich eine mittlere, isobarenparallele Strömung aus westlicher Richtung (Westwind). Im Bereich des stärksten Temperatur- und Druckgefälles, der sogenannten Frontalzone (Zone zwischen 40° und 65° Breite unmittelbar unterhalb der Tropopause), ist die Windgeschwindigkeit am höchsten. In dieser 100 bis 200 km breiten Zone sind Druck- und Temperaturflächen nicht mehr barotrop (gleichgeschichtet), sondern hier schneiden sich Flächen unterschiedlicher Dichte und Temperatur und bilden eine barokline Instabilität (Abbildung 2.19). Unter Baroklinität versteht man, dass Flächen gleichen Drucks (Isobaren) und gleicher Tem-
15
200
300 –57,9° –52,5°
20
25 30 40 50
50 40
5° –5
PJ
500 700 800 900 1000 60°N
55°
12
–52,5°
10 8
–30°
6
–20°
–30°
600
–60°
–50° –40°
–50° –40°
400
(km) 14
35 30 25 m/s –57,5° –55°
5 m/s
2.10.1 Die außertropische Westwind-Zirkulation
(hPa) 150
s m/ 10
(thermischer) Westwind vor. Von großer Bedeutung ist der stratosphärische polare Winterwirbel (polar vortex), der vor allem über der Antarktis sehr stabil ist. Er ist für die Bildung des stratosphärischen Ozons und somit für die zeitlichräumliche Ausprägung des Ozonlochs entscheidend. Allgemein nimmt die Windgeschwindigkeit in der unteren Stratosphäre mit der Höhe ab, erst in der hohen Stratosphäre steigt sie wieder an und erreicht in der Mesosphäre Geschwindigkeiten von bis zu 350 km/h. Nach dieser allgemeinen Übersicht der globalen Zirkulationsmuster soll in den folgenden Abschnitten etwas genauer auf die einzelnen Zirkulationszonen eingegangen werden.
–20°
°
–10
4
–10° 0°
40° 50° 45° geographische Breite
/s 5m
35°
2 +10°
0 30°N
2.19 Ausbildung der Frontalzone im Wind- und Temperaturfeld der mittleren Breiten (verändert nach Palmén und Newton 1969). Pj = Polarjet
peratur (Isothermen) nicht parallel zueinander liegen, sondern sich schneiden. Auf einer Temperaturfläche existiert daher ein Druckgradient und auf einer Druckfläche ein Temperaturgradient. Das Gegenstück zur Baroklinität ist die Barotropie. Barotrop nennt man einen Zustand in der Atmosphäre, bei dem die Flächen gleicher Dichte, gleichen Luftdrucks und gleicher Temperatur parallel zueinander verlaufen. Jedem Luftdruckwert sind dann genaue Werte der Temperatur und Luftdichte zugeordnet. Die Neigung der Luftdruckflächen ist in allen Höhenbereichen der Atmosphäre identisch. Es ändern sich somit mit zunehmender Höhe weder Windrichtung noch Windgeschwindigkeit. Da es bei einer barotropen Atmosphäre keine Schnittpunkte zwischen Isothermen und Isobaren gibt, kann sich keine Temperaturadvektion ereignen, ebenso wenig kann es zur Zyklogenese beziehungsweise Antizyklogenese kommen. Die thermodynamische Energieumwandlung in der Atmosphäre wird damit unterbunden. In der Realität kommt es jedoch durchaus zu Instabilitäten in der zonalen Grundströmung einer barotropen Atmosphäre. Diese kleinen Störungen können zu immer weiter anwachsenden barotropen Wellen führen, die sich schließlich abschnüren können (cut off process) oder sogar zur Bildung blockierender Hochdruckgebiete (blocking highs) neigen (Abbildung 2.20). Die starke Temperatur- und Druckabnahme in der Frontalzone führt dazu, dass der Polar-
114
2 Basiswissen und Grundgesetze der Klimatologie
Barotrope Wellen – Rossby-Wellen In einer barotropen Atmosphäre, in der es keinen Reibungseinfluss und keine Divergenzen gibt, muss nach der Theorie der Vorticity-Gleichung die Summe aus relativer Vorticity und Coriolis-Kraft (= absolute Vorticity) bei der Bewegung eines Luftteilchens immer gleich bleiben. In einer Wellenbewegung durchläuft ein Luftteilchen einen Wellenberg immer mit einer antizyklonalen (-) relativen Vorticity und ein Wellental mit einer zyklonalen (+) relativen Vorticity. Wenn nach der Vorticity-Gleichung die absolute Vorticity gleich bleiben soll, so muss sich die Coriolis-Kraft entgegegesetzt verändern. Beim Durchlauf eines Wellenbergs muss die Coriolis-Kraft in dem Maße zunehmen, wie die relative Vorticity abnimmt. Im Wellental hingegen (in südlicheren Breiten) muss die Coriolis-Kraft in dem Maße abnehmen, wie die relative Vorticity zunimmt. In der Atmosphäre ist diese Situation am ehesten für lange Wellen erfüllt, die weit nach Norden und Süden ausschwingen. Der schwedische Meteorologe Carl-Gustaf Rossby untersuchte diese langen planetarischen
Trog
Rüc ken
• Tendenziell setzt die Wellenbildung bevorzugt cut-off effect
c
Rossby, Carl-Gustaf Arvid (1898–1957), schwedischer Ozeanograph und Meteorologe; bedeutende Arbeiten über Meereswellen sowie über Wirbelphänomene und Turbulenzvorgänge in der Atmosphäre; nach ihm benannt sind die Rossby-Wellen in der Ozeanographie bzw. Meteorologie.
dung der Mäanderströmung ist ein meridionaler Temperaturgradient von 6 °C auf 1 000 km Horizontaldistanz im 500 hPa-Niveau (5 000 m Höhe). In diesem Fall neigt die zonal gestreckte Westströmung zur Mäanderbildung. Wichtige Eigenschaften dieser die Erde umspannenden langen Wellen sind:
b Trog
a
Wellen und stellte die nach ihm benannte Rossby-Formel auf, nach der sich die Verlagerungsgeschwindigkeit dieser Wellen berechnen lässt. Die Rossby-Formel besagt, dass die Verlagerungsgeschwindigkeit der zonalen Strömungsgeschwindigkeit entspricht, vermindert um einen Betrag, der proportional dem Quadrat der Wellenlänge und der meridionalen Änderung der Coriolis-Kraft ist. Damit lässt sich die Wellenlänge bei vorgegebener Zonalgeschwindigkeit und geographischer Breite (Stärke der Coriolis-Kraft) ermitteln. So beträgt die mittlere Wellenlänge in 45° Breite zwischen 5 000 und 6 000 km.
d
2.20 Beispiele der Westwindzirkulation (Quelle: Gebhardt Glaser et al. 2007).
frontjetstream (PFJ) zur Absicherung seiner Stabilität nicht fortwährend zonal strömt, sondern die Erde in mäandrierender Form großräumiger Wellen umkreist. Betrachtet man eine polzentrierte Wetterkarte, so lassen sich meistens drei bis fünf lange Wellen als globales Wellenmuster erkennen. Ein wichtiges Kriterium für die Bil-
an bestimmten Orten auf der Erde ein. Diese Orte werden durch Gebirgshindernisse in der Zonalströmung (z. B. Rocky Mountains) und durch Gestalt und Lage der Kontinente bestimmt. • Die Polarfront schwingt oftmals äquator- und polwärts aus. Die langen Rossby-Wellen sind somit nicht vergleichbar mit gleichmäßigen Wellen (z. B. im Sinne von Sinus-Wellen). • Die Geschwindigkeit der mit den großen Wellen wandernden Hoch- und Tiefdruckgebiete ist in allen Höhen der Troposphäre identisch. Im Gegensatz dazu nimmt die Windgeschwindigkeit aufgrund der starken Baroklinität in der Westwindzone und insbesondere in der Polarfront mit zunehmender Höhe zu.
115
2.10 Die allgemeine atmosphärische Zirkulation
Die letztgenannte Eigenschaft hängt mit der Strömungssituation in 5 bis 6 km Höhe zusammen. In diesem Höhenintervall ist die Strömung nahezu divergenzfrei. Man spricht deshalb von einer quasi-barotropen Schicht. In diesem Sinne hanZunahme Gradientkraft
Abnahme Gradientkraft
T Kon
G W
Div
G>C
C >G
C Div
Kon
H Delta: divergierende Isobaren
Einzugsgebiet: konvergierende Isobaren
a Divergenz
Konvergenz
aufsteigend
absteigend
Konvergenz
Divergenz
T
H
b
2.21 Mittlere Verteilung von horizontalen Vergenzen und Stärke der Vertikalbewegung in der Troposphäre. Links: Hebung mit Konvergenz am Boden und Divergenz in der Höhe. Rechts: Absinken mit Konvergenz in der Höhe und Divergenz am Boden (Quelle: Gebhardt et al. 2007). G
KON
G
delt es sich bei den Rossby-Wellen um barotrope Wellen. Unterhalb und oberhalb dieser Schicht sind bei barokliner Schichtung Konvergenzen und Divergenzen zu finden, die für die Ausbildung der Zyklogenese ausschlaggebend sind. Dabei wirken zwei Prozesse zusammen: Zum einen muss der Bodenluftdruck fallen (Ausbildung eines Bodentiefs), und zum anderen bedarf es der Existenz eines zyklonalen Windfeldes. Für den erstgenannten Prozess ist das Vorhandensein geschlossener Isallobaren (Linien gleicher Luftdrucktendenz) eine notwendige Bedingung. Nach der Drucktendenzgleichung von Margules kann sich Luftdruck nur durch horizontale Vergenzen (Konvergenzen/Divergenzen) ageostrophischer Luftmassenströmungen ändern. Bei der Zyklogenese führt eine horizontale Divergenz in der Höhenströmung zu einem Druckabfall. Ist hingegen der ageostrophische Luftmassenstrom konvergent, so steigt der Druck an. Dies bedeutet im Umkehrschluss, dass ein rein geostrophisches Windfeld praktisch keine Druckänderungen erzeugen kann. Im groben Skalenbereich beobachtet man bei polwärtigen Strömungen einen Druckanstieg und bei äquatorwärtigen Strömungen einen Druckabfall (sogenannter Beta-Effekt). Vergenzen in der Höhenströmung verursachen also die grundlegenden Wetterausprägungen in der unteren Troposphäre: Horizontale Divergenzbereiche in der Höhenströmung erzeugen Luftdruckabfall und zyklonale Wirbel mit einströmender Luftbewegung am Boden (Abbildungen 2.16 und 2.22). Es ergibt sich dabei ein vertikaler Luftstrom nach oben in Richtung zum
KON
C
C
C G
f + Df
f
f f - Df
a
b
f - Df
DIV
f
c
f + Df
DIV
C G
G
f
d
f + Df
f
f
e
C f + Df
C
f
f - Df
G
2.22 Skizze zur Erklärung der ageostrophischen Bewegung innerhalb einer baroklinen Welle. Luftpakete durchfließen, relativ betrachtet, die stationären Druckgebilde und passen sich über Horizontalvergenzen der Potenzialkrümmung an.
116
Margules, Max (1856—1920), österreichischer Meteorologe; 1885–1906 an der Zentralanstalt für Meteorologie beschäftigt, ab 1906 Privatgelehrter; beschäftigte sich v.a. mit atmosphärischen Gezeiten und stellte eine Theorie zur Polarfront und über Luftdruckwellen auf.
Strahlstrom. Eine Konvergenz in der Höhenströmung führt folglich zu absinkenden Luftbewegungen von der Hochatmosphäre in Richtung Boden. Dabei steigt der Luftdruck am Boden an (Antizyklone). Die beschriebenen Druckgebiete wandern am Erdboden mit dem Höhenstrahlstrom. Die sich verlagernden Zyklonen haben dabei allgemein eine polwärts gerichtete Tendenz mit einem Warmluftkeil. Die Antizyklonen weisen eine äquatorwärts gerichtete Tendenz mit einem Kaltluftkeil auf. Beide Druckgebietstypen (Zyklonen und Antizyklonen) bewirken einen enormen meridionalen Wärmetransport aus den Überschussgebieten der niederen Breiten in die Defizitgebiete der höheren Breiten. Der Wechsel dieser Druckgebiete bestimmt den Witterungsablauf in der Westwindzone der mittleren Breiten und führt zur Ausprägung verschiedener Großwetterlagen. Die tägliche Beobachtung des Wetters in unseren Breiten zeigt, dass Winde mit westlicher Komponente (Westlagen: z. B. Wz, Wa, Ww) recht häufig sind, aber alle anderen Windrichtungen auch vorkommen (z. B. anhaltende Ostwinde), was die große Variabilität innerhalb der Westwinddrift unterstreicht. Auch unter den Wetterlagen sind die mit stärker zonalem von denen mit stärker meridionalem Charakter zu unterscheiden. Die meridional gerichteten Wetterlagen mit ihren warmen Hochkeilen und Kaltlufttrögen bringen auf ihrer Vorderseite meist Warmluft aus Südwesten heran, wobei dann auf ihrer Rückseite Kaltluft aus der Arktis nach Süden oder Norden vorstößt. Beim meridionalen Zirkulationstyp der Wetterlagen spricht man vom Low-Index-Typ. Die zonale Zirkulationsform wird High-Index Typ genannt. Die von langen Wellen, den so genannten Rossby-Wellen, vorgezeichnete Struktur der Westwinddrift und der Polarfront führen dazu, dass Zyklonen häufig an den gleichen Stellen entstehen. Statistisch markante Entstehungsgebiete finden sich im Nordatlantik um Island und im Nordpazifik um die Aleutengruppe.
2 Basiswissen und Grundgesetze der Klimatologie
2.10.2 Die tropische Passatund Monsunzirkulation Die Passat- und Monsunzirkulation ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation und tritt etwa zwischen 35° Nord und 30° Süd auf. Es handelt sich um großräumige, vertikale Meridionalzirkulationen in der Tropenzone. Ein Ast der Hadley-Zirkulation bildet die Passate (Abbildung 2.18). Im Bereich der äquatorialen Tropenzone wird die Luft aufgrund des hohen Sonnenstands sehr stark erwärmt. Die erwärmte Luft dehnt sich aus, strömt dabei in die Höhe, und der Luftdruck sinkt ab. Die aufsteigende Luft kühlt sich dabei ab, es kommt zu Wolkenbildung und Konvektionsniederschlägen. Diese Niederschläge werden Zenitalregen genannt. Beim Aufsteigen der Luft entsteht eine Sogwirkung am Boden. Es bilden sich Tiefdruckgebiete im Bereich der Äquatorzone – die äquatoriale Tiefdruckrinne. In der Höhe ergibt sich eine Luftströmung nach Norden oder Süden. Dieser Höhenwind wird als Antipassat bezeichnet und weht in Richtung der Wendekreise. Dabei kühlt sich die Luft entlang ihres meridionalen Wegs ab und sinkt. Beim Absinken dieser Luft (Urpassat) erwärmt sie sich. Die in der Passatzone vom Boden aufsteigende Luft kühlt sich hingegen ab. Daraus folgt die Ausprägung zweier Schichten: warme absinkende Luft und darunter vom Boden kalte aufsteigende Luft. Es bildet sich die Passatinversionsschicht aus. Die Höhenlage der Passatinversion steigt zum Äquator hin an und unterbindet den Luftmassenaustausch. Die leichtere warme Luft (PassatOberschicht) kann nicht weiter absinken, weil sich darunter die schwerere kalte Luft (PassatGrundschicht) befindet. Deshalb können sich im Bereich der Passatwinde keine hohen Wolken und keine hohen Niederschläge bilden. Der Hauptteil der absinkenden Luftmassen erreicht bei etwa 30° nördlicher und südlicher Breite den Boden. Dabei erwärmt sich die Luft wieder, und es werden mehrere Luftschichten übereinandergelagert – es entsteht ein Hochdruckgebiet. Diese Hochdruckgebiete bei etwa 30° Nord gehören zum subtropischen Hochdruckgürtel. Ein bekannter Vertreter ist das Azorenhoch. Zwischen dem subtropischen Hochdruckgürtel und der äquatorialen Tiefdruckrinne müssen
117
2.10 Die allgemeine atmosphärische Zirkulation
Ausgleichsströmungen wehen – die Passatwinde. Die Passatwinde strömen am Äquator wieder zusammen (konvergieren). Deshalb wird die äquatoriale Tiefdruckrinne auch Innertropische Konvergenz (ITC) oder Innertropische Konvergenzzone (ITCZ) genannt. Der Passat auf der Nordhalbkugel weht aus Nordosten (Nordostpassat), da er durch die Coriolis-Kraft nach rechts abgelenkt wird. Der Passat auf der Südhalbkugel ist demzufolge ein Südostpassat, da er nach links abgelenkt wird. Passatwinde sind wegen ihrer Entstehung aus dem subtropischen Hochdruckgürtel heraus warme und trockene Winde (trockene Passatzone). Wenn sie aber über Meeresflächen wehen, sind sie warm und gleichzeitig feucht (feuchte Passatzone). Die beiden Passatklimazonen unterscheiden sich vor allem in der Wasserverfügbarkeit und deren Bedeutung für die Vegetation, weshalb man eine trockene und feuchte Passatzone unterscheidet. Die unterschiedlichen Niederschlagsmengen in den Passatzonen sind ursächlich in der Lage innerhalb der atmosphärischen Zirkulation bedingt. Die Ostseiten der Kontinente werden von Passatwinden beeinflusst, die vom Meer kommen und feucht sind. Die zentralen Regionen innerhalb der Passatzone werden dagegen von kontinentalen trockeneren Passatwinden geprägt (z. B. Harmattan in Westafrika). Trockene Passatklimate sind daher um die Wendekreise, an den Westküsten der Kontinente beziehungsweise in den zentralen Bereichen zu finden. Das Temperaturmaximum liegt im Sommer bei gleichzeitig Winter
größeren Temperaturschwankungen. In diesen Regionen gibt es kaum Niederschläge, sodass es zur Ausbildung von Wüsten kommt (Wendekreiswüsten oder Passatwüsten). Regionen der feuchten Passatklimazone können im Winter teilweise in den Einzugsbereich des subtropischen Hochdruckgürtels kommen. Die feuchte Passatzone erstreckt sich um die Wendekreise an den Ostküsten der Kontinente. Auch in der feuchten Passatzone liegt das Maximum der Temperatur im Sommer, jedoch bei wesentlich geringeren Temperaturschwankungen. Die Niederschläge fallen hier überwiegend im Sommer mit einer ausgeprägten Trockenzeit im Winter. Der Wasserhaushalt ist humid bis semi-humid geprägt. Die Vegetationszonen der feuchten Passatzone reichen von Regenwäldern über tropische Feuchtwälder bis hin zu Feuchtsavannen. Der Monsun gehört ebenfalls zur Hadley-Zirkulation. Hauptmerkmal des Monsuns sind sehr richtungsstabile Winde in Verbindung mit einer zweimaligen Umkehr der häufigsten Windrichtung im Verlauf eines Jahres (Windrichtungsänderung um mindestens 120°). Im Nordsommer erwärmt sich der indische Kontinent stark, sodass sich über dem Festland Tiefdruckgebiete bilden – die ITC verlagert sich bis über den Himalaya. Die Südostpassate, die aus dem südlichen subtropischen Hochdruckgürtel nach Norden wehen, werden bei Überquerung des Äquators zu Südwestwinden, da die CoriolisKraft auf der Nordhalbkugel Strömungen nach rechts ablenkt. Dieser Sommermonsun nimmt Sommer
Kältehoch
H Nord-West-Monsun
Nord-Ost-Monsun (Wintermonsun) Wind der tropischen Monsunzirkulation 2.23
Die tropische und außertropische Monsunzirkulation.
Hitzetief
T
Süd-Ost-Monsun
Süd-West-Monsun (Sommermonsun) Wind der außertropischen Monsunzirkulation
118
2 Basiswissen und Grundgesetze der Klimatologie
40°
20°
0°
20°
Ausdehnung der tropischen Westwindzone 40°
150°
120°
90°
60°
30°
0°
30°
im Südsommer im Nordsommer 60°
90°
120°
150°
180°
2.24 Tropische Westwindströmung (Monsun) in der unteren Troposphäre. Die gestrichelten, fetten Linien zeigen die Lage der ITC an. (Quelle: Gebhardt et al 2007, verändert nach Flohn 1960).
über dem Indischen Ozean Feuchtigkeit auf. Dies führt über Indien zu kräftigen Niederschlägen. Im Nordwinter verlagert sich die ITC durch die Wanderung des Zenitstands der Sonne auf die Südhalbkugel. Über Ostasien bildet sich gleichzeitig ein Kältehoch, da der Kontinent stark auskühlt und die kalte Luft zu einer absinkenden Bewegung gezwungen wird. Wegen dieser Konstellation der Luftdruckgebiete wehen Nordostwinde über Indien und dem Indischen Ozean zum Äquator und zur ITC. Der Wintermonsun, der kühl und trocken ist, entspricht dem Nordostpassat. Der Grund für die Monsunzirkulation über Indien liegt in der unterschiedlichen Land-MeerVerteilung und der damit verbundenen extremen Nordverlagerung der ITC. Auf Monsunwinde beziehungsweise monsunähnliche Winde trifft man außer in Indien noch in Westafrika (Oberguinea), Südamerika (Brasilien) und Nordaustralien. Neben den beschriebenen tropischen Monsunen gibt es noch die außertropischen Monsune. Abbildung 2.24 zeigt die Verteilung der tropischen Westwindströmung (Monsun) in der unteren Troposphäre.
2.10.3 Die äquatoriale Zonaloder Walker-Zirkulation Die äquatoriale Zonalzirkulation ist benannt nach dem englischen Meteorologen Sir Gilbert T. Walker, der in den 1920er-Jahren eine Korrelation zwischen hohem Luftdruck über dem Ostpazifik
und niedrigem Luftdruck über dem Westpazifik (Southern Oscillation) entdeckte. Die Walker-Zirkulation ist von zonalem Charakter und erstreckt sich unmittelbar am Äquator über den warmen Festlandsgebieten und den Kaltwasserbereichen der Ozeane. Auf sie wirkt die Coriolis-Kraft nicht, da sie sich direkt über dem Äquator befindet. Die Walker-Zirkulation ist mitverantwortlich für die Klimaphänomene El Niño und La Niña. Bei Klimaphänomenen wie El Niño vor den Küsten Perus und Ecuadors oder seinem Pendant La Niña im Indischen Ozean wird die WalkerZelle über dem betroffenen Ozean abgeschwächt oder kehrt sich sogar um. Aus dieser Umkehr ergeben sich große Wetteranomalien in den betroffenen Gebieten wie Dürren (im Westpazifik) oder Überschwemmungen (im Ostpazifik). Die zonale Walker-Zirkulation ist der meridionalen Hadley-Zirkulation überlagert. Im westlichen Indischen Ozean ist sie weniger ausgeprägt. Hervorgerufen wird sie durch die warmen Meeresströmungen vor den Ostküsten und den kalten vor den Westküsten der Landmassen. Über den wärmeren Festlandsgebieten herrscht relativ niedriger Luftdruck, sodass die über den Meeren mit Wasserdampf angereicherte Luft dem Druckgradienten folgend auf die Kontinente strömt und dort in niederschlagswirksame Konvektion überführt wird. Die Abbildung 2.25 veranschaulicht die Strömungssituation der äquatorialen Zonalströmung. Als eigentliche Walker-Zelle wird die Strömung im tropischen Pazifik benannt. Sie ist ursächlich bedingt durch die unterschiedliche Oberflächentemperatur des Ozeans. Im östlichen
119
2.10 Die allgemeine atmosphärische Zirkulation
Atlantik
90°W
0° S-Amerika
2.25
Indik
Afrika
Pazifik
90°O Malaiischer Archipel
180°O
90°W S-Amerika
Die äquatoriale Zonalströmung (Quelle: Gebhardt et al. 2007).
Walker, Sir Gilbert Thomas ( 1868–1958), englischer Physiker und Statistiker; bekannt für seine Beschreibung der nach ihm benannten Zirkulation über dem tropischen Pazifik. Die Walker-Zirkulation stellt eine thermisch direkte Zirkulation dar. Ihr sind quasiperiodische Änderungen überlagert, die man Southern Oscillation nennt.
Pazifik kommt es aufgrund des kalten Humboldtstroms zu verhältnismäßig niedrigen Wassertemperaturen. Hier kühlt die Luft ab und wird zum Absinken im Bereich eines Hochdruckgebiets veranlasst. Im indonesischen Raum steht dieser Situation ein Gebiet mit sehr warmer Wasseroberfläche gegenüber. Hier erwärmt sich die Luft, diese wird zum Aufsteigen gezwungen, und es bildet sich ein Tiefdruckgebiet. Die Zirkulation schließt sich am Boden durch eine Ostströmung, die Passate. In größeren Höhen herrscht hingegen eine westliche Strömung. Die Walker-Zirkulation stellt somit eine thermische, direkte Zirkulation dar, die von quasi-periodischen Änderungen überlagert wird (▶ Abschnitt 2.11).
2.10.4 Die Ostwindzirkulation über den Polen Die polaren Regionen der Erde sind Kältezonen, die aufgrund des flachen Sonnenstands nur 40 % der Strahlungsleistung am Äquator aufweisen. Andererseits beziehen die polaren Gebiete im Sommerhalbjahr (Polartag) ganztägig und während des Winterhalbjahrs (Polarnacht) überhaupt keine Sonnenstrahlung. Ergebnis dieser Kons-
tellation ist ein ausgeprägtes thermisches Jahreszeitenklima, das durch die unterschiedliche Tag- und Nachtlänge zusätzlich akzentuiert wird. Insgesamt liegen in den polaren Gebieten die Temperaturen überwiegend unter dem Gefrierpunkt, und die Niederschläge sind gering. Daraus ergibt sich, dass die Polargebiete der Erde Kältewüsten darstellen und ganzjährig eine negative Wärmebilanz aufweisen. Ausgehend von der außertropischen Tiefdruckzone steigt der Luftdruck in der unteren Troposphäre der Polargebiete polwärts an. Klimatologisch werden die Polargebiete deshalb als polare Hochdruckgebiete bezeichnet. Es findet sich dort ein ganzjährig entwickeltes flaches Polarhoch, das durch eine gut ausgeprägte Inversion in 1 000 bis 2 000 m Höhe von einer Höhenzyklone mit wärmerer Luft überlagert wird. In beiden Polarregionen ergeben sich aus dieser Konstellation Ostwinde. Am Rande der Antarktis liegt die mittlere Häufigkeit dieser Ostwinde bei über 90 %. Westliche Winde kommen hier nur sehr selten im Sommer und im Winter überhaupt nicht vor. Oftmals werden die Ostwinde als Schwerewinde von der Eiskappe herabstürzend stürmisch verstärkt (katabatische Fallwinde). In der Arktis sind diese Ostwinde wesentlich unbeständiger. Im Sommer kann sich über der Arktis sogar ein Tiefdruckgebiet bilden, welches über Spitzbergen für überwiegend westliche Winde sorgt. Ein ausdrückliches Polarhoch ist auf der Nordhalbkugel also immer nur eine vorübergehende Erscheinung. In der Arktis verläuft die Windgrenze zwischen vorherrschend östlichen und westlichen Winden südlich von Island und schwenkt von dort längs der Packeisgrenze nach Ost-Nord-Ost zum Kap Tscheljuskin. Grönland liegt zwar innerhalb der Ostwindzone, doch beeinflussen aufgrund der Größe der Eis-
120
massen überwiegend die katabatischen Fallwinde die Windrichtung. Sie drücken z. B. die Westwindzone bei Cap Farvel am weitesten nach Süden. Grönland nimmt somit in der Arktis eine Sonderstellung ein und fungiert als „Weichensteller“ für die Zugbahnen der Zyklonen. An der Nordküste Grönlands herrschen meist südwestliche und an der Ostküste nördliche bis nordwestliche Winde vor. Über der kanadischen Arktis wehen überwiegend Nordwinde. Im Nordbereich des Aleutentiefs sind östliche Winde vorherrschend. Je nach Verlagerung des Aleutentiefs treten an der Süd- und Westküste Alaskas sowie im östlichen Sibirien einschließlich der Halbinsel Kamtschatka im Winter nordöstliche bis nordwestliche Winde auf. Im Sommerhalbjahr herrschen hingegen südwestliche bis nordwestliche Winde vor. Die Polarregionen der Arktis und Antarktis unterscheiden sich dennoch sehr in ihrem Witterungsgeschehen. Das bis über 3 500 m mächtige antarktische Inlandeis ist die größte zusammenhängende Eismasse der Erde. Unterlagert ist dieser mächtige Eisschild von einer Festlandsmasse. Der Nordpol hingegen wird von einem großen Seebecken eingenommen, in dem sich Packeismassen ausbilden. Nur Grönland ist mit der Antarktis vergleichbar; das grönländische Inlandeis erreicht Mächtigkeiten bis 3 000 m über Meeresspiegel. Die arktische Meereisfläche ist im Vergleich zur Antarktis von vielen eisfreien Stellen durchsetzt und besitzt eine mittlere Albedo von 50–70 %. Die
2 Basiswissen und Grundgesetze der Klimatologie
arktische Region nimmt sowohl sensible als auch latente Wärme von den umgebenden Meeresflächen auf. In der Antarktis hingegen kommt es aufgrund der durchgängig ausgeprägten Eisdecke zu Albedowerten von 85–95 %. Somit kann die Einstrahlung in der Antarktis kaum in Wärme umgesetzt werden. Darüber hinaus bedingen die geringe Bewölkung und der damit geringere Wasserdampfgehalt in der Atmosphäre sowie das stärkere Rückstrahlungsvermögen des geschlossenen antarktischen Eisschildes, dass der Anteil reflektierter kurzwelliger Strahlung an der Erdoberfläche doppelt so groß ist wie in der Arktis. Die langwellige atmosphärische Gegenstrahlung ist hingegen nur halb so hoch wie in der Arktis. Dies bedeutet, dass die Antarktis in den unteren Atmosphärenschichten wesentlich mehr Energie verliert als die Arktis. Die mittleren Temperaturen liegen in der Arktis mit –20 °C deshalb um etwa 30 °C höher als die mittleren Temperaturen in der Antarktis mit etwa –50 °C im Zentrum. Die Arktis hat mit ihrer Meereseisbedeckung innerhalb eines weit gestreckten Seebeckens also wesentlich andere Charakteristika als die Antarktis. Dies wird uns nochmals im Zusammenhang mit Klimawandel und Global Change in ▶ Teil II beschäftigen. An dieser Stelle sei festgehalten, dass die arktische Region stärker in die Zone barokliner Instabilität hineingreift und somit stärker am horizontalen Energieaustausch der atmosphärischen Zirkulation beteiligt ist als die Antarktis.
Stichpunkte zur Klimaforschung in der Arktis • 1882: Erstes Internationales Polarjahr (IPY), 12 • • • • • • • •
Klimastationen 1893: Friedtjof Nansens Drift mit der FRAM 1912: International Ice Patrol Service 1932: Zweites Internationales Polarjahr (IPY), 94 Klimastationen kaum Auswertung der Daten im 2.Wk. 1950–1991: North Pole Drifting Station Program der Sovietunion 1966: erste Eiskernbohrungen in großer Tiefe 1970er: Erste regelmäßige Satellitenbilder vom Militär und NOAA 1979: Arctic Ocean Buoy Program (IABP) : 30 Bojen
• seit Mitte der 1970er-Jahre flächendeckende Erfassung des Eises mit Radarsatelliten
• seit Anfang der 1990er-Jahre erforschen diverse Satelliten (z.B. ERS, IceSat, etc.) verschiedener Organisationen die Polarregionen für viele Wissenschaftsbereiche. Neue Tiefbohrungen (NGRIP) im grönländischen Eis • 2007/2008 neues Internationales Polarjahr (IPY) • Eine umfassende Darstellung der Polarforschung findet sich im ACSYS Archive, Progress in Understanding the Arctic Climate System 1994-2003, WCRP-117/118(CD)
2.11 Telekonnektionen
Die Erforschung der Polargebiete blickt auf eine lange Tradition zurück und wird insbesondere durch die Ausschreibung des „Internationalen Polarjahres“ (IPY) gefördert.
2.11 Telekonnektionen Die Bezeichnung Telekonnektion wurde 1935 zum ersten Mal in einem Artikel des schwedischen Meteorologen Anders Ångström zur Beschreibung des Klimas der nordatlantischen Region gewählt. Im Jahr 1975 erschien ein wissenschaftlicher Aufsatz der deutschen Meteorologen Hermann Flohn (1912–1997) und Heribert Fleer über Telekonnektionen und ihre Relation zu klimatischen Änderungen im äquatorialen Pazifik. Telekonnektionen können seitdem als Fernwirkungen in der atmosphärischen Zirkulation gedeutet werden, die als klimatische Verbindungen zwischen Anomalien an verschiedenen, räumlich getrennten Orten auftreten. Die Auswirkung einer Anomalie des einen Orts auf die klimatischen Bedingungen des anderen Orts kann von ganz unterschiedlichen Einflüssen abhängen – von der Dauer der Anomalie, ihrer Intensität, der Jahreszeit und von der räumlichen Entfernung zwischen der Anomalie und dem beeinflussten Ort. Telekonnektionen werden auch als periodisch wiederkehrende, beständige, großmaßstäbige und niederfrequente Muster von Druckanomalien und Variabilitäten in der atmosphärischen Zirkulation definiert. Aufgrund der räumlichen Dimensionen der klimatischen Verbindungen müssen viele dieser Muster global angesprochen werden. Während bei einer Oszillation nur eine Region beziehungsweise die Eigenschaft einer Region im Vordergrund steht, werden bei Telekonnektionen
Ångström, Anders Jonas (1814–1874), schwedischer Physiker und Astronom; Mitbegründer der Astrospektroskopie; arbeitete besonders über optische Spektroskopie und Spektralanalyse, Erdmagnetismus und Wärmelehre; zeigte, dass die Wärmeleitfähigkeit proportional zur elektrischen Leitfähigkeit ist; nahm mithilfe eines Beugungsgitters genaue Vermessungen des Sonnensystems vor, indem er 1862 den Wasserstoff und später weitere Elemente identifizierte.
121
zwei räumlich getrennte Regionen im Vergleich zueinander betrachtet. Oszillationen und Telekonnektionen haben an sich nichts mit Klimaänderung zu tun. Es sind Variationen unseres Klimas in seinem natürlichen Zustand. Dabei wird grundsätzlich von einer Balance oder einer Konstanz der mittleren Zustände über einen langen Zeitraum ausgegangen. Unter dem Betrachtungswinkel des Klimawandels und Global Change wird dieses natürliche Gleichgewicht gestört. Telekonnektionen sind Ausdruck für die Komplexität des Klimas und das Zusammenwirken der einzelnen Klimaelemente, wobei die Veränderung nur eines Parameters, z. B. der Temperatur, globale Folgen hat und weiträumig wirken kann. Wie wirkt sich die anbahnende Klimaerwärmung auf vorhandene Telekonnektionen räumlich und zeitlich aus? Müssen wir mit einer „Aufschaukelung“ der Oszillationen rechnen, oder werden die Anomalien eher abgeschwächt? Zur möglichen Beantwortung dieser sehr schwierigen und komplexen Fragen bedarf es eines grundsätzlichen Verständnisses der Telekonnektionen. Um ein raum-zeitliches Verständnis der Telekonnektionen zu gewinnen, werden diese durch Indizes abgebildet, die von verschiedenen Klimadaten-Zentren zur Verfügung gestellt werden. Für die Nordhemisphäre ist beispielhaft das Climate Prediction Center (CPC) der NOAA (Behörde für Ozeanund Atmosphärenüberwachung) in den USA zu nennen, welches die aktuellen Daten sowie Zeitreihen im Internet zur Verfügung stellt . Telekonnektionen als Muster von Druckanomalien und Variabilitäten spiegeln großräumige Zusammenhänge in der Atmosphäre wider. Sie haben Einfluss auf Niederschlag, Temperatur, Sturmbahnen (Zyklonbewegungen) und die Jetstreams. Sie sind damit der Grund für gleichzeitig auftretende abnorme Wetterlagen in weit voneinander entfernten Gebieten. Die Muster durchlaufen immer wieder mehrere Phasen und verändern dabei auch die Stärke ihrer Ausprägung. Aufgrund ihrer Auswirkungen auf das Wetter, ist es nützlich zu wissen, in welcher Phase sich ein Muster gerade befindet. Daher wurden für die wichtigsten Telekonnektionen Indizes ermittelt, die einen Hinweis auf die aktuelle Phase liefern. Zur Berechnung werden im Allgemeinen Messwerte wie z. B. Luftdruck und Temperatur an bestimmten Orten verwendet. Die Berechnungen sind meistens so gewählt, dass die Indi-
122
PN A
EU
NPO
NAO
2 Basiswissen und Grundgesetze der Klimatologie
0°
0°
ENSO
2.26 Wichtige Telekonnektionen und ihre regionale Ausbreitung.
ENSO El Niño-Southern Oscillation NAO North Atlantic Oscillation EU Eurasian Pattern PNA Pacific North American Pattern NPO North Pacific Oscillation
zes gegensätzlicher Ausprägungen verschiedene Vorzeichen haben. Es werden deshalb positive und negative Ausprägungen der Telekonnektionen unterschieden.
2.11.1 ENSO (El Niño – Southern Oscillation) Das ENSO-Phänomen (Abk. für die gekoppelten Phänomene El Niño und Southern Oscillastellt die stärkste natürliche Klimaferntion) wirkung auf Zeitskalen von einigen Monaten bis zu mehreren Jahren dar. Deshalb wird diese sehr gut erforschte Telekonnektion im Folgenden sehr ausführlich dargestellt. El Niño bezeichnet eine großskalige Erwärmung der Deckschicht im tropischen Pazifischen Ozean mit globalen Auswirkungen. Der Auftrieb von kaltem und nährstoffreichem Wasser im östlichen Pazifik wird so stark abgeschwächt, dass es insbesondere vor der südamerikanischen Westküste zu Anomalien der Meeresoberflächentemperatur von bis zu 5 °C Erhöhung kommt. Southern Oscillation (SO) beschreibt die Luftdruckdifferenz zwischen dem östlichen und westlichen Südpazifik und ist Teil des ENSOMechanismus. Die Bezeichnung Southern Oscillation oder Südliche Oszillation wurde von Sir Gilbert Walker erstmals detailliert vorgestellt und benannt. Es ist eine Luftdruckoszillation, die sich in einer Massenverschiebung zwischen der indonesischen äquatorialen Tiefdruckzelle und der südpazifischen Hochdruckzelle wider-
spiegelt (Ost-West-Luftdruckschaukel). Diese ist im Falle einer Abschwächung der subtropischen Hochdruckzelle im ostpazifischen Raum verbunden mit einer Abschwächung der ost-west gerichteten tropischen Walker-Zirkulation, damit auch mit einer Abschwächung der Passate und gleichzeitig mit einer Verstärkung der meridional gerichteten pazifischen Hadley-Zirkulation. Entscheidend ist dabei der Druckunterschied zwischen dem Hochdruckgebiet im südöstlichen Pazifik (als Messwert wird der Bodendruck von Tahiti genommen) und dem asiatisch-australischen Tiefdrucksystem (Messwert von Djakarta, Indonesien). Bei einem steigenden Luftdruck in dem Tiefdruckgebiet über Indonesien fällt der Luftdruck in dem südostpazifischen Hochdruckgebiet und die Differenz zwischen beiden Drucksystemen nimmt ab. Während ENSO im Bereich des tropischen Pazifiks wirkt, scheinen viele weitere Telekonnektionen im Zusammenhang mit ENSO zu stehen. So werden die Variabilitäten des indischen Monsuns und die Hurrikanhäufigkeit in Mittel- und Nordamerika eng mit ENSO in Verbindung gebracht. Der tropische Pazifik weist unter allen Ozeanen die stärksten Schwankungen der Oberflächentemperatur innerhalb von Zeitspannen auf, die von einigen Monaten bis zu mehreren Jahren reichen. Da diese Meeresregion auch das Weltklima besonders stark prägt, wirken sich die Temperaturschwankungen erheblich auf das globale Klimageschehen aus. Heute ist allgemein bekannt, dass El Niño zu einer anormalen Erwärmung des gesamten tropischen Pazifiks führt und Auswirkungen auf die allgemeine Zirkulation der Atmosphäre haben
2.11 Telekonnektionen
123
El Niño Der Name El Niño [spanisch (Christ)kind] wurde im vergangenen Jahrhundert von spanischen Fischern eingeführt und bezeichnet ursprünglich einen alljährlich zur Weihnachtszeit auftretenden warmen Oberflächenstrom, der in einigen Jahren eine Stärke besitzt, dass er das vor der peruanischen Küste vorkommende kalte, nährstoffreiche Tiefenwasser ersetzt. Früher glaubte man, dass es sich bei El Niño nur um ein ozeanisches Ereignis von lokaler Bedeutung handelt. Bis zur Mitte des 20. Jahrhunderts war nur wenig über die Zustände im riesigen Bereich des Pazifischen Ozeans westlich von Peru während der El-NiñoJahre bekannt. Die Klimatologen hatten keinen Grund anzunehmen, dass die küstennahen ElNiño-Erwärmungen etwas anderes als eine lokale Ausprägung der allgemeinen Variabilität des Klimas seien. Diese Ansicht änderte sich erst in den Jahren 1957–1958. In diesem Zeitraum trat nicht nur ein extremes El-Niño-Ereignis auf, sondern es wurde parallel dazu in der betroffenen Region eine umfangreiche Messkampagne im Rahmen des Internationalen Geophysikalischen Jahres (IGY) durchgeführt. Dabei wurde festgestellt, dass sich die vermeintlich küstennahe Erwärmung während eines El-Niño-Ereignisses weit in den Pazifik westlich von Peru ausdehnt und fast ein Viertel des Erdumfangs erfasst. Aus Untersuchungen des norwegischen Meteorologen Jacob Bjerknes über die Erwärmung der Jahre 1957–1958, 1963 und 1965 leitet sich ein regelmäßig wiederkehrendes klimato-
kann. Verbesserte Modelle und das Verständnis der physikalischen Vorgänge erlauben heute eine bessere Vorhersage der weltweiten klimatischen Auswirkungen, was insbesondere für die Landwirtschaft von großer Bedeutung ist. El Niño und die Southern Oscillation (ENSO) beschreiben ein komplex gekoppeltes Zirkulationssystem von Atmosphäre und Ozean im Pazifik. El Niño steht dabei eher für die ozeanischen Zusammenhänge, während die Southern Oscillation die atmosphärischen Zusammenhänge bezeichnet. Der ENSOMechanismus beinhaltet drei Phasen: El Niño, La Niña und die sogenannten normalen Zwischenphasen. Der neutrale Zustand heißt auch Normal-
logisches Ereignis ab. Aus Satellitenaufnahmen und Beobachtungen auf Handelsschiffen konnte abgeleitet werden, dass die großräumige Erwärmung einhergeht mit einer großen Verlagerung der Niederschlagssysteme über dem tropischen Pazifik und großräumigen Änderungen der allgemeinen atmosphärischen Zirkulation. Seine weiteren Studien brachten Jacob Bjerknes dazu, die Erwärmungen im Pazifik sehr genau mit globalen Klimaanomalien zu vergleichen, die bereits 50 Jahre zuvor sein britischer Kollege Sir Gilbert Walker entdeckt hatte. Dieser hatte versucht, eine Methode zu entwickeln, um die jährlichen Schwankungen der indischen Monsunregenfälle vorhersagen zu können. Dabei entdeckte Walker eine langsame Oszillation der Luftdruckdifferenz zwischen Indischem Ozean und tropischem Pazifik. Er nannte sie „Southern Oscillation“.
Bjerknes, Jacob Aall Bonnevie (1897–1975), norwegischer Meteorologe und Ozeanograph, Sohn von V.F.K. Bjerknes; 1918–31 Chef der Wettervorhersage in Bergen; Professor in Bergen und Los Angeles, entdeckte 1918 die Polarfront und den Lebenszyklus von Tiefdruckgebieten; untersuchte als einer der ersten die dreidimensionale Struktur großskaliger Wellen; lieferte neue Ansätze in der praktischen Wettervorhersage; leistete wegweisende Forschungen in der großskaligen und langzeitigen Air-Sea Interaktion.
phase. In „normalen“ Jahren gibt es einen zonalen Temperaturgradienten entlang des tropischen Pazifiks, das heißt im Westen vor der Küste Indonesiens (110°–150° östliche Länge) ist die Wassertemperatur mit rund 28 °C deutlich höher als im Osten vor der Küste Südamerikas (80°–110° westliche Länge). Hier liegt die Wassertemperatur bei etwa 24 °C. Im Westen steigt die Luft über dem sehr warmen Wasser auf, und die hohe Wassertemperatur sorgt auch für eine großräumige Konvergenz der feuchten Luft, was starke Wolkenbildung und ergiebige Niederschläge auslöst. Diesen verdanken die tropischen Regenwälder Indonesiens ihre Existenz (Abbildung 2.27).
124
2 Basiswissen und Grundgesetze der Klimatologie
Datumsgrenze
io
40° N
fornien- Strom Kali
-Sch
Kuro
H
Nördlicher Wendekreis 20° N Hawaii
Nordäquatorialstrom Weihnachts-Insel
rom
T
äquatorialer Gegenstrom
Galápagos-Inseln
Äquator
Hu
Canton
Ostaustrals t
Darwin
Fanning
Südäquatorialstrom
Marquesas-Inseln
mb old t- S
tro m
Lima
Juan-Fernandez-Inseln
Santiago
Tahiti 20° S
H
Südlicher Wendekreis Oster-Insel Sydney 40° S 140°
kalte Meeresströmungen
180°
140°
100°
warme Meeresströmungen
niedrige Meeresoberflächentemperaturen (aufquellendes Tiefenwasser, Niederschlagsneigung gering) hohe Meeresoberflächentemperaturen (tropisch-warmes Oberflächenwasser, konvektives Niederschlagsgeschehen)
H 2.27
persistente Luftdruckgebilde
vorherrschende Windrichtungen
Atmosphärische und ozeanische Zirkulation in einem ENSO-Normaljahr.
Die aufgestiegene Luft wird sowohl meridional als auch zonal abtransportiert. Bei dem meridionalen Transport spricht man von der bereits erwähnten Hadley-Zirkulation und bei dem zonalen Transport von der Walker-Zirkulation. Auf der anderen Seite, über dem kalten östlichen Pazifik, sinken großräumig Luftmassen ab und schaffen trockene Bedingungen. Dies ist die Voraussetzung für die küstennahen Wüsten Südamerikas. Der Grund für die tiefe Wassertemperatur vor der südamerikanischen Küste ist das durch die Passatwinde angetriebene Upwelling, ein Aufquellen von kühlem Tiefenwasser. Diese kühlen Aufquellgebiete sind sowohl vor der Küste Perus sowie entlang des Äquators bis in den Zentralpazifik hinein zu finden. Sie bilden damit einen Teil der kühlen Meeresströmungen, den Humboldt-Strom beziehungsweise Peru-
strom und den Südpazifikstrom. Dank der vielen Nährstoffe, die das kühle Tiefenwasser anreichern, gibt es in den Aufquellgebieten bis zu zehnmal mehr Fischgründe als vor Küsten ohne kaltem Auftriebswasser. In den Hochdruckgebieten des subtropischen Hochdruckgürtels und im Hochdruckgebiet über dem östlichen Pazifik sinken die Luftmassen ab. Da solche Absinkprozesse mit Wolkenauflösung verbunden sind, fällt in diesen Gebieten nur sehr wenig Regen. Die Luft strömt anschließend wieder in Richtung des indonesischen Tiefdruckgebiets (Passatwinde). Die Passatwinde bewirken nicht nur das Aufquellen von kühlem Tiefenwasser, sondern auch eine Hebung der Thermokline, einer Sprungschicht der Wassertemperatur. Die Prozesse, die zu dieser Hebung führen, werden durch die sogenannte Ekman-Spirale hervorgerufen.
125
2.11 Telekonnektionen
Thermokline, Upwelling und Pyknokline Die Thermokline wird auch Temperatursprungschicht genannt und ist eine mehrere Dekameter (50– 200 m) mächtige Wasserschicht, die warmes Oberflächenwasser von kaltem Tiefenwasser trennt. Bei normaler Walker-Zirkulation mit Südostpassaten und Warmwassertransport nach Westen ist sie im indonesisch-australischen Gebiet auf etwa 200 m hinabgedrückt, im südamerikanischen Bereich auf etwa 50 m unter der Wasseroberfläche angehoben. Durch diese Anhebung gelangt kaltes nährstoffreiches Tiefenwasser in den Auftriebsgebieten durch die dünne Schicht warmen Wassers an die Oberfläche. Die Auftriebsgebiete sind ozeanische Regionen, in denen kalte Tiefenwässer aus rund 100–300 m Tiefe die von Winden horizontal verfrachteten warmen Oberflächenwässer ersetzen (upwelling). Upwelling bezeichnet das Aufströmen von tieferem, gewöhnlich kälterem und dichterem Meerwasser an die Oberfläche mit Schwerpunkten in bestimmten Auftriebsgebieten. Dort werden beträchtliche Mengen an Kohlendioxid an die Atmosphäre abgegeben. Dies ist besonders im äquatorialen Pazifik von Bedeutung, wo 1–2 Gt CO2/Jahr emittiert werden können. Gleichzeitig sind Auftriebsgebiete durch eine verstärkte Primärproduktion gekennzeichnet. Das aus Gründen der Massenerhaltung aufsteigende Wasser ist bis zu 8 °C kälter als das Ozeanwasser der Umgebung. Die Aufstiegsgeschwindigkeiten sind mit wenigen Zentimetern pro Stunde oder einigen Metern pro Tag sehr gering und damit um Größenordnungen niedriger als die Horizontalgeschwindigkeit von Meeresströmungen, die in Kilometern pro Tag angegeben wird. Im Bereich des Humboldt-Stroms sollen die Geschwindigkeiten sogar nur 25 cm/Tag betragen. Derartige Gebiete finden sich vor allem an den Westseiten der Kontinente (Kalifornien/Oregon, Peru, Nordchile, Nordwest- und Südwest-Afrika) und in allen drei Ozeanen entlang des Äquators (an der Nordflanke des Äquatorialen Gegenstroms). Die Höhe des Meeresspiegels kann mit moderner Satellitentechnik beobachtet werden und ist
Im Sommer ist die Südpazifische Konvergenzzone (SPCZ) nur schwach ausgeprägt, die Innertropische Konvergenzzone (ITCZ) jedoch stark über die gesamte Breite des Pazifiks entwickelt. Bis zum Anfang des Winters wandern die
ein Indikator für die Tiefenlage der Thermokline, da sich Wasser bei Erwärmung ausdehnt. In den meisten Bereichen der Ozeane ist die Thermokline deckungsgleich mit der Dichtesprungschicht, der Pyknokline. In ihrem Bereich ist eine markante Dichtezunahme mit der Tiefe zu beobachten. Die Pyknokline wirkt als Sperre für vertikale Wasserbewegungen und dient als untere Grenze für die Deckschicht mit ihren saisonalen Temperatur- und Salzgehaltsänderungen. Sie stellt eine Wasserschicht dar, in der sich eine starke vertikale Veränderung der Dichte vollzieht. Sie liegt gewöhnlich in Tiefen zwischen 300 und 1 000 m. Existiert eine Pyknokline, so stellt sie eine sehr starke Behinderung für die Mischung der oberen, weniger dichten Wasserschicht und der darunterliegenden, dichteren Wasserschicht dar. Sie bildet den Boden für die Oberflächenzirkulation mit ihren saisonalen Temperatur- und Salinitätsänderungen. Nur in höheren Breiten und in Polarregionen, wo gewöhnlich keine Pyknokline ausgebildet ist, sind Tiefenwässer der Atmosphäre ausgesetzt und können Gase (CO2!) austauschen. Die Pyknokline entsteht aus der kombinierten Wirkung der Thermokline und der Halokline, da sowohl Temperatur wie auch Salzgehalt die Dichte beeinflussen. Der Wassertransport durch die Passatwinde nach Westen staut das Oberflächenwasser am pazifischen Westrand auf, wodurch der Meeresspiegel hier einen halben Meter höher liegt als vor der südamerikanischen Ostküste. In der Tiefe kommt es zu einer Schrägstellung der Thermokline, der Grenzfläche zwischen warmem Oberflächenwasser und kaltem Tiefenwasser. Die atmosphärische Zirkulation über dem Pazifik unterliegt einer saisonalen Schwankung. Im März und April ist die Walker-Zirkulation nur schwach entwickelt, während die Hadley-Zirkulation sehr stark ausgeprägt ist. Im September stellt sich das Erscheinungsbild der Zirkulationen genau umgekehrt dar. Ebenso wie die Zirkulation unterliegen auch die Gebiete mit ausgeprägter Konvergenz, also mit starker Wolkenbildung und häufigem Niederschlag, einer saisonalen Wanderung.
Gebiete starken Niederschlags nach Südosten. Dabei wird die SPCZ stärker, während sich die ITCZ abschwächt. Ab April wandern diese Gebiete wieder nach Nordwesten zurück, während die ITCZ erstarkt und sich die SPCZ abschwächt. Diese
126
2 Basiswissen und Grundgesetze der Klimatologie
El Niño und La Niña – negativ korrelierte Klimaereignisse bei kühlt sich das Oberflächenwasser im äquatorialen Bereich des Ostpazifiks überdurchschnittlich ab. Dort befand sich die von El Niño verursachte Warmwasserzunge. Die Abkühlung wird durch einen hohen Luftdruckunterschied zwischen Südamerika und Indonesien verursacht. Als Folge werden die Passatwinde verstärkt angetrieben, was mit der Southern Oscillation (SO) zusammenhängt und große Mengen Wasser nach Westen treibt. La Niña tritt etwa alle 3 bis 5 Jahre auf und dauert dann normalerweise 9 bis 12 Monate, kann aber auch bis zu 2 Jahre andauern. In den Auftriebsgebieten vor Südamerika wird vermehrt kaltes Wasser an die Oberfläche transportiert. Die Wassertemperaturen können dabei auf bis zu 24 °C, also 3 °C oder mehr unter die Normalwerte dieser Gebiete, sinken. Eine operationelle Definition von La Niña liefert der Oceanic Niño Index (ONI), wonach ein La-Niña-Ereignis dann vorliegt, wenn die Oberflächentemperatur des Pazifiks in der Niño3,4-Region (Abbildung 2.29) über mindestens fünf Monate hinweg mehr als 0,5 °C unter dem Durchschnitt liegt (▶ Exkurs ENSO-Indizes, S. 132).
In Intervallen von etwa 3 bis 8 Jahren kommt es aus ungeklärten Gründen zu einer Erhöhung des Luftdrucks über Südostasien und dem westlichen Pazifik, während er im östlichen Pazifik sinkt. So wird in El-Niño-Jahren der saisonale Zyklus unterbrochen. Es kommt zu einer völligen Umstellung der atmosphärischen Zirkulation (Abbildung 2.28) und damit verbunden zu starken Anomalien hinsichtlich Niederschlag, Luftdruck, Windrichtung und Wassertemperatur. Der Regen über Indonesien bleibt aus, während die trockenen Landoberflächen Perus durch große Regenmengen weggespült werden. Werden die Menschen und die Natur in Indonesien durch viele Waldbrände bedroht, gibt es in Peru zahlreiche Überschwemmungen mit katastrophalen Folgen für die dort lebenden Menschen. Auch die Landwirtschaft leidet unter diesen extremen Wetterbedingungen. La Niña ist genau das entgegengesetzte Phänomen zu El Niño beziehungsweise wird in der Wissenschaft auch oftmals als Verstärkung der Normalphase (Abbildung 2.27) beschrieben. Es tritt meist im Anschluss an ein El-Niño-Ereignis auf. DaDatumsgrenze
40° N
Nördlicher Wendekreis
h äquatoriale
H
20° N Hawaii
Fanning Westwinde verstärkt Weihnachts-Insel
T
Äquator
Galápagos-Inseln
Canton Marquesas-Inseln Darwin
Südostpassat
schwach
Lima
Tahiti 20° S Südlicher Wendekreis Sydney
Oster-Insel
h kräftige
140°
kalte Meeresströmungen
180°
40° S südhemisphärische
H Juan-Fernandez-Inseln
Westwinddrift
140°
100°
warme Meeresströmungen
niedrige Meeresoberflächentemperaturen (aufquellendes Tiefenwasser, Niederschlagsneigung gering) hohe Meeresoberflächentemperaturen (tropisch-warmes Oberflächenwasser, konvektives Niederschlagsgeschehen)
H
persistente Luftdruckgebilde
vorherrschende Windrichtungen
2.28 Atmosphärische und ozeanische Zirkulation in einem El-Niño-Jahr.
Santiago
2.11 Telekonnektionen
Die Südpazifische Konvergenzzone (SPCZ) ist eine NW-SO-ausgerichtete Konvergenzzone, die im südlichen Zentralpazifik bei 30° Süd und 130° West ausläuft und in Äquatornähe bei 140° Ost mit der ITCZ verschmilzt. Sie entsteht dadurch, dass Luftmassen während der östlich von Australien stattfindenden Zyklogenese aus mittleren Breiten von Australien und von der Antarktis einströmen und mit den aus östlicher Richtung über den Pazifik heranwehenden Passaten kollidieren. In einer El-Niño-Phase des ENSO-Zyklus verlagert sich die SPCZ nach Nordosten, in einer La-NiñaPhase nach Südwesten.
saisonalen Änderungen der Passatwinde können eng mit der Bewegung der ITCZ verknüpft sein. Im September, wenn sich die ITCZ sehr weit nördlich befindet, ist der Südostpassat sehr stark und der Nordostpassat schwach. Im März und April ist die Situation genau umgekehrt. In der Wissenschaft gibt es diverse theoretische Ansätze zur Bildung des ENSO–Phänomens. Zusammenhänge von Klimavariationen
127
können verständlich gemacht werden, jedoch gibt es keine eindeutige geschlossene ENSO-Theorie, die Ursachen und Folgen der Klimaanomalie vollständig erklärt. Es gibt Modelle, welche die meteorologische und andere, welche die ozeanographische Seite eines gekoppelten Ozean-Atmosphären-Modell stärker erklären. Gründe für den Erklärungsmangel sind die nach wie vor nicht ausreichenden Messdaten. Mitte der 1980erJahre wurde vom Pacific Marine Environmental Laboratory (PMEL) und der Japan Meteorological Agency das TAO / TRITON-Messnetz zur Datengewinnung eingerichtet. Die japanischamerikanische Mission zur Messung des tropischen Niederschlags (Tropical Rainfall Measuring Mission, TRMM), die im November 1997 ihren Betrieb aufnahm, setzt zum ersten Mal im Weltraum aktive (Radar-) und passive Mikrowellendetektoren ein, die Informationen über Niederschlag, Bewölkung und Strahlungsvorgänge in den Tropen und Subtropen liefern. TRMM kombiniert damit Daten aus dem sichtbaren, infraroten und dem Mikrowellenbereich.
Das ENSO-Beobachtungssytem Das ENSO-Beobachtungssystem besteht aus festgelegten ENSO-Regionen und ENSO-Messnetzten ENSO-Regionen (siehe auch Abb. 2.29): • Niño 1 (80°-90° W and 5°-10° S), die Küstengewässer vor Peru • Niño 2 (80°-90° W and 0°-5° S), die Gewässer zwischen den Galapagos-Inseln und der Küste von Ecuador • Niño 3 (5° N-5° S, 90° W-150° W) • Niño 4 (5° N-5° S, 150° W-160° W) • Niño 3,5 (5° N-5° S, 180° W-120° W) • Niño 3,4 (5° N-5° S, 170° W-120° W) TAO (Tropical Atmosphere Ocean)-Messnetz TAO ist ein ozeanographisch-meteorologisches Messnetz mit rund 70 verankerten Messbojen im tropischen Pazifik, deren Daten über das ARGOSSatelliten-System in Echtzeit an Land übertragen werden. Es erstreckt sich über eine Länge von etwa 13 000 km, am Äquator entlang von Neuguinea bis nach Panama. Bei den Messbojen handelt es sich um sogenannte ATLAS-Bojen (Autonomous Temperature Line Acquisition Sys-
tem). Diese Bojen messen Lufttemperatur, Luftfeuchtigkeit, Windstärke, Wasseroberflächentemperatur und Wassertemperaturen bis zu einer Tiefe von 500 m. Das Messnetz ist eine Hauptkomponente des ENSO-Beobachtungssystems, des Globalen Klimabeobachtungssystems (GCOS) und des Globalen Ozeanbeobachtungssystems (GOOS). Es wurde 1994 fertiggestellt. Weitere Informationen finden sich auf der Seite des Pacific Marine Environmental Laborator (PMEL) . TOGA (Tropical Ocean Global Atmosphere)Messnetz: TOGA ist wesentlicher Bestandteil des Weltklimaforschungsprogramms (WCRP, Kapitel 1) in den Tropen und zielt insbesondere auf die Vorhersage von Klimaphänomenen im Zeitraster von Monaten und Jahren ab. TRMM (Tropical Rainfall Measurement Mission)-Projekt: hat die Das satellitengestützte Projekt TRMM Erfassung des zeitlich und räumlich variierenden tropischen Niederschlags und der latenten
128
2 Basiswissen und Grundgesetze der Klimatologie
Wärme zur Aufgabe. Der Kernbereich der Aufzeichnungen liegt zwischen 35° Nord und 35° Süd insbesondere über den schlecht instrumentierten tropischen Ozeanen und Landflächen. Es werden fünf Instrumente zur Messung des Niederschlags, der latenten Wärme und anderer Größen eingesetzt: Niederschlagsradar (Precipitation Radar, PR), Mikrowellenradar zur Bestimmung des Niederschlags (Microwave Imager, TMI), sichtbarer und Infrarot-Scanner (Visible and Infrared Scanner, VIRS), Wolken- und Strahlungsbilanzmessgerät (Clouds and the Earth’s Radiant Energy System, CERES), Blitzbeobachtung (Lightning Imaging Sensor, LIS). TOPEX/Poseidon: Das im Jahr 1992 gestartete Satellitensystem setzt Radar-Altimetrie ein. Dabei werden Mikrowellen zur Wasseroberfläche gesandt, die von dort reflektiert werden. Aus der Zeitspanne vom Senden eines Funkimpulses bis zu dessen Rückkehr nach Spiegelung an der Meeresoberfläche kann in Verbindung mit den genauen Lageda-
ten des Satelliten und anderen Bezugsgrößen die Meereshöhe bestimmt werden. Insbesondere benötigt man zur Kalibrierung der Satellitendaten die Informationen von Pegelstationen an Küsten und auf Inseln. Die Genauigkeit der Meeresspiegelmessungen liegt bei 1 bis 2 cm. Dabei werden Signale, die sich nur auf Gezeitenströme, Windschub und Atmosphärendruck beziehen, herausgerechnet. Die Datenauswertung erfolgt durch 38 Arbeitsgruppen in verschiedenen Ländern. Das Programm TOPEX/Poseidon (Laufzeit: 1992–2005) war ursprünglich nur für drei bis fünf Jahre geplant. Im Jahr 2004 war es noch immer aktiv. Das Programm JASON-1 sollte es ablösen. Zwischenzeitlich wurden aber beide Satelliten in einer Tandemmission ähnlich wie beim europäischen ERS-1/-2-Satelliten parallel genutzt. Das Nachfolgeprogramm JASON-1 soll von der Ocean Surface Topography Mission (OSTM) abgelöst und verbessert weitergeführt werden. Weitere Informationen finden sich beim Jet Propulsion Laboratory (JPL) .
30°N 20°N 10°N
Niño 3,4
Äqu.
Niño 4
10°S
Niño 3 Niño 1+2
20°S
2.29 International festgelegte ENSO-Beobachtungsregionen.
30°S 120°O
150°O
Theoretische Ansätze und Entstehungstheorien zum ENSO-Phänomen • Akkumulationshypothese nach Wyrtki: Nach der Hypothese des deutschstämmigen Ozeanographen Klaus Wyrtki bilden das Aufstauen und der Abbau von Wassermassen die Antriebskraft für den ENSO-Zyklus. Zum Großteil angetrieben durch die Passatwinde transportieren Süd- und Nord-Äquatorialstrom das Wasser vom Ostpazifik zum Westpazifik. Das
180°
150°W
120°W
90°W
führt zu einem höheren Meeresspiegelniveau im Westen relativ zum Osten von rund 40 cm (Latif, M. und Neelin, J.D., 1994, S.5.f). Störungen in der Walker-Zirkulation können durch veränderte Luft-Seebedingungen destabilisiert werden. Beispielsweise führt eine stellenweise kurzfristige Erwärmung der See im Ostpazifik zu einer Verringerung des Temperaturgradienten zwischen Westen und Osten. Diese Instabilitäten treten überwiegend im südhemisphärischen Sommer auf. In Folge dessen kommt es zu einer bedingten Abschwächung der Passatwinde. Die kritische Wasser-
129
2.11 Telekonnektionen
des Pazifiks in 2–3 Monaten entspricht. Die maximale Amplitude liegt im Äquatorbereich und ist abgeschwächt 1000 km in Richtung Pol festzustellen. Die Aufwölbung beträgt mehrere Dekameter entlang der Thermokline. Wenn die Kelvin-Welle die südamerikanische Küste erreicht türmt sie sich auf, erhöht den Meeresspiegel und senkt die Thermokline herab. Gleichzeitig wird sie Richtung Norden und Süden, als Erwärmungssignal in Form einer Kelvin-Küstenwelle, und nach Westen als Abkühlungssignal in Form einer Rossby-Welle reflektiert. Nachdem der Temperaturgradient kleiner geworden ist und die reflektierte Rossby-Welle den Westpazifik erreicht hat, wird sie dort wiederum als Kelvin-Welle Richtung Ostpazifik reflektiert und sendet diesmal ein Abkühlungssignal, welches die Gegenphase, ein „La-Niña“-Phänomen, einleitet. Im Gegensatz zur Rossby-Welle kann die Kelvin-Welle relativ gut mit dem TAO-Messnetz nachgewiesen
20° N 50 km 15°
300 km
ansammlung droht zu kippen und resultiert in einem Rückfluss der Wassermassen in den Osten auf Grund der Ausgleichsbewegungen. Dies führt zu einer erhöhten Schwächung der Passatwinde, so dass sich die warmen Wassermassen weiter in den Osten bewegen. Diese Phase wird als Warmphase oder El Nino bezeichnet. Während die Wassermassen auf den südamerikanischen Kontinent treffen werden sie gleichzeitig nach Norden und Süden abgelenkt. Es kommt zu einem Warmwasserenergieverlust im tropischen Pazifik. Kaltwasserauftrieb an der Wasseroberfläche kühlt die Luft ab und belebt die Passatwinde wieder. Während eines solchen La Niña Phänomens kommt es zu einer erneuten Warmwasseransammlung im Westpazifik. • Delayed (Action) Oscillator: Diese Theorie stellt eine Weiterentwicklung des Wyrtki-Modells dar und erklärt das ENSO-Phänomen anhand relativ einfacher Kopplungsmechanismen zwischen der atmosphärischen Zirkulation in den Tropen, der Dynamik der ozeanischen Deckschicht und der Meeresoberflächentemperatur (SST) im östlichen tropischen Pazifik. Von zentraler Bedeutung ist das Zusammenspiel äquatorialer Kelvin-Wellen und außeräquatorialer Rossby-Wellen. Die englische Bezeichnung drückt aus, dass es sich um einen Prozess handelt, bei dem zeitlich verzögerte Signale eine Rolle spielen. Man geht in diesem Modell also nicht mehr von einer periodisch hin und her schwingenden Schaukel (seesaw), sondern von zwei zeitlich verzögerten Signalen aus. Die Phasenunterschiede der Oszillation wurden einerseits durch Meeresoberflächentemperatur und Wind und andererseits durch den Wärmeinhalt dargestellt. Nun wird unter anderem nach (Philander 1999, S.243) den Phasenunterschieden und deren zeitlichen Verzögerungen eine Wellendynamik zu Grunde gelegt. Dabei unterscheidet man zwischen äquatorialen Wellenbewegungen, den Kelvin-Wellen, und den Rossby-Wellen. Die Kelvin-Wellen sind lineare Wellenberge, die im Westpazifik entstehen und von dort nach Osten entlang des Äquators, meistens in ostsüdöstliche Richtung, wandern. Sie senden Warm- und Kaltwassersignale aus. Ihre Ausbreitungsgeschwindigkeit beträgt 2–3 m/s, was 200 km/Tag bzw. der Überquerung
KüstenKelvin-Welle 100 km reflektierte Rossby-Wellen
10° 5° Küste 0°
5°
äquatoriale Kelvin-Welle KüstenKelvin-Welle
10°
15° 20° S
2.30 Auftreffen einer äquatorialen Kelvin-Welle auf die Küste unter Umformung in die polwärts wandernden Kelvin-Wellen und Rossby-Wellen, die sich nach Westen ausbreiten (verändert nach Mysak 1986).
130
werden, da das Messnetz auch Messungen entlang der 18 °C-Thermokline durchführt (Tànchez, 2004, S.43f). Den Durchgang von Kelvin- oder Rossby-Wellen kann man im Pazifik mit Hilfe des dort installierten TAO-Bojenfeldes nachweisen. Dessen Wärmesensoren messen die Tiefenlage der Thermokline, die dort etwa mit der 18 °C-Isotherme gleichzusetzen ist und deren Lage sich beim Durchgang einer Welle verändert. Eine weitere Art KelvinWellen nachzuweisen ist die Betrachtung der Temperaturanomalie entlang eines äquatorialen Zonalabschnittes durch den Pazifik (Anomalie relativ zum Temperatur-Jahresgang). Kelvin-Wellen sind nach Lord Kelvin (William Thompson), einem britischen Physiker aus dem 19. Jahrhundert benannt, der als erster theoretisch solche Wellen in rotierenden Flüssigkeiten vorhersagte. Die Rossby-Welle wurde in den 1930er-Jahren vom schwedischen Meteorologen Carl-Gustaf Arvid Rossby theoretisch ermittelt und bis zum Aufkommen von Satellitenmessungen nur indirekt gemessen. Die Altimetriemessung wird mit dem TOPEX/Poseidon-Satelliten der NASA innerhalb des NCEP-Programms durchgeführt. Wenn man die planetarischen Wellen außer Acht lässt, dann sind die Rossby-Wellen im pazifischen Raum westwärts gerichtete, großskalige Wellen mit einer Amplitude von 50 m entlang der Thermokline und 5 cm entlang der Wasseroberfläche, sowie einer Wellenlänge von 500 km. Die Ausbreitungsgeschwindigkeit der Rossby-Wellen ist wesentlich kleiner, als die der Kelvin-Wellen. Sie beträgt wenige cm/s beziehungsweise wenige km/ Tag. Umso so weiter sie vom Äquator entfernt sind, desto kleiner ist die Geschwindigkeit. Entlang des Äquators benötigen sie etwa neun Monate zur Überquerung des Pazifiks. Im Gegensatz zu den Kelvin-Wellen leiten die Rossby-Wellen das Abklingen des El Niños und eine Normalisierung der Thermokline ein, was einem Downwelling im Westpazifik und einem Upwellling im Ostpazifik gleichkommt. Die Rossby-Wellen können Auswirkungen auf den globalen Wasserkreislauf haben. Sie können Meeresströme verstärken oder verschieben. Im Jahr 1993 wurde beispielsweise der Kuroshio-Strom infolge von Rossby-Wellen des El Niño 1982/83 nach Norden verscho-
2 Basiswissen und Grundgesetze der Klimatologie
Westen
Osten Meeresspiegel Sprungschicht (Thermokline)
I
Meeresboden
Norden
Äquator
Süden Meeresspiegel
II Sprungschicht (Thermokline)
Meeresboden
2.31 Darstellung einer äquatorialen Kelvin-Welle entlang des Äquators (I) und senkrecht zum Äquator (II). Der Wellenberg, der ostwärts wandert, verursacht eine Anhebung der Meeresfläche und eine Absenkung der Thermokline. Durch die Wirkung der Coriolis-Kraft wird unter dem Wellenberg der ostwärts gerichtete Strom (+) über der Thermokline und der westwärts gerichtete Strom (-) unter der Thermokline verstärkt (verändert nach Mysak 1986).
ben. Dies führte zu einem kühleren Winter in Nordamerika. Die beiden Wellentypen stellen das „Gedächtnis“ des tropischen Pazifiks dar, denn in ihnen sind die „Erinnerungen“ an ehemalige Klimaparameter wie Wind und Strömungsrichtung vorläufig gespeichert. Es handelt sich in diesem Modell also um zwei zeitlich verzögerte Signale, dargestellt durch die unterschiedlich schnellen Ausbreitungsgeschwindigkeiten. Wyrtki hingegen geht in seiner Akkumulationshypothese von gleich schnellen Wellen aus. • Divergenz- und Konvergenztheorie: Eine Variante der Delayed Oscillator-Theorie stellt die Divergenz- und Konvergenztheorie dar. Hierbei wird besonderes Augenmerk auf das
131
2.11 Telekonnektionen
meridionale Auseinander- und Zusammenfließen des tropischen Ost- und Zentralpazifiks gelegt. Dabei spielen die Windzirkulation sowie die zonalen Kelvin- und Rossby-Wellen nicht die entscheidende Rolle. Viel wichtiger ist die Thermokline, die bei etwa 20 °C liegt und das Warmwasser von Kaltwasser trennt. Im „normalen“ Zustand befindet sich die Thermokline im Westpazifik wesentlich tiefer als im Ostpazifik. Während eines El Niño liegt die Thermokline in beiden Regionen ungefähr auf demselben Tiefenniveau, was der Theorie nach auf den meridionalen Zu- und Abfluss zurückzuführen ist. Das heißt, dass sich während eines El Niño das nächste La-Niña-Ereignis vorbereitet und dass sich während einer La Niña eine Warmphase (El Niño) ankündigt. Es besteht ein negativer Zusammenhang zwischen der Höhe des Meeresspiegels und der Höhe der Thermokline, der besagt: Je höher der Meeresspiegel, desto niedriger die Thermokline. Die Umkehrung gilt ebenfalls. Der hohe Meeresspiegel führt zur Divergenz im zentralen und westlichen Pazifik, weil die Höhendifferenz des Wassers bis zu 40 cm betragen kann und die Wassermassen bestrebt sind diesen Gradienten auszugleichen. Während eines El Niño sind warme Wassermassen mit geringer Wasserdichte im betroffenen Raum, die leichter verdunsten und mehr Niederschlag bringen. Es kommt zu einer positiven Rückkopplung, die durch die Divergenz bzw. die Ausgleichsbewegungen übertroffen wird.
W
Durch das polwärts fließende Wasser, wird den Wassermassen Energie entzogen, die zur Verdunstung notwendig ist. Die Anhebung der Thermokline, durch die geringere Wasserauflast und das wieder Erstarken der Passatwinde, ermöglicht den Auftrieb des kalten Tiefenwassers. Durch die Meeresspiegelabsenkung wird der eben beschriebene Prozess umgekehrt und führt zu einer Konvergenz Richtung Äquator und zur Entstehung eines El Niños (Philander 1992, S. 13 f.). Folglich wird mit Beginn des El Niño sein Ende und der Beginn von La Niña in die Wege geleitet. Beobachtungen von McPhaden und Meinen bestätigen die Zusammenhänge, dass auf die Konvergenz ein El Niño, auf El Niño die Divergenz und aus dieser La Niña folgt. Auch die Ausprägungen der Klimaparameter (z.B. SST) sind der Stärke nach empirisch vergleichbar, jedoch folgt auf ein La-Niña-Ereignis nicht unmittelbar die Konvergenz in vergleichbarer Intensität. Des Weiteren ist der Übergang von Phase zu Phase in der Realität recht unregelmäßig und nicht so zyklisch wie im Modell. Für die Wissenschaft stellt sich schließlich die Frage, ob ENSO ein Zyklus oder eine Serie von Ereignissen ist. Alle bisherigen ENSO-Theorien basieren auf der gekoppelten Dynamik des Ozeans und der Atmosphäre im Bereich des äquatorialen Pazifiks. Demnach entstanden die einzelnen Phasen infolge von Instabilitäten im gekoppelten System
O Divergenz
Westwind starke Erwärmung
Äquator
Divergenz warme Deckschicht Anhebung der Thermokline im Westpazifik
(„normale” Thermokline) 20°C Absenkung der Thermokline im Ostpazifik
(20°C)
kaltes Tiefenwasser
Ausdehnung des Warmwasserkörpers
2.32 Schema der Divergenz- und Konvergenztheorie, mit starker Erwärmung im Ostpazifik und Absenkung der Thermokline sowie der Anhebung der Thermokline im Westpazifik. Der hohe Meeresspiegel im Ostpazifik führt zur Divergenz der Wassermassen im Zentral- und Ostpazifik.
132
wie beispielsweise einer Störung der Passatwinde. Aus Beobachtungen der letzten 30 Jahre geht hervor, dass ENSO kein vollständiger Zyklus ist. Es wurde bereits darauf hingewiesen, dass der La-Niña-Phase nicht zwangsläufig eine vergleichbare Konvergenz folgt. Zwar besteht eine Zwangsläufigkeit, dass das Ereignis einer Konvergenz eintreffen muss, jedoch ist die beobachtete Trefferquote sehr gering, da die Phase mit einer Übergangszeit von 6 bis 24 Monaten sehr variabel ist. Die Annahme der genannten Theorien, dass jede Phase einen Antrieb für die nächste bildet beziehungsweise dass die Wassermassen ein „Gedächtnis“ im Ozean besitzen, trifft für den Phasenübergang La Niña zur Konvergenz nicht zu. Die genannten Theorien gingen also davon aus, dass die Wassermassen ein „Gedächtnis“ im Ozean besitzen. Meteorologische Parameter der Atmosphäre werden gegeneinander ausgetauscht; dass heißt wenn sich die Temperaturen zweier Regionen angleichen, bewegt sich die Windgeschwindigkeit gegen Null. Im Vergleich dazu speichert der Ozean, einmal vom Windschub
2 Basiswissen und Grundgesetze der Klimatologie
angetrieben, seine Drift für längere Zeit, so dass man sagen kann seine Erinnerung an den einst bestandenen Wind bleibt erhalten. Der Ozean ist vergleichsweise träge und reagiert folglich gegenüber einem atmosphärischen „Forcing“ (Antrieb) langsam. Es kann sein, dass die Tiefenlage der Thermokline Monate benötigt, um sich veränderten Winden in den Tropen anzupassen. Diese langsame Entwicklung des Temperaturfeldes im oberen Ozean liefert das „Gedächtnis“ für das Klimasystem im tropischen Pazifik. Diese Überlegungen der Theorien widersprechen also den Beobachtungen und stützen vielmehr die Behauptung, dass externe Faktoren eine zentrale Rolle im Antrieb spielen. Einzelereignisse oder Singularitäten wie tropische Zyklonen oder Kaltlufteinbrüche könnten demnach zur Beeinflussung des ENSO-Phänomens führen. Für den El Niño von 1997/98 werden überdurchschnittliche Passatwinde aus dem Jahre 1995/96 und eine starke MJO (Madden-Julian-Oscillation) im Jahre 1997 herangezogen.
ENSO-Indizes Southern Oscillation Index (SOI): Der SOI stellt einen der ältesten Indizes dar, der für die Messung von El Niño verwendet wird. Er misst die Southern Oscillation im Pazifik. Dazu wird der Luftdruck über den Osterinseln und über der Station Darwin (Nord-Australien) gemessen. Auch andere Stationen (z.B. Tahiti und Darwin) werden herangezogen. Die Abweichung der Luftdruckdifferenz zwischen den Stationen (Ost minus West) vom langjährigen Mittel stellt den Index dar. Der SOI hat ein positives Vorzeichen, wenn der Luftdruck im Ostpazifik über dem Mittelwert beziehungsweise der Luftdruck im Westpazifik unter dem Mittelwert liegt. Hierbei spricht man von einer high-index phase, einer Phase, die von starken Passatwinden geprägt ist. Im September beginnt häufig die low-index phase, in der der Luftdruck im Osten unter und im Westen über den Mittelwert steigt. Positive Anomalien fallen mehrmalig mit einer negativen Anomalie der Meeresoberflächentemperatur (SST) zusammen, was in eine La-Niña-Phase mündet. Umgekehrt führen negative SOI- und positive SST-Anomalien zu einer El-Niño-Phase. Der SOI wird regelmäßig seit dem
Jahre 1876 ermittelt. In dieser Zeit konnte dieser Wert nur mit dem Temperaturgradienten zwischen West- und Ostpazifik korreliert werden. Ein Nachteil ist, dass der SOI bei historischen Vergleichen nur für ein Merkmal von ENSO korreliert werden kann, nämlich den zonalen Temperaturgradienten entlang dem Äquator. Der SOI gilt als ältester Index zur Abgrenzung von ENSOEreignissen. Der SOI-Index wird durch neuere Verfahren ergänzt. Es sind dies der Ocenanic Nino Index (ONI), der Multivariate ENSO Index (MEI), der JMA-Index und der TOPEX/PoseidonEl-Nino-Index. 2.33 SOI-Index von 1990-2006; Messstationen: Tahiti und Darwin (rot = El-Niño-Phasen; blau = LaNiña-Phasen). Rohdaten vom Australian Government, Bureau of Meteorology . ( Farbtafel)
Multivariater ENSO-Index (MEI): Der MEI-Index wird seit Ende des Jahres 1949 gemessen. Er unterscheidet sich durch die Berücksichtigung ozeanischer und atmosphärischer Klimaparameter von anderen El-Niño-Indizes. Multivariat ist
133
2.11 Telekonnektionen
dabei ein Synonym für mehrdimensional; der statistische Begriff für die Verwendung von mehr als einer Variablen. Er ist „multivariat“ und setzt sich folglich aus mehreren Variablen zusammen:
• Luftdruck an der Meeresoberfläche • zonaler oberflächennaher Wind (Ost-West-Richtung)
• meridionaler oberflächennaher Wind (NordSüd-Richtung)
• Wassertemperatur an der Meeresoberfläche • Lufttemperatur in 2 m Höhe • Wolkenbedeckung
Die Daten werden near real-time auf Schiffen und Bojen erhoben und zweimonatlich im ICOADS (International Comprehensive Ocean-Atmosphere DataSet) dokumentiert. Zudem werden die jahreszeitlichen Veränderungen in den Index einbezogen. Positive Anomalien entsprechen tendenziell einer El-Niño-Phase negative Anomalien einer LaNiña-Phase. Der MEI-Wert variiert auf einer Skala von 1–57. Bei einer Unterteilung der gesamten Ereignismenge in Terzile entsprechen die Werte 1–19 einem starken bis schwachen La-Niña- und 38–57 einem schwachen bis starken El-Niño-
3
Standardabweichung
2
1
0 82/83 82+
–1
97/98
97+ 72+
Sep/Okt
Jun/Jul
Mrz/Apr
Dez/Jan
Sep/Okt
Jun/Jul
Mrz/Apr
Dez/Jan
Dez/Jan
72/73
–2
2.34 Multivariater ENSOIndex (MEI) für 3 starke El-NiñoEreignisse seit 1950. Update: 3. Sept. 2004. NOAA-CIRES Climate Diagnostics Center (CDC), University of Colorado, Boulder.
3 49+ 70+
2
73+ 88+
70–72
1 49–51 88–90
0
98–00
–1 73–75
Dez/Jan
Sep/Okt
Jun/Jul
Mrz/Apr
Dez/Jan
Sep/Okt
Jun/Jul
Mrz/Apr
–2 Dez/Jan
Standardabweichung
98+
2.35 Multivariater ENSOIndex (MEI) für 5 starke La-NiñaEreignisse seit 1949. Update: 6. Feb. 2001. NOAA-CIRES Climate Diagnostics Center (CDC), University of Colorado, Boulder.
134
Ereignis. Weitere Informationen finden sich auf der NOAA-CIRES-Homepage . Japan Meteorological Agency Index (JMA): Der JMA-Index ist auch unter dem Synonym „Niño3Index“ bekannt. Der Index beruht auf den Anomalien der Meeresoberflächentemperatur (SST) im Niño-3-Quadranten (5° Nord, 150° West, 5° Süd, 90° Ost). Er dient der Abgrenzung von Warm-, Kalt- und Neutralphasen im ENSO-Zyklus. Die Bedingung für eine Warmphase ist eine Temperaturanomalie der Wasseroberflächentemperatur von +0,5 °C, wobei das fünfmonatige Temperaturmittel in sechs aufeinanderfolgenden Monaten mindestens über 0,5 °C liegt, den Zeitraum der Monate Oktober, November und Dezember umfasst und vor September beginnen muss. Bei einem durchschnittlichen 5-Monatsmittel von –0,5 °C für den genannten Zeitraum spricht man von einer Kaltphase. Alle Ereignisse, die keine der beiden Bedingungen erfüllen, werden als normale Phase bezeichnet. Oceanic Niño Index (ONI): Der ONI-Index ist ein neuerer Index. Er wurde von der amerikanischen NOAA vor dem Hintergrund der vielen konkurrierenden Indizes, die El-Niño-Zeiträume bestimmen, ins Leben gerufen. Der ONI unterscheidet sich nur wenig vom JMA-Index, denn die Messung erfolgt über die Abweichung der Meeresoberflächentemperatur von dessen dreimonatigem Mittel im Niño-3,4-Quadranten (5° Nord, 170° West, 5° Süd, 120 °Ost). Die durchschnittliche Temperaturabweichung muss +0,5 °C für ein El-Niño- beziehungsweise -0,5 °C für ein La-NiñaEreignis betragen. Der ONI ist in den nordamerikanischen Mitgliedsländern der WMO gebräuchlich und auch als NOAA-Niño-Index bekannt. Outgoing Longwave Radiation (OLR): Die OLR gibt an, wieviel langwellige Strahlung von einem geographischen Raumausschnitt abgestrahlt wird. Die langwellige Strahlung variiert mit der Bewölkung in der Atmosphäre. In wolkenarmen Regionen wird relativ viel langwellige Strahlung ausgesendet (240–280 W/m ). In stark bewölkten Regionen, besonders in den tropischen, konvektiven Niederschlagsgebieten, wird nur die langwellige Strahlung abgestrahlt, die von der top of atmosphere (TOA) beziehungsweise der Wolkendecke reflektiert wird, die wiederum niedrig ist; die Temperatur über der Wolkendecke ist sehr gering. Zudem wird die langwellige Energie zwischen der Erdoberfläche und der Wolkende-
2 Basiswissen und Grundgesetze der Klimatologie
cke festgehalten. Sensoren der polarumlaufenden NOAA-Satelliten (AVHRR) zeichnen die OLR auf. Warme Oberflächen strahlen mehr im langwelligen Bereich aus. Niedrige OLR-Werte sind typisch für bewölkte Gebiete, denn die Ausstrahlung der Erdoberfläche wird von den Wolken abgefangen, und die Temperatur der Wolkenoberfläche bestimmt letztlich die Menge an langwelliger Strahlung, die in der äußeren Atmosphäre gemessen wird. So ist die OLR ein Maß für die Temperatur an der Wolkenoberfläche. Wenn über einem Gebiet eine niedrige Temperatur gemessen wird, so ist die Wolkenoberfläche hoch, was auf Konvektion und damit auch Niederschlag in der betreffenden Region hinweist. TOPEX/Poseidon-El-Niño-Index 1997/98: Der Index bestimmte mithilfe des Topex/PoseidonSatelliten den ozeanischen Aspekt des El-NiñoEreignisses von 1997/98. Dazu wurde vom Jet Propulsion Laboratory (JPL) in Kalifornien ein Beobachtungsgebiet im äquatorialen Ostpazifik festgelegt, das in 600, jeweils 1 Längen- beziehungsweise Breitengrad breite Zellen eingeteilt wurde. Für einen bestimmten Zeitraum wurde die Meeresspiegelhöhe für jede Zelle vom Wert des langjährigen Durchschnitts in der Zelle subtrahiert. Der Index wurde lediglich als Bezugsrahmen für die Beobachtung und Beschreibung der Entwicklung des Ereignisses von 1997/98 entworfen und nicht dafür angelegt, auf andere Ereignisse übertragen zu werden. Trotzdem hat diese Mission zur wesentlichen Verbesserung des Verständnisses des ENSO-Phänomens beigetragen. Sonstige Indizes und Parameter: Die Meeresoberflächentemperatur (SST) und die Unterwassertemperatur sind sehr wichtige Parameter für die Vorhersage der ENSO-Bewegung. Die Unterwassertemperatur wird mithilfe der ATLAS-Bojen bis zu einer Tiefe von 500 Metern gemessen, sodass auch Temperaturen unterhalb der Thermokline erfasst werden können. Wie bereits erwähnt, wird auch die Meeresoberflächenhöhe (Sea Surface Height, SSH) gemessen. Darüber hinaus gibt die Chlorophyllkonzentration Aufschluss über die Auftriebsgebiete der Ozeane und dient gleichzeitig zur Kartierung von Kaltwasserbereichen mit hohem Aufkommen an Flora und Fauna. Des Weiteren werden Oberflächenwinde von „Scatterometern“ und der Niederschlag im Rahmen der amerikanisch-japanischen TRMM (Tropical Rainfall Measuring Mission) gemessen.
135
2.11 Telekonnektionen
Bekannte Auswirkungen des ENSO-Phänomens sind speziell in Südostasien zu finden. Die Auswirkungen eines starken El Niño können aber auch global ausgeprägt sein, denn der Anstieg der äquatornahen Oberflächentemperaturen des zentralen und östlichen Pazifik „heizt“ das Wettergeschehen in sehr viel größeren Regionen an. So sind in Kalifornien, Peru, Bolivien, Ecuador, Paraguay, Südbrasilien, in Teilen Lateinamerikas und allen westlich der Anden gelegenen Ländern starke Regenfälle mit katastrophalen Überschwemmungen zu verzeichnen. In Nordbrasilien, Südostafrika sowie Südostasien, Indonesien und Australien verursacht El Niño dagegen große Dürreperioden, welche dort verheerende Auswirkungen auf das Leben der Menschen haben. Dies sind die beiden häufigsten und gegensätzlichsten Auswirkungen des ElNiño-Phänomens. 2.37 Niederschlagsanomalie während des letzten starken El Niño 1997/98 in Relation zum Mittel (1980– 2004) in mm/Monat (Dezember 1997, Januar und Februar 1998). Die Grundlagen für dieses kombinierte Datenprodukt sind Messungen von Wetterstationen bezüglich der Landflächen sowie Satellitenbeobachtungen bezüglich der Meeresflächen. Negative (rot) und positive (blau) Abweichungen vom Mittel der Periode 1980–2004. ( Farbtafel)
Neben dem ENSO-Phänomen gibt es weitere „Schaltkreise“ und „Fernwirkungen“, die Impulse aus den tropischen und subtropischen Meeren in die mittleren und hören Breiten senden und für das globale atmosphärische Geschehen von Bedeutung sind. Dazu gehören:
• Madden-Julian-Oszillation (MJO): Die MJO geht auf die Forscher Roland Madden und Paul Julian zurück, die die zonalen Windveränderungen im tropischen Pazifik untersuchten. Die MJO äußert sich in einer langsamen ostwärtigen Wellenbewegung atmosphärischer Störungen mit maximalen Amplituden in der östlichen Hemisphäre. Die Erde umspannenden Wellen erstrecken sich über 20 Breitengrade beidseits des Äquators. Konkret bewirkt dieser Takt, dass in vielen tropischen Regionen erst mächtige Wolkenfelder von West nach Ost ziehen, denen dann eine Reihe von klaren, trockenen Tagen folgt. • Nordatlantik-Oszillation (NAO): Die NAO drückt die Luftdruckunterschiede zwischen Islandtief und Azorenhoch aus. • Arktische Oszillation (AO): Die AO beschreibt die Luftdruckunterschiede zwischen dem Hoch über dem Nordpol und Druckgebilden über Alaska und Mitteleuropa.
90°N
60°N AMJJASO ONDJFM
30°N
JJAS ONDJFMA
JJASON SONDJFM
NDJFMAM 30°S
JASONDJFM
MJJASONDJFMA
OND
0°N
JASONDJFMAMJ
MAMJJASONDJF MJJASO
NDJF
trocken feucht
60°S
90°S
0°
30°O
60°O
90°O
120°O
150°O
180°
150°W
120°W
90°W
60°W
30°W
0°
2.36 Von El Niño betroffene Gebiete weltweit. Die Monate, in denen diese Auswirkungen stattfinden, sind mit deren Anfangsbuchstaben aufgeführt (z. B. bedeutet „OND“ Oktober – November – Dezember).
136
2 Basiswissen und Grundgesetze der Klimatologie
• Pazifisch-Nordamerikanische Telekonnektion (PNA): Die PNA beschreibt die Luftdruckschaukel zwischen dem Aleutentief und den polaren Hochs über Nordamerika (Kanada). Vor allem im Winter gibt es eine starke Korrelation zwischen ENSO und der PNA. Die Stärke der PNA kann wiederum andere auch außertropische Zirkulations- bzw. Strömungsmuster beeinflussen. So verstärkt sich bei ElNiño-Phasen beispielsweise der Subtropenjet. • Südostasienoszillation (SEO): Die SEO stellt die Luftdruckunterschiede zwischen dem Indonesientief und der Antizyklone über dem Nordpazifik dar. • Westpazifische Telekonnektion (WP): Die WP skizziert die zonalen Verschiebungen des Jetstreams über dem Pazifik.
Tag 0 200 mb
unterdrückte Konvektion
verstärkte Konvektion
Meeresoberflächentemperatur
850 mb Indischer Ozean
Indonesien
Pazifischer Ozean
Tag 10 200 mb
850 mb
unterdrückte Konvektion
verstärkte Konvektion
Meeresoberflächentemperatur
Meeresoberflächentemperatur Indischer Ozean
unterdrückte Konvektion
Indonesien
Pazifischer Ozean
Tag 20 200 mb
unterdrückte Konvektion
verstärkte Konvektion
Auf die genannten Telekonnektionen wird im Folgenden nur verkürzt eingegangen. 850 mb
2.11.2 Madden-JulianOszillation (MJO) Die Madden-Julian-Oszillation wurde 1971 durch die Forscher Roland Madden und Paul Julian entdeckt, als sie die zonalen Windveränderungen im tropischen Pazifik untersuchten. Die MJO ist ein tropisches Phänomen mit Auswirkungen auf die mittleren Breiten. Ihre meso- und makroskaligen Ausmaße haben zwangsläufig Auswirkungen auf die mittleren Breiten. Der Zyklus der MJO hat eine durchschnittliche Länge von 45 Tagen. Die zeitlichen Durchschnittsabweichungen der Oszillation betragen 40 bis 50 oder 30 bis 60 Tage. Die MJO stellt eine Konvektionszelle im westlichen Indischen Ozean dar, die durch veränderte Luftmassenbewegungen in Bodennähe einerseits und im 200- bis 150-mbar-Niveau der Troposphäre andererseits beschrieben wird. Die Luftmassenveränderungen sind zuerst im äquatorialen Afrika beziehungsweise über Singapur zu messen. Die Luft beginnt im Indischen Ozean zwischen diesen beiden Regionen zu konvergieren und in der Höhe zu divergieren. Dieser thermische Prozess beginnt sich zu verstärken und erzeugt im Gebiet unterhalb der thermischen Zelle konvektiven Niederschlag und in den angrenzenden äquatorialen Gebieten antizyklonal unterdrückte Konvek-
Meeresoberflächentemperatur Indischer Ozean
Meeresoberflächentemperatur Indonesien
Pazifischer Ozean
2.38 Schema der Madden-Julian-Oszillation (Quelle: Madden 1971).
tion. Diese thermische Zelle bewegt sich anfangs schnell entlang dem Äquator. Damit verbunden sind positive Anomalien der Meeresoberflächentemperatur (SST), des Niederschlags und der Bewölkung, die ausschlaggebend für die ausgesendete langwellige Strahlung (OLR) ist. Zudem sind negative Anomalien des Luftdrucks mit der MJO verbunden, wobei diese Schwankungen eine Amplitude von 5 mbar erreichen. Die Erde umfassenden Wellen erstrecken sich über 20 Breitengrade beiderseits des Äquators. Konkret bewirkt der MJO-Takt, dass in vielen tropischen Regionen erst mächtige Wolkenfelder von West nach Ost ziehen, denen dann eine Reihe von klaren, trockenen Tagen folgt. Da man der MJO vielfältige Wechselwirkungen mit anderen Phänomenen zuschreibt, erfährt sie beträchtliches wissenschaftliches Interesse. Beispielsweise nimmt man Interaktionen mit Änderungen der Meeresoberflächentemperatur an, verstärkende Einflüsse auf die Hurrikantätigkeit im Golf von Mexiko und in der Karibik oder zum Einsetzen eines El Niño.
2.11 Telekonnektionen
2.11.3 NordatlantikOszillation (NAO) Unter der Nordatlantik-Oszillation (NAO) versteht man die Schwankung des Druckverhältnisses zwischen dem Islandtief im Norden und dem Azorenhoch im Süden des Nordatlantiks. Geprägt wurde dieser Begriff in den 1920er-Jahren von Sir Gilbert Walker. Üblicherweise basiert der NAOIndex heute auf der Differenz der standardisierten Luftdruckabweichungen zwischen Ponta Delgada (Azoreninseln) und Reykjavik (Island). Die NAO ist ein einfaches Maß zur Abschätzung der Stärke der Zonalzirkulation (Westwinddrift) im atlantisch-europäischen Sektor, die für das Klima in Europa besonders im Winter entscheidend ist. Die ausgeprägte Klimavariabilität im atlantisch-europäischen Raum mit ihrer jahreszeitlichen, zwischenjährlichen beziehungsweise dekadischen Skala ist eng mit der NAO verknüpft. Das Bestehen einer „Luftdruckschaukel“ im Nordatlantischen Ozean, welche mit den wandernden langen Wellen des Zirkumpolarwirbels zusammenhängt, ist gut bekannt und untersucht. Im Fall der High-Index-Ausprägung kommt es zur Vertiefung der Islandzyklone und der Verstärkung des Azorenhochs. Als Folge werden in weiten Teilen Europas milde Winter durch die Verstärkung der Zonalzirkulation beobachtet. Während einer Low-Index-Ausprägung stellen sich die umgekehrten Verhältnisse mit kühleren Wintern ein. Im Sommer ist die Korrelation zwischen der NAO und den mitteleuropäischen Temperaturen nur schwach ausgeprägt. Die NAO ist deshalb im Winter und auch im Jahresmittel die bestimmende Luftdruckstruktur im atlantisch-europäischen Sektor. Die zu beobachteten klimatischen Variabilitäten in Europa sind deshalb ohne Berücksichtigung der wechselnden Zirkulationsverhältnisse und somit der NAO nicht zu erklären. Die rezente, anhaltende Erwärmung in Deutschland und weiten Teilen Europas ist verstärkt auf die zunehmende Advektion wärmerer Luftmassen im Winter zurückzuführen. Darüber hinaus sei bemerkt, dass die NAO die Energieflüsse zwischen Ozean und Atmosphäre beeinflusst und dadurch auf die Variabilität der ozeanischen Felder, die Bildung/Verteilung des Treibeises und die Ausprägung der klimarelevanten thermohalinen Zirkulation einwirkt.
137
Die NAO besteht aus einem Nord-Süd-Dipol mit einem Aktions-Zentrum über Grönland und einem zweiten Zentrum zwischen 35° und 40° Nord mit gegensätzlicher Ausprägung. Die NAO ist ein Muster, das ganzjährig auftritt. Die stärkste Ausprägung findet sich im Januar. Als Index wird die standardisierte Differenz der Luftdruckmesswerte zweier Stationen verwendet, wobei nördliche Referenz eine Station auf Island ist. In den meisten Fällen wird als südlicher Messpunkt eine Station auf den Azoren herangezogen. Es gibt aber auch Berechnungen mit entsprechenden Werten aus Lissabon oder Gibraltar. So existiert keine Standarddefinition der NAO, was oftmals zu Schwierigkeiten in der Vergleichbarkeit von NAO-Zeitreihen führt und von Wissenschaftlern kritisiert wird. Im einfachsten Fall handelt es sich um die Luftdruckdifferenz (oder die Geopotenzialdifferenz) zwischen den Aktionszentren Azorenhoch und Islandtief. Die Differenzen spiegeln den mittleren geostrophischen Wind an der Meeresoberfläche (oder in einer gewählten Geopotenzialhöhe) wider. Eng verbunden mit der NAO sind der klassische Zonalindex (nach Rossby 1939: Luftdruckdifferenz zwischen 40° Nord und 60° Nord bei einer gleichzeitigen Längendifferenz von 60°), der hemisphärische Zonalindex (nach Emmrich 1991: hemisphärische Luftdruckdifferenz zwischen 35° Nord und 65° Nord) sowie der geostrophische Wind im 500 hPa-Niveau im Gebiet von 60° West bis 60° Ost und 50° Nord bis 60° Nord. Bekannte Auswirkungen der NAO sind starke Einflüsse auf das Witterungsgeschehen in Europa und Nordamerika: Positive NAO-Phasen bewirken eine starke Westströmung, überdurchschnittliche Temperaturen in den östlichen USA und Nordeuropa, unterdurchschnittliche Temperaturen in Südeuropa und Grönland sowie höheren Niederschlag über Nordeuropa und geringeren Niederschlag in Süd- und Mitteleuropa. Negative NAO-Phasen werden mit nicht-zonalen Zirkulationsformen und somit umgekehrten Beobachtungen in Verbindung gebracht. Weitere bekannte Auswirkungen der NAO mit einer stark ausgeprägten negativen Phase im Winter 1995/96 führten zu einem harten Winter in Nordamerika, tiefen Temperaturen in Nordeuropa und einem regenreichen Wetter in Nordafrika. Das NAO-Fernwirkungs-Potenzial zeigt sich also insbesondere im Zusammenhang mit der Ausprägung regionaler Variationen der Lufttemperatur und des Niederschlages. Während
138
der 1980er-Jahre und der ersten Hälfte der 1990erJahre waren die langanhaltenden winterlichen Trockenphasen in Südeuropa und im Mittelmeergebiet an die dominierenden positiven NAO-Anomalien gebunden. Es besteht weiterhin eine hohe Korrelation zwischen der (zonalen) Wellenhöhe im Atlantik und dem NAO-Index der Wintermonate. Weniger starke Korrelationen finden sich zwischen der Wel-
2 Basiswissen und Grundgesetze der Klimatologie
lenhöhe in der Nord- und Ostsee (vgl. Augustin, 2006) und dem NAO-Index. Je höher der NAO-Index ist, desto höher werden die Wellen beobachtet. Ein weiteres Muster ist das East Atlantic Pattern (EA). Die EA ist ein mit der NAO vergleichbares, ganzjährig auftretendes Muster. Die Zentren bilden ebenfalls einen Nord-Süd-Dipol, sind jedoch im Vergleich zur NAO nach Südosten verschoben. Die EA hat damit eine Verbindung zu sub-
Die thermohaline Zirkulation Die thermohaline Zirkulation treibt den Wassermassenaustausch im Ozean durch Dichteunterschiede des Wassers an. Diese Dichteunterschiede sind auf die kombinierte Wirkung von Temperaturänderungen (thermo-) und Salzgehaltsänderungen (-halin) zurückzuführen. Sie können auf diese Weise Tiefenströmungen verursachen. Diese Bewegungen sind meist sehr träge und können kaum mit Strömungsmessern direkt gemessen werden. Die Dichteunterschiede haben zwei Ursachen:
• Oberflächenwasser verdunstet oder friert aus. Gleichzeitig bleibt das Salz zurück und die Salzkonzentration im flüssigen Wasser wird erhöht. Je nach Temperatur schichtet sich dieses Wasser in leichtere und schwerere Wasserschichten oder sinkt ganz auf den Grund. • Oberflächenwasser kühlt sich beim Transport in polare und subpolare Regionen ab. Dieses sinkt durch leichtere Wasserschichten hindurch bis zu einer Tiefe, in der die Dichte des vorhandenen Wassers der eigenen entspricht. Das absinkende Wasser muss an der Oberfläche durch horizontal heran fließendes Wasser ersetzt werden. Dadurch wird der Motor des Tiefenwasserkreislaufs initiiert. Die größte thermohaline „Pumpe“ arbeitet im Seegebiet zwischen Norwegen und Grönland. Hier kommt mit dem Nordatlantikstrom, der eine Fortsetzung des Golfstroms ist, Wasser aus dem Süden. Dieser Strom ist sehr salzreich, da in den wärmeren Gebieten viel Wasser verdampft ist. Wegen seines Wärmegehalts bleibt dieses Wasser aber auf seinem Weg nach Norden zunächst an der Oberfläche. Erst auf der Breite Islands ist das Oberflächenwasser soweit abgekühlt, dass es langsam abzusinken beginnt. In der Grönlandsee ist es so schwer, dass es durch alle
anderen Wasserschichten hindurch bis auf den Meeresboden in 3 000 m Tiefe sinkt. Damit beginnt der thermohaline Kreislauf. Wenn sich diese Tiefenwasserbildung abschwächt, dann strömt auch im Gegenzug an der Meeresoberfläche weniger warmes Wasser nach Norden – die ozeanische „Fernheizung“ Europas wird schwächer. Die zweite wichtige Absinkregion liegt vor der Antarktis im Wedell-Meer. Die Polarstern-Expedition ANT-XXIV/3 (IPY 2007/2008) des AlfredWegener-Instituts für Polar- und Meeresforschung hatte die Untersuchung der ozeanischen Zirkulation und der davon abhängigen Stoffkreisläufe im Meer zum Inhalt. Schwerpunkte stellten die Projekte CASO (Climate of Antarctica and the Southern Ocean) und GEOTRACES dar, zwei der Hauptprojekte in der Antarktis im Internationalen Polarjahr 2007/08. Erste Ergebnisse der Polarstern-Expedition im Jahr 2008 weisen darauf hin, dass die Tiefsee der Antarktis nach jahrelanger Erwärmung wieder kälter wird. Dadurch könnten die Umwälzbewegungen der ozeanischen Wassermassen in Schwung gebracht werden. Gleichzeitig belegen Satellitenaufnahmen die höchste Ausdehnung des Meereises im antarktischen Sommer seit Beginn der Aufzeichnungen. Ob der kalte antarktische Sommer einen neuen Trend einleitet oder nur ein „Ausreißer“ war, wird mittels autonomer Messbojen in den nächsten Jahren weiter verfolgt. Abgesehen von den zwei wichtigen Absinkregionen ist im übrigen Ozean die aufsteigende Bewegung gleichförmig verteilt. Es ist praktisch der gesamte Ozean in die thermohaline Zirkulation einbezogen, ein Prozess, der für die meisten Vertikalbewegungen im Ozean verantwortlich ist. 2.39 Thermohaline Zirkulation (Quelle: Rahmstorf). ( Farbtafel)
139
2.11 Telekonnektionen
tropischen Klimaphänomenen. Die positiven EAPhasen können folgende Auswirkungen haben: Ganzjährig überdurchschnittliche Temperaturen in Europa und unterdurchschnittliche Temperaturen im Süden der USA (Januar bis Mai) und im Norden der USA (Juli bis Oktober). Darüber hinaus werden überdurchschnittlicher Niederschlag über Nordeuropa und unterdurchschnittlicher Niederschlag über Südeuropa beobachtet. Folgende Beobachtungsjahre (EA-Index) weisen positive beziehungsweise negative EA-Phasen auf:
• 1950–1976: negative EA-Phase • 1977–2004: positive EA-Phase • 1997–2004: stark positive EA-Phase Neben dem East Atlantic Pattern ist noch das Scandinavian Pattern (SCAND) zu nennen. Es ist ein Fernwirkungsmuster mit drei Zentren. Ein Hauptzentrum liegt über Skandinavien, und zwei schwächere gegensätzliche Zentren befinden sich über Westeuropa und Ostrussland/Westmongolei. In der positiven SCAND-Phase liegt in Skandinavien ein Hochdruckgebiet. Dieses Muster ist nach Barnston und Livezey (1987) auch als Eurasia-1-Muster bekannt. Die positiven Phasen des SCAND-Musters bewirken unterdurchschnittliche Temperaturen in Zentralrussland und Westeuropa sowie überdurchschnittlichen Niederschlag in Mittel- und Südeuropa und unterdurchschnittlichen Niederschlag in Skandinavien. An dieses Eurasia-1-Muster schließt sich weiter östlich das Eurasia-2-Muster an, welches auch East Atlantic – West Russia Pattern (EATL/WRUS) genannt wird. Dabei handelt es sich um ein Muster mit vier Zentren und ganzjährigem Einfluss auf das Wetter in weiten Teilen Europas und Asiens. In der positiven Phase des Eurasia-2-Musters finden sich überdurchschnittlich ausgeprägte Hochdruckgebiete über Europa und Nordchina sowie überdurchschnittlich ausgeprägte Tiefdruckgebiete über dem Nordatlantik und nördlich des Kaspischen Meeres. Die Auswirkungen einer positiven Eurasia-2 -Phase sind überdurchschnittliche Temperaturen in Ostasien sowie unterdurchschnittliche Temperaturen in Westrussland und Nordostafrika. Der Niederschlag ist dabei überdurchschnittlich in Ostchina und unterdurchschnittlich in Mitteleuropa ausgeprägt. Die Vielseitigkeit der Fernwirkungsmuster im europäischen Bereich verdeutlicht die Komplexität ihrer Wirkungsgefüge.
2.40 Positive NAO-Phase (Winter). Der Luftdruckgegensatz zwischen Islandtief und Azorenhoch ist größer als normal, und die Westwinde über dem nördlichen Atlantik sind stärker. ( Farbtafel) 2.41 Negative NAO-Phase. Der Luftdruckgegensatz zwischen Islandtief und Azorenhoch ist geringer als normal, und die Westwinde über dem nördlichen Atlantik sind schwächer. ( Farbtafel)
Die Nordatlantische Oszillation und die Arktische Oszillation (AO) sind räumlich sehr ähnlich und sollten deshalb gemeinsam betrachtet werden. Eine Fernwirkung scheint noch zwischen der NAO und der pazifischen Dekaden–Oszillation (PDO) zu bestehen. Bei der PDO geht man von der Hypothese einer langzeitigen, ENSO-ähnlichen Temperatur- und Wasserspiegelfluktuation des Pazifiks mit einem Rhythmus von ca. 20 bis 30 Jahren aus. Ihre Ursache ist unbekannt. Daten des TOPEX/Poseidon-Satelliten und andere Datenquellen über Ozean und Atmosphäre lassen vermuten, dass wir 1999 in die kühle Phase der PDO eingetreten sind. Gegenüber der Normalsituation wird die kühle Phase gekennzeichnet durch einen Keil mit niedrigeren Oberflächentemperaturen im östlichen äquatorialen Pazifik sowie ein warmes „Band“, das den nördlichen, westlichen und südlichen Pazifik verbindet. In der warmen oder positiven Phase, die offensichtlich von 1977–1999 andauerte, wird der westliche Pazifik kühl und der Keil im Osten des Pazifik erwärmt sich. Dekaden mit hohem winterlichen NAO-Index fallen mit Dekaden mit hohem PDO-Index zusammen. Dies bedeutet, dass in Jahrzehnten mit vielen La-Niña-Ereignissen mit strengen Wintern in Europa zu rechnen ist.
2.11.4 Die Arktische Oszillation (AO) Die Arktische Oszillation ist ein Muster mit einem Hauptzentrum in Form eines Tiefs über dem Pol und mehreren schwächeren Nebentiefs im Nordatlantik und Nordpazifik. Sie wird auch Northern Hemispheric Annular Mode (NAM) genannt und ist Ausdruck des Luftdruckunterschieds zwischen den arktischen und den mittleren Breiten auf der Nordhemisphäre. Sie entsteht durch die großen Temperaturunterschiede zwischen den ex-
140
2 Basiswissen und Grundgesetze der Klimatologie
kühlere Stratosphäre
weniger kalte Stratosphäre
warm und feucht kühl
kalt
Stürme
trocken
stärkere Passate
kalt
schwächere Passate
2.42 Die Arktische Oszillation; links: positive Phase, rechts: negative Phase. In der positiven Phase treiben im Winter starke Westwinde die warme Atlantikluft nach Nordeuropa und Sibirien. Dies bewirkt überdurchschnittliche Temperaturen im europäischen Winter und unterdurchschnittliche Temperaturen in Kanada. Zusätzlich kann es zu erhöhtem Niederschlag im Norden Europas sowie trockenerem Wetter über dem Mittelmeerraum kommen. In der negativen Phase wird kalte Polarluft weiter nach Süden transportiert. Die Folge ist ein strenger Winter in Europa.
trem kalten Polarregionen und den gemäßigten mittleren Breiten. Aufgrund der Corioliskraft entwickeln sich Ostwinde. Wie alle Strömungen lässt sich auch die AO in eine positive und eine negative Phase einteilen (Abbildung 2.42).
2.11.5 West Pacific Pattern (WP) Das westpazifische Muster besitzt ebenfalls einen Nord-Süd-Dipol mit gegensätzlichen Zentren über der Kamtschatka-Halbinsel und Südostasien. Die Zentren verschieben sich vom Winter zum Sommer nach Norden. Starke WP-Phasen haben einen Einfluss auf den East Asian Jetstream (EAJ), sodass dieser sich ebenfalls verschieben kann. Positive WP-Phasen bewirken unterdurchschnittliche Temperaturen in Sibirien. Im pazifischen Raum finden sich weitere Fernwirkungsmuster wie das East Pacific–North
Pacific Pattern (EP–NP). Dieses Muster ist von drei Hauptzentren geprägt. In der positiven Phase liegt ein Hoch über Alaska und jeweils ein Tief über dem Nordpazifik und Nordostamerika. In stark positiven Phasen verschiebt sich der pazifische Jetstream nach Süden und gewinnt dadurch an Intensität. Das Pacific North American Pattern (PNA) besitzt vier Zentren, davon sind zwei Hochdruckgebiete über Hawaii und Nordamerika sowie zwei Tiefdruckgebiete über den Aleuten und dem Südwesten der USA ausgebildet. Die positive PNA-Phase bewirkt eine Verstärkung des East Asian Jetstreams (EAJ) sowie seine Verschiebung nach Osten. Zudem bewirkt das PNA-Muster überdurchschnittliche Temperaturen in Kanada und dem äußersten Westen der USA sowie unterdurchschnittliche Temperaturen im Südwesten der USA. Im südlichen Pazifik ist schließlich die Pazifisch-Südamerikanische Telekonnektion (PSA) zu nennen. Die PSA drückt die Wechselwirkun-
141
2.11 Telekonnektionen
gen zwischen Luftdruckschwankungen im Südpazifik und den Niederschlägen in Südamerika aus. Die Darstellungen der unterschiedlichen Telekonnektionen belegen deren gegenseitige Beeinflussung. Die ständigen Wechselwirkungen zwischen diesen Schaltkreisen lassen sich vergleichen mit der Kommunikation zwischen Computerknoten in einem neuronalen Netzwerk, die verschiedene Reaktionen hervorrufen – je nachdem, welche Systeme zwischengeschaltet sind. Die Tiefdruckgebiete der AO überschneiden sich mit dem Islandtief der NAO, was zu einem ähnlichen Verlauf der Indizes führt. Die NAO wird zum Teil auch als lokale Ausprägung der AO angesehen. Im Februar sind NAO und EATL/ WRUS vermischt, die dadurch ein ähnliches Verhalten zeigen müssten. Obwohl das PNA ein eigenständiges Muster ist, scheint es stark von ENSO beeinflusst zu werden. So überschneiden sich positive PNA-Phasen mit dem Auftreten eines El Niño, negative Phasen hingegen korrelieren mit dem Auftreten von La Niña.
2.11.6 Quasi-BiennialOszillation (QBO) Die Quasi-Biennial-Oszillation (QBO) beschreibt die periodische Umkehrung der äquatorialen Winde in der unteren Stratosphäre. In einer Höhe von 15 bis 30 km wechseln sich Perioden mit vorherrschenden Ost- beziehungsweise vorherrschenden Westwinden etwa alle 26 bis 28 Monate ab. Kennzeichen ist also eine Ost-West-Windumkehr. Dabei geht die Windänderung von den oberen Schichten der Stratosphäre aus und setzt sich nach unten fort. Ihre Ostwindphase hält in den oberen Schichten länger und in den unteren Schichten kürzer an als ihre Westwindphase. Die Ostwinde sind hierbei stärker als die Westwinde ausgeprägt, wobei diese eine Stärke von -30 m/s (Ostwind) bis +15 m/s (Westwind) aufweisen. Die QBO verläuft zonal entlang dem Äquator und erstreckt sich auf einen Bereich bis maximal 15° nördlicher und südlicher Breite. Der standardisierte QBO-Index entspricht dem monatlich gemittelten zonalen Wind über dem Äquator in einem Höhenniveau von 30 hPa. Der Prozess der QBO ist heute noch relativ unerforscht. Als Ausbreitungsmechanismus wer-
QBO 10 0 –10 –20 –30 1950 ’55
’60
’65
’70
’75
’80
’85
’90
’95
’00 2005
2.43 QBO-Index beschreibt der zeitlichen Verlauf einer quasi-zweijährigen Schwingung, die eine quasiperiodische atmosphärische Welle des zonalen Windes in der äquatorialen Stratosphäre der Erde ist. QBO = Quasi-Biennial-Oszillation.
den Wellen angenommen. Die Auswirkungen der QBO sind dagegen gut bekannt. Die QBO nimmt Einfluss auf die Verteilung des stratosphärischen Ozons sowie auf den Transport von Spurengasen zwischen äquatorialen, subtropischen und höheren Breiten und somit indirekt auf die Sonnenaktivität. Bei den vorangegangenen Fernwirkungen handelt es sich um Telekonnektionen oder Zirkulationsmodi, die in der Troposphäre wirken. Die troposphärische Zirkulation nimmt großen Einfluss auf die Ozonschwankungen in allen Zeitskalen. Insbesondere wirkt die troposphärische Klimaänderung mit ihren Fernwirkungen auf die Ozonschicht und damit auf die Stratosphäre. Die QBO als eine Telekonnektion in der Stratosphäre nimmt wiederum Einfluss auf die Troposphäre. Die genannten Indizes der troposphärischen Telekonnektionen können die Änderung der atmosphärischen Zirkulation und ihre Auswirkungen auf Temperatur, Tropopausenhöhe und Ozon gut beschreiben. In der freien Troposphäre über Mitteleuropa ist es z. B. im Februar seit Ende der 1960er-Jahre um 3 °C wärmer geworden, und die Tropopause hat sich um 450 m nach oben verlagert. Diese Änderungen gehen mit Änderungen der Zirkulation, nämlich einer Verstärkung der AO, des Eurasia-1-Musters, der NAO und verwandter Muster einher. Sie erwirken etwa 30 % der langfristigen Ozonabnahme über Mitteleuropa. Ozonabnahme und Zirkulationsänderungen führen zu einer Abkühlung der unteren Stratosphäre. Diese stratosphärischen Änderungen wirken in die Troposphäre zurück, weil es sich bei der AO um eine troposphärisch-stratosphärischgekoppelte Telekonnektion handelt. Es gibt somit einen engen, rückgekoppelten, wahrscheinlich nicht-linearen Zusammenhang zwischen Kli-
142
maänderung, Telekonnektionen, Treibhauseffekt und stratosphärischem Ozonabbau.
2.12 Klimate der Erde – Klimaklassifikationen In einem Lehrbuch über Klimaforschung im 21. Jahrhundert erscheint das Thema „Klimaklassifikationen“ zunächst als antiquiert. Möchte man sich aber mit den möglichen Auswirkungen des Klimawandels auf die Klimazonen unserer Erde beschäftigen, so ist das Wissen über Ausprägung und geographische Verteilung des mittleren Ist-Zustands der Klimazonen auf der Erde sehr wichtig (z. B. Einschätzung möglicher Klima-Projektionen wie die SRES-Projektionen: B1, A1B, A2 usw.). Klimaklassifikationen integrieren die vielseitig vernetzten Klimaelemente und Klimafaktoren und geben deren Wirkungen auf die Erdoberfläche beziehungsweise die Ozeane in Klimatypen wieder. Diese Klimatypen werden ihrerseits in den zahlreichen Klimaklassifikationen als Klimazonen, Klimagürtel oder Klimagebiete kartographisch dargestellt. Klimate einzelner Landschaften werden zu sogenannten homologen Klimatypen zusammengefasst. Diese homologen Klimatypen sind in ihren wesentlichen Eigenschaften (meist Temperatur, Niederschlag, Energiebilanz) gleichartig oder überwiegend ähnlich. Oberstes Ziel dieser „Regionalisierung“ der Klimate ist die Verknüpfung des atmosphärischen Zustands beziehungsweise deren vielfältigen Ausprägung mit dessen mittlerer Wirkung auf die Erdoberfläche/Ozeane. Weltweit haben sich zwei Typen von Klimaklassifikationen herausgebildet: Die genetisch-dynamische Klassifikation nutzt die aus dem Energiehaushalt der Erde abgeleitete atmosphärische Zirkulation als typisierende Raumgliederung. Die effektive Klassifikation geht von den Auswirkungen der Klimabedingungen aus und erfasst zu diesem Zweck bestimmte Indikatoren des Klimas (z. B. Vegetation, Hydrologie, Aridität, Humidität) in Form von Häufigkeitsverteilungen, Grenzwerten (thresholds), Indizes und grenzt räumliche Klimatypen aus. Eine wesentliche Aufgabe einer globalen Klimaklassifikation ist es, die örtlichen beziehungsweise regionalen Klimate nach geeigneten Gesichtspunkten zu typisieren und die Verteilung der zusammengefassten Klimatypen auf
2 Basiswissen und Grundgesetze der Klimatologie
der Erde kartographisch-statistisch aufzubereiten. Dabei sind für unterschiedliche Anwendungsaspekte (vegetationsökologisch-bodenkundliche Fragestellungen, landwirtschaftlich-ernährungswirtschaftlich orientierte Fragestellungen, hydrogeographisch-morphologische oder humanphysiologische Fragestellungen) jeweils individuell angepasste Grenzdefinitionen zu wählen, um für die genannten Anwendungen geeignete Typisierungsgrundlagen zu finden.
2.12.1 Genetisch-dynamische Klimaklassifikationen Basis dieser Klassifikationen ist die Energiebilanz der Erde und die sich daraus ableitenden Luftmassenbewegungen mit ihren inhärenten Eigenschaften. Im Gegensatz zu effektiven Klassifikationen, die keine Aussage über die Ursachen der räumlich unterschiedlichen Klimate zulassen, versuchen genetisch entwickelte Klassifikationen eine ursächliche Begründung. Anfänge dieses Klassifikationstyps lassen sich in der „natürlichen Klassifikation der Klimate … nach der Art der Luftbewegung“ in der Abhandlung Klimate der Erde von Alfred Hettner (1930) finden. Im Jahre 1950 folgte eine Einteilung in Zonenklimate nach Hermann Flohn, in der von einer vorherrschenden zonalen Strömungskomponente in der unteren Troposphäre ausgegangen wurde. Eine Differenzierung dieser Zonenklimate in Klimatypen wurde allerdings im ersten Entwurf nicht durchgeführt. Eine weitere Ausarbeitung erfolgte durch Kupfer 1954. Eine weitere Modifikation der genetischen Klassifikation gab es von Hendel (1963), der von einer unterschiedlichen Zirkulationsstruktur zwischen Tropen und Außertropen ausging. Zur Abgrenzung der Klimatypen nach Hendel muss hier aus Platzgründen auf die Originalarbeiten verwiesen werden (Hendel 1963 und 1966). Die genetisch-dynamische Klimaklassifikation nach Terjung und Louie (1972) nimmt als erste Klassifikation die Energiebilanz (Strahlungsbilanz) als Grundlage der Zonierung. Terjung und Louie gliederten die Erde anhand ihres Wärmehaushalts in insgesamt 62 Klimatypen. Eine gute Zusammenfassung zur Entwicklung der Klimaklassifikationen findet sich bei Hupfer 1991. Die vielfältigen Ansätze belegen, dass die
143
2.12 Klimate der Erde – Klimaklassifikationen
Tabelle 2.6 Zonenklimate nach der Idee von Hermann Flohn 1950 TT = Innertropisches Klima TP = Randtropisches Klima PP = Subtropisches Trockenklima PW = Subtropisches Winterregenklima WW = Feuchtgemäßigtes Klima EW = Subpolares Klima EE = Hochpolares Klima Die Buchstabenkombinationen beziehen sich auf die vorherrschende zonale Strömungskomponente im Sommer (erster Buchstabe) und im Winter (zweiter Buchstabe). T steht für innertropische westliche Winde, P für tropische östliche Winde (Passate), W für außertropische westliche Winde und E steht für polare östliche Winde.
atmosphärische Zirkulation zwar eine Klimaklassifikationsgrundlage mit hohem Informationsgehalt bietet, dass sie jedoch nicht allein den klimagenetisch wirksamen Faktor darstellt.
2.12.2 Effektive Klimaklassifikationen Effektive Klimaklassifikationen nutzen im Allgemeinen entweder die Temperatur (festgelegte Schwellenwerte) oder den Niederschlag (in Verbindung mit Indizes) als Hauptgliederungsparameter. Bei der weiteren Untergliederung werden meist hygrische Parameter herangezogen. Großräumige Abgrenzungen ergeben sich z. B. durch die Ermittlung der Frostgrenze, welche die Tropenzone von den Außertropen abgrenzt. Bedingt wird diese Grenze dadurch, dass tropische Pflanzen megatherm (wärmebedürftig) sind und unter Frostbedingungen nicht existieren können. Dieser Grundgedanke wurde bereits von v. Wissmann (1948) im Zusammenhang mit der Ausweisung der absoluten Frostgrenze ausführlich diskutiert und in den Arbeiten von Lauer und Frankenberg (1975, 1977) weiter vertieft. Ein anderes Beispiel ist die Ableitung der 10 °C-Isotherme des wärmsten Monats über einer Region, welche der polaren Waldgrenze entspricht. Beide Schwellenwerte stehen für Wärmemangelgrenzen, die großräumig Gebiete hinsichtlich ihrer geographisch-ökologischen Ausstattung trennen.
Thornthwaite entwickelte 1948 eine Klimaklassifikation, die auf der Wirksamkeit des Niederschlags, dem Verhältnis von Niederschlag zu Verdunstung, basiert. Diesen Schwellenwert nannte er „Precipitation Effectiveness Index“. Der Index ist ein Maß für die Differenzierung humider und arider Klimate und setzt das Verhältnis von monatlicher Regenmenge und Temperatur in Beziehung. Später wurde diese Großgliederung noch durch den „Temperature Efficency Index“ ergänzt. Ergebnis war eine Klassifikation in große thermische Zonen, die durch die Andauer humider (Niederschlag > Verdunstung) und arider (Verdunstung > Niederschlag) Zeiten (Monate, Jahreszeiten) noch weiter differenziert wurde. Eine herausragende effektive Klimaklassifikation ist die von Wladimir Köppen. Diese Klassifikation aus dem Jahr 1923 gehört selbst heute noch zu den meist genutzten Klassifikationen und ermöglicht eine Gliederung der Erde in sehr kleine regionale Klimaeinheiten. Sein Werk Geographisches System der Klimate (1936), das die erste objektive Klimaklassifizierung der Erde darstellt, ist noch heute von großer Bedeutung. Köppen entwickelte seine Klassifikation mithilfe einer Klimaformel, die Niederschlagsmenge und -verteilung, Temperatur sowie die Verteilung der Vegetationsgürtel berücksichtigt. Tabelle 2.7 Fünf Hauptklimazonen (A, B, C, D, E) nach Köppen A: Tropische Klimate Af: tropisches Regenwaldklima (immerfeucht) Am: Regenwaldklima mit kurzer Trockenzeit Aw: Savannenklima (wintertrocken) B: Trockenklimate BS: Steppenklima BW: Wüstenklima C: Warmgemäßigte Klimate Cf: feuchtgemäßigtes Klima Cs: Etesienklima (sommertrocken) Cw: sinisches Klima (wintertrocken) D: Boreale Klimate oder Schneewaldklimate Df: immerfeucht Dw: transsibirisches Klima (wintertrocken) E: Eisklimate jenseits der Baumgrenze oder Schneeklimate ET: Tundrenklima EF: Klima des ewigen Frosts
144
Die Köppen-Klassifikation ist Musterbeispiel einer effektiven Klimaklassifikation. Die einzelnen Klimazonen werden aus der Analyse der tatsächlichen (effektiven) auf der Erdoberfläche messbaren Klimaelemente und der in der Realität vorhandenen Vegetation erstellt. Die Vegetation integriert dabei über die vorherrschenden Klimabedingungen und stellt dadurch einen wichtigen Klimaanzeiger (Klimaproxy) dar. Zur wesentlichen Erneuerung und Verbreitung der Klimaklassifikation von Köppen kam es durch den Münchener Meteorologen Rudolf Geiger (Köppen-Geiger-Klimaklassifikation 1961). Ein weiterer Zweig der effektiven Klassifikationen beschäftigte sich mit der Wasserhaushaltsbetrachtung bezüglich Humidität und Aridität. Der Geograph Albrecht Penck wählte als erster den Klimaparameter Verdunstung als Leitgedanken für seine Klassifikation aus. Unter Betrachtung der allgemeinen Wasserhaushaltsgleichung, basierend auf den Relationen zwischen Niederschlag, Verdunstung, Abfluss und Grundwasser entwickelte er eine Klassifikation humider, arider und nivaler Klimate. Die Grenze zwischen humiden und ariden Klimaten bildet die sogenannte Pencksche Trockengrenze (Menge des Niederschlags entspricht der Höhe der Verdunstung). Weitere wichtige effektive Klimaklassifikationen wurden unter anderem von Carl Troll (1943) und Karlheinz Paffen (1964) entwickelt. In der Weiterentwicklung der Klassifikationen hat sich herausgestellt, dass die Verdunstung von Landschaften stark von deren ökophysiologischer Ausstattung (z. B. Boden, Albedo, Art des Bewuchses) abhängt. In Folge wurde eine Vielzahl von pluviometrischen Indizes entworfen. Ihre bestimmenden Parameter sind vor allem das Sättigungsdefizit der Luft, die Strahlungsbilanz und die Lufttemperatur beziehungsweise ein komplexes Geflecht mehrerer Parameter untereinander. Henning und Henning entwickelten 1976 Wasserbilanzkarten für alle Kontinente, die sie anhand physikalisch gut abgesicherter Berechnungen für die Evapotranspiration nach Penman und Albrecht erstellten (▶ Exkurs „Modelle zur Verdunstungsberechnung“, S. 100). Ihre Karten belegen, dass die klimatologische Trockengrenze weit in die von Penck ausgewiesenen humiden Regionen hineingreift und somit die berechnete klimatische Wasserbilanz anhand des Ariditäts/
2 Basiswissen und Grundgesetze der Klimatologie
Köppen, Wladimir Peter (1846–1940), deutscher Meteorologe russischer Herkunft, Schwiegervater von A. Wegener; 1875–1924 Meteorologe der Deutschen Seewarte Hamburg; ab 1924 in Graz; Bearbeitung von Segelhandbüchern, Begründer der maritimen Meteorologie; wichtige Beiträge zur Synoptik; erkannte als einer der ersten die Bedeutung der Höhenwerte für die Vorgänge in Bodennähe, prägte den Begriff Aerologie, forschte über Klima der Ozeane und Klimaschwankungen, wies die 11-jährige Witterungsperiode nach; schuf die Köppen-Klimaklassifikation.
Geiger, Rudolf Oskar R. W. (1894–1981), dt. Physiker und Meteorologe; 1937 Professor in Eberswalde bei Berlin und Direktor des dortigen Meteorologisch-Physikalischen Instituts der Forstlichen Hochschule, 1948–1958 Vorstand der Meteorologischen Institute der Universität und der Forstlichen Versuchsanstalt München; begründete und förderte die Mikroklimatologie.
Penck, Albrecht (1858–1945), deutscher Geograph; ab 1885 als Professor in Wien, 1906–1926 in Berlin als Nachfolger von F. v. Richthofen, 1906–1921 Direktor des dortigen Museums für Meereskunde; richtungsweisende Arbeiten zur Geomorphologie und Glazialmorphologie, gliederte das Pleistozän im Alpenvorland in Günz-, Mindel-, Riß- und Würmeiszeit; wichtige Arbeiten in der Kartographie, der Länderkunde und der Anthropogeographie; gab 1891 den Anstoß zur Erstellung der ›Internationalen Weltkarte 1:1 000 000‹; Begründer der ›Geographischen Abhandlungen‹ (1886).
Humiditäts-Maßes die realen landschaftsräumlichen Verhältnisse des Wasserhaushalts nur angenähert wiedergibt. Eine wesentliche Weiterentwicklung der effektiven Klassifikationen unter Einbindung ökophysiologischer Merkmale lieferten Lauer und Frankenberg (1988). Sie verfolgen das Konzept einer ökoklimatischen Gliederung der Erde, welche auf Strahlungs-, Wärme- und Wasserhaushalt basiert.
2.12 Klimate der Erde – Klimaklassifikationen
145
Klimaproxies Ein Klimaproxy ist ein indirekter Klimaanzeiger, dass heißt, man nutzt natürliche Archive wie Baumringe, Eisbohrkerne , Korallen, See- oder Ozeansedimente. Weitere Quellen für Klimaproxies können Pollenanalysen oder historische Aufzeichnungen, Tagebücher und Archive sein. Die Klimaproxies sind deshalb so von Bedeutung, da sie zur Rekonstruktion des Klimas der Vergangenheit herangezogen werden können, als noch keine instrumentellen Aufzeichnungen existierten. Klimaproxies müssen jedoch mittels instrumenteller Daten kalibriert werden, um ein quantitatives Bild vergangener Klimazustände gewinnen zu können. Sie bilden daher die Datenbasis der Paläoklimatologie. Beispiel Baumringe: Baumringe oder Jahresringe sind im Querschnitt eines Baumes (Stamm) sichtbare, ringförmige Wachstumsmarken des Holzes einer mehrjährigen Pflanze. Jahresringe können nur dort entstehen, wo es durch die klimatischen Voraussetzungen zu einer vorübergehenden Ruhe der Teilungsaktivität des Kambiums kommt. Eine Ursache dafür können Winter im Jahreszeitenklima oder Trockenzeiten in den subtropischen und tropischen Regionen sein, die auch in halbjährlichem Rhythmus erfolgen können. Beispiel Sauerstoffisotope in Luftblasen von Eisbohrkernen: Wasser liegt in unterschiedlichen Formen vor. Es gibt leichtes H216O und schwereres Wasser H218O. Der Unterschied wird durch die Sauerstoffisotope bestimmt. 16O ist mit 99,7 % das häufigste, gefolgt von 18O mit 0,1995 %. Das Verhältnis von 18O zu 16O drückt man als Δ 18O aus.
Die Ausweisung der solaren Bestrahlungsgürtel wird durch einen Schwellenwert der jährlichen Tageslängen-Schwankungen (TLS) bestimmt. Der Unterschied dieser Klassifikation zu den bereits angesprochenen effektiven Klassifikationen liegt in der Markierung der klimatischen Grenzlinien auf der Klimakarte. Diese werden grundsätzlich quantitativ ausgedrückt und sind physikalisch nachvollziehbar. Die Lauer-Frankenberg-Klassifikation ist darüber hinaus auf die realen Vegetationsgürtel der Erde bezogen und
Niedrige Δ 18O Konzentrationen sind ein Indiz für ein wärmeres, höhere Δ 18O Konzentrationen für ein kälteres Klima. Stabile Isotope von Elementen, die natürlicherweise in der Atmosphäre beziehungsweise im Meer vorkommen, können dadurch einen wesentlichen Beitrag zur Rekonstruktion von Temperatur und Eisbedeckung leisten. Besonders wichtig sind dabei Sauerstoff (18O- und 16O-Isotope) sowie der zweiwertige Wasserstoff (2H-Isotop). Dieser wird auch Deuterium (D) genannt und kann linear zur Temperatur in Beziehung gesetzt werden. Deuterium wird wegen seines höheren Molekulargewichtes früher als Niederschlag abgegeben, wenn feuchte Luft landeinwärts wandert. Für das letzte Glazial wurden Werte um ca. -480‰, für das Interglazial zwischen -420 und -440‰ gemessen. Es wird allgemein eine Änderung des Isotopenverhältnisses von Δ18O zwischen 0,62‰ und 0,33‰ pro 1°C Temperaturschwankung angenommen. Zusätzlich werden die Ergebnisse durch die Bedingungen an der Meeresoberfläche, der Wolkentemperatur und durch die Jahreszeit des Niederschlags beeinflusst. Die abgeleiteten Messwerte sind deshalb nur eingeschränkt zu bewerten, da die jahreszeitliche Variation bei 20‰ liegt, während der Unterschied zwischen dem Letzten Glazialen Maximum und dem Holozän nur 8-10‰ beträgt (Cronin 1999). Es konnte eine Nettoschwankung von 11‰ in Grönland, aber nur 5-7‰ für die Antarktis festgestellt werden (Williams 1998). Dies belegt, wie stark die Klimaschwankungen ausgeprägt waren. Gemessen werden die Isotopenanteile mit dem Massenspektrometer. Ausgedrückt werden die Ergebnisse als Abweichung in Promille (‰) von einem spezifizierten Standardwert, der etwa den heutigen Verhältnissen entspricht.
berücksichtigt quantitativ definierte Prozessabläufe. Die Rolle der Klimaklassifikationen ist heute vor allem im Hinblick auf eine räumliche Bewertung des Klimawandels zu sehen. Moderne EDVtechnische Verfahren (Geographische Informationssysteme, GIS, vgl. Kappas 2001) ermöglichen heute die zusätzliche Berücksichtigung vielfältiger Informationsebenen (layer) und können damit zur Optimierung der Klimaklassifikation beitragen. Insbesondere die Dynamisierung der
146
zeitlich-räumlichen Ausprägung von Klimazonen, die Aufnahme von Extremausprägungen (z. B. der „Jahrhundertsommer 2003“ in Europa) und deren räumliche Auswirkungen auf und in den Klimazonen sind wichtige zukünftige Arbeitsbereiche in der Klimaforschung. Im Folgenden ist ein Beispiel der Arbeitsgruppe von Beck (2005) gezeigt, welche die Klimaklassifikation von Köppen mit modernen Klimadatenarchiven und Re-Analysedaten koppelt, um mögliche Veränderungen der Klimazonen hinsichtlich des Klimawandels zu bewerten. Die Abbildung 2.46 (hintere Umschlaginnenseite) zeigt eine Weltkarte der aktualisierten Form der Köppen-Klassifikation anhand der Klimadaten des CRU TS 2.1-Datensatzes (Temperatur) und des VASClimo-Datensatzes (Niederschlag) bezogen auf den Zeitraum 1951–2000. Zur Berechnung der Hauptklimazonen wurden die Formeln der Klimaklassifikation nach Köppen zur Ausweisung der Klimazonen A, B, C, D und E herangezogen. Im folgenden Schritt wurden die Flächenveränderungen der einzelnen Klimahauptzonen analysiert und in Abbildung 2.44 schematisch dargestellt. Es zeigt sich eine deutliche Zunahme der Trockengebiete (BKlimate) und ein Schrumpfen der Schnee- und Eisklimate (D- und E-Klimate). Dies ist ein gelungenes Beispiel, wie historisch gewachsenes klimatologisches Wissen mit modernen Fragestellungen und Methoden gekoppelt werden kann.
2 Basiswissen und Grundgesetze der Klimatologie
Die Zahlen über und unter den Buchstaben der Hauptklimate (A, B, C, D, E) zeigen den relativen Flächenanteil für die Zeitscheiben 1951– 2000 (oben) und 1986–2000 (unten) an. Blaue Zahlen weisen auf eine Zunahme, rote Zahlen auf eine Abnahme der entsprechenden Klimazone hin. Die Pfeile dokumentieren die Umverteilung zwischen den Hauptklimazonen. Es zeigt sich ein deutlicher Verlust bei den Klimazonen D und E. Hauptzuwächse finden sich bei den Klimaregionen B (+ 0,78) und C.
16,33
0,80
24,38
C +0,12
0,02
D –0,46
16,45 0,50 0,17
23,92 0,09 0,27
31,45
0,04 0,38
B +0,78
0,51
32,23 0,35 0,10
0,02
22,14
5,66
A +0,09
E –0,53
22,23
5,13
2.44 Veränderungen der fünf Hauptklimate nach Köppen in der Periode von 1951–2000, basierend auf einer Analyse des CRU TS 2.1-Datensatzes (Mitchell und Jones 2005) und dem VASClimO-Datensatz (Quelle: Beck et al. 2005).
147
2.12 Klimate der Erde – Klimaklassifikationen
Wichtig zu wissen • Die heutige Erdatmosphäre ist das Resultat ei-
•
•
•
•
•
•
•
ner langen Entwicklungsgeschichte. Ihre Gaszusammensetzung ist grundverschieden von der der solaren Uratmosphäre, aus dem unser Sonnensystem entstanden ist. Die Erdatmosphäre ist ein Gemisch aus unterschiedlichen Gasen, das neben den Hauptbestandteilen Stickstoff (N2 , relativer Volumenanteil 78,09 %) und Sauerstoff (O2 , 20,95 %) eine Anzahl von Spurenstoffen enthält, von denen insbesondere Argon (Ar, 0,93 %) und Kohlendioxid (CO2 , 0,03 %) zu nennen sind. Aufgrund der Dichte- und Druckabnahme mit zunehmender Höhe kommt es zur „Ausschichtung“ in der Atmosphäre entsprechend dem Molekulargewicht der Inhaltsstoffe. Die leichteste Substanz, der Wasserstoff (rund 0,5 ppm), ist dabei ganz oben. Die Ausschichtung führt im Zusammenspiel mit dem solaren Strahlungsumsatz zu einer charakteristischen vertikalen Temperaturverteilung und Stockwerkeinteilung der Atmosphäre. Die unterste Atmosphärenschicht wird Troposphäre (Wettersphäre) genannt. In ihr spielen sich alle typischen Wettervorgänge wie Bewölkung und Niederschlag ab. Ihre Obergrenze ist die Tropopause. Die Troposphäre ist die unterste, dichteste und dünnste Atmosphärenschicht. Trotzdem enthält sie fast 90 % der gesamten Erd-LuftMasse sowie des Wasserdampfes. An die Tropopause schließt sich in der Höhe die Stratosphäre und die Mesosphäre an. Quellgase wie Methan (CH4), Wasserstoff (H2), Kohlenmonoxid (CO) und Methylchlorid (CH3Cl) sind Gase, die in der unteren Atmosphäre eher reaktionsträge sind. In der höheren Atmosphäre bilden sie aber die „Quelle“ für sehr reaktive Substanzen. Die Bestrahlungsstärke am Außenrand der Atmosphäre wird Solarkonstante genannt und beträgt etwa 1 367,0 ± 0,70 Watt/m2. Die Erde schneidet aus der Sonnenstrahlung ein Bündel der Fläche π × R2 mit R als Erdradius aus. Die Erdoberfläche selbst beträgt 4 × π × R2. Ohne Berücksichtigung des Einflusses der Erdatmosphäre ergibt sich somit als mittlere solare Einstrahlung ein Viertel der Solarkonstanten (etwa 342 W/m2). Licht als eine elektromagnetische Welle ist gekennzeichnet durch die Frequenz (Häufigkeit
• •
•
•
•
•
• •
der Schwingungen pro Sekunde) und die Amplitude (Abstand zwischen zwei Wellenlängenbergen beziehungsweise -tälern). Jede Strahlenquelle sendet ein für sie typisches Gemisch vieler unterschiedlicher Wellenlängen aus, ihr Spektrum. Das Beleuchtungsklima der Erde, Tages- und Jahreszeiten, ist Resultat der Anordnung der Erde im Sonnensystem. Eine Ursache für die Schwankung der Solarkonstanten am Außenrand der Atmosphäre ist die Veränderung der Erdbahnparameter in langen Zeitskalen. Zu diesen Veränderlichen der Erdbahnparameter, auch Präzessionen genannt, gehören die numerische Exzentrizität der Erdumlaufbahn, die Schwankung in der Neigung der Erdachse (Schiefe der Ekliptik) und die Veränderung der Apsiden beziehungsweise der Perihellänge. Die Atmosphäre selbst ist eine wichtige Komponente des Klimasystems. Sie greift aktiv in den Strahlungshaushalt der Erde ein und verändert durch ihre Eigenschaften sowohl die einfallende, kurzwellige Sonnenstrahlung als auch die abgehende, langwellige terrestrische Strahlung. Die langwellige terrestrische Strahlung wird durch Wasserdampf (H2O) und strahlungsaktive Gase (CO2, O3, N2O, CH4) verändert. Die strahlungsaktiven Gase absorbieren und emittieren insbesondere im Infrarotbereich des Spektrums. Selektive Effekte schwächen beziehungsweise verändern die Sonnenstrahlung beim Durchgang durch die Atmosphäre. Den Gesamteffekt nennt man Extinktion. Die Extinktion ergibt sich aus diffuser Reflexion und selektiver Absorption. Die Streuung an Teilchen, die gegenüber der Wellenlänge des Lichts klein sind, nennt man Rayleigh-Streuung. Sind die Streuung verursachenden Teilchen nicht klein im Vergleich zur Wellenlänge, so spricht man von der MieStreuung. Kurzwelliges Licht wird wesentlich stärker gestreut als langwelliges Licht; daraus resultiert auch die blaue Farbe des Himmels. Durch die Absorption können bestimmte Spektralbereiche der ankommenden Strahlung sehr stark geschwächt werden oder ganz wegfallen (Absorptionsbanden). Solche Absorptionsbanden werden insbesondere durch Ozon (O3),
148
•
•
•
•
•
•
•
•
•
Kohlendioxid (CO2) und Wasserdampf (H2O) verursacht. Die Gesamtenergie an kurzwelliger Strahlung, die aus direkter Sonnenstrahlung (Q) und indirekter Strahlung (q, diffuses Himmelslicht) resultiert, wird Globalstrahlung genannt. Der Anteil an diffuser Himmelsstrahlung steuert die Expositionsunterschiede im Lebensraum von Mensch, Tier und Pflanze, und ein hoher Anteil diffuser Strahlung führt zur Verringerung des Licht-Schatten-Kontrasts und damit zur Abnahme der Expositionsunterschiede. Die Maximalwerte der Globalstrahlung treten auf der Nordhemisphäre auf und zwar nahe der Wendekreise (23° 30' Nord und Süd) und über Landflächen. Als Albedo wird das relative beziehungsweise prozentuale Rückstreuvermögen oder Reflexionsvermögen der Erde bezeichnet. Die planetare Albedo beschreibt den Gesamtreflexionsanteil der Erde und beträgt rund 30 %. Im Wesentlichen gibt es zwei direkte Mechanismen zum Ausgleich der Strahlungsbilanz der Erde(QErde): 1. Energietransport in Form von Wasserdampf, die sogenannte latente Wärme: verdunstetes Wasser kondensiert in der Atmosphäre und gibt seine „Kondensationswärme“ (Verdampfungswärme) an die Atmosphäre ab 2. Energietransport in Form unmittelbarer Wärmeabgabe an die Atmosphäre durch Wärmeleitung an der Erdoberfläche, die sogenannte fühlbare Wärme. Dem global geschätzten Wert für den latenten Wärmefluss von 70-90 W/m2 entspricht eine mittlere globale Verdunstungsrate von 800 bis 1 000 mm pro Jahr. Der Effekt, der den Unterschied zwischen real beobachteter Erdoberflächentemperatur und theoretischer Abstrahlungstemperatur (+15 °C–(-18 °C) = 33 K) beschreibt, wird natürlicher Treibhauseffekt genannt. Durch die Anreicherung zusätzlicher menschlicher Treibhausgase in der Atmosphäre wird das bestehende Treibhaus perfekter, das heißt, die Temperatur steigt. Die Erde besitzt prinzipiell in drei Spektralbereichen atmosphärische Fenster, in denen sie für die ausgehende Erdwärmestrahlung durchlässig ist: • unterhalb von 8 μm (Wasserdampf) • zwischen 9 und 10 μm (Ozon) • oberhalb von 13 μm (Kohlendioxid und Wasserdampf)
2 Basiswissen und Grundgesetze der Klimatologie
• Der natürliche Treibhauseffekt unserer Erde
•
•
•
•
• •
• •
ist ein Evolutionsprodukt und basiert auf dem fragilen Gleichgewicht von Strahlungsströmen und sich daraus ergebenden Energiebilanzen. Zu den primären Klimafaktoren gehören die Sonnenstrahlung (solares Klima), die Meerund Landverteilung (ozeanisches oder kontinentales Klima) sowie die Reliefsituation (Höhenlage, Ausrichtung von Gebirgen) einer Region. Weiterhin müssen die Auswirkungen menschlicher Tätigkeiten auf die Zusammensetzung der Atmosphäre (anthropogene Emissionen) sowie die Veränderung der Landoberflächen (Entwaldung, Landnutzung in Form von Acker- und Weideflächen, Versieglung durch urbane Räume) als wesentliche Klimafaktoren hinzugezogen werden. Die Klimaelemente sind meteorologische oder physikalische Größen, die das Klima in einer bestimmten Region kennzeichnen. Zu den Klimaelementen gehören die Sonnenscheindauer, die Lufttemperatur, die Luftfeuchte, der Luftdruck, der Niederschlag und die horizontale und vertikale Windkomponente. Das Klimasystem beschreibt das Zusammenwirken der Klimafaktoren und Klimaelemente unter Berücksichtigung vielfältiger Wechselwirkungen und Rückkoppelungen (positive und negative) und ist heute in eine Betrachtung eines komplexen Erdsystems eingebettet. Die einzelnen Geosysteme stehen untereinander in Wechselwirkung oder Rückkoppelung (feedback), wobei positive Rückkoppelungen selbstverstärkend und negative Rückkoppelungen selbstregulierend wirken. Auf äußere Störungen reagieren die einzelnen Komponenten des Systems durchaus unterschiedlich, was auf das nicht-lineare Verhalten des Gesamtsystems hinweist. Es lassen sich zwei grundsätzliche Systemzustände für das Klimasystem unterscheiden: Transitivität und Intransitivität. Der Luftdruck wird als von der Masse der Luft unter der Wirkung der Schwerkraft der Erde ausgeübter Druck definiert. Er beschreibt das Gewicht einer Luftsäule von 1 cm2 Querschnitt vom jeweiligen Messpunkt bis zur äußeren Grenze der Atmosphäre. Die barometrische Höhenformel beschreibt den Luftdruck als Funktion der Höhe. Die Obergrenze der Troposphäre liegt verallgemeinert im Bereich der Obergrenze der Wasserdampfsphäre und entspricht daher der Lage des Abstrahlungsmaximums.
149
2.12 Klimate der Erde – Klimaklassifikationen
• Das vertikale Temperaturprofil der Atmo-
•
•
•
• •
•
•
sphäre lässt sich durch die Prozesse der Adiabatik beschreiben. Eine adiabatische Zustandsänderung ist ein thermodynamischer Vorgang, bei dem ein Luftpaket von einem Zustand in einen anderen überführt wird, ohne thermische Energie mit seiner Umgebung auszutauschen. Solange der Sättigungsdampfdruck in vertikal bewegten Luftmassen nicht erreicht ist, laufen alle Luftmassenzustandsänderungen trockenadiabatisch ab. Die Änderung der Temperatur beträgt dann 0,98 °C/100 m, bei Hebung abnehmend, bei Absinken zunehmend. Die Äquivalenttemperatur beschreibt die Temperatur, die eine Luftmasse annehmen würde, wenn die gesamte in ihr gespeicherte latente Wärme (Wasserdampf) in fühlbare Wärme umgesetzt würde. Zur Niederschlagsbildung kommt es immer dann, wenn in feuchter Luft Übersättigung erreicht wird und somit Kondensation eintritt. Wir können hier zwei Arten von Kondensation betrachten: 1. homogene Kondensation oder Nukleation, bei der durch Zusammentreffen von Wasserdampfmolekülen ein neues Teilchen entsteht; für diesen Prozess sind sehr hohe Übersättigungen erforderlich (mehrere Hundert Prozent) 2. heterogene Kondensation, bei der an einem vorhandenen Kondensationskern (Aerosol, meist in Größenordnungen von > 0,1 μm) meist schlagartig Kondensation eintritt; hierfür reicht eine geringe Übersättigung (wenige Zehntel Prozent) In der realen Erdatmosphäre herrscht die heterogene Kondensation vor. Die wichtigsten Mechanismen der Niederschlagsbildung sind die Koaleszenz in der flüssigen Phase, die Regenbildung über die Eisphase mit Sublimationswachstum und die Vergraupelung oder Schneeflockenbildung. Die Regenbildung über die Eisphase ist auch als Bergeron-Findeisen-Prozess bekannt. Die Umsetzung des Wassers in der Atmosphäre wird durch die Prozesse Verdunstung und Niederschlag bestimmt. Die Verdunstung ist dabei der primäre Prozess, der die Größe der Umsetzung steuert und den Wasserhaushalt mit dem Energiehaushalt verknüpft. Die Verdunstung von Wasser- und Bodenoberflächen nennt man Evaporation, die von Pflanzen Transpiration. Für die Gesamtverduns-
•
•
• •
• •
•
•
•
•
•
tung wurde der Terminus Evapotranspiration gebildet. In der Atmosphäre wirken auf ein sich bewegendes Luftteilchen unterschiedliche Kräfte. Es sind die Druckgradientkraft, die CoriolisKraft, die Schwerkraft und die Reibungskraft. Eine sich im Gleichgewicht befindliche Strömungsform wird geostrophischer Wind genannt. Geostrophische Winde verlaufen parallel zu den Isobaren, wobei in Windrichtung gesehen auf der Nordhalbkugel rechts Hochdruck und links Tiefdruck herrscht. Ageostrophische Komponenten in den Windströmungen führen zu Divergenzen und Konvergenzen im Strömungsverhalten. Eine wesentliche Größe für die Bewegung von Luftteilchen in der Atmosphäre ist die Drehbewegung der Teilchen um eine vertikale Achse. Diese wird Wirbelgröße, Drehimpuls oder „Vorticity“ genannt. Der Ryd-Scherhag-Effekt beschreibt das Verhalten von Luftströmungen in Bereichen mit zu- oder abnehmenden Luftdruckgradienten. Die Hadley-Zirkulation ist durch aufsteigende Luft am Äquator, polwärts strömende Luft in der Höhe, absinkende Luft in den Subtropen (den größten Wüstengebieten der Erde) sowie die zum Äquator weisende Meridionalströmung der Passate im Bodenbereich gekennzeichnet. Der Breitenbereich zwischen 35° bis 70° ist durch ein starkes meridionales Temperaturgefälle (etwa 3–10 K pro 1 000 km) gekennzeichnet. Im Zusammenwirken mit der CoriolisKraft führt dies zur Ausbildung eines westwärts gerichteten thermischen Windes (Zone der Westwinddrift). Im Bereich des stärksten Temperatur- und Druckgefälles, der sogenannten Frontalzone (Zone zwischen 40° und 65° Breite unmittelbar unterhalb der Tropopause), ist die Windgeschwindigkeit am höchsten. Unter Baroklinität versteht man, dass Flächen gleichen Drucks (Isobaren) und gleicher Temperatur (Isothermen) nicht parallel zueinander liegen, sondern sich schneiden. Barotrop nennt man einen Zustand in der Atmosphäre, bei dem die Flächen gleicher Dichte, gleichen Luftdrucks und gleicher Temperatur parallel zueinander verlaufen. Nach der Drucktendenzgleichung von Margules weiß man, dass sich der Druck nur durch horizontale Vergenzen (Konvergenzen/Divergenzen) ageostrophischer Luftmassenflüsse ändern kann.
150
2 Basiswissen und Grundgesetze der Klimatologie
• Beim meridionalen Zirkulationstyp der Wetter-
• Telekonnektionen werden als periodisch wie-
lagen spricht man vom „Low-Index-Typ“. Die zonale Zirkulationsform wird „High-Index-Typ“ genannt. • Eine Korrelation zwischen hohem Luftdruck über dem Ostpazifik und niedrigem Luftdruck über dem Westpazifik entdeckte G. T. Walker. Die Walker-Zirkulation stellt eine thermische, direkte Zirkulation dar, die von quasi-periodischen Änderungen überlagert wird (Southern Oscillation).
derkehrende, beständige, großmaßstäbige und niederfrequente Muster von Druckanomalien und Variabilitäten in der atmosphärischen Zirkulation definiert. • Das ENSO-Phänomen (El Niño/Southern Oscillation) stellt die stärkste bekannte natürliche Klimafernwirkung auf Zeitskalen von einigen Monaten bis zu mehreren Jahren dar. Mit El Niño bezeichnet man eine großskalige Erwärmung der Deckschicht des tropischen Pazifiks.
Teil II Klimawandel und Global Change 3 Zentrale Aussagen zum Klimawandel 4 Kennwerte des Klimawandels und des globalen Wandels 5 Schlüsselthemen des Klimawandels 6 Fallstudie Kryosphäre 7 Fallstudie Klima und Gesundheit 8 Was können wir aus dem vierten IPCC-Bericht lernen?
Im zweiten Teil „Klimawandel und Global Change“ wird der Stellenwert der menschlichen Einflussnahme auf das Erdsystem (Stichwort Zivilisationsdynamik) seit Beginn der industriellen Revolution und dessen Folgen für das Phänomen Klimawandel verdeutlicht. Industrialisierung und starke Bevölkerungszunahme führten zu einem weltweit wachsenden Energieund Ressourcenverbrauch, der bis heute anhält und auch in Zukunft das Klima der Erde und das Leben der Menschen nachhaltig bestimmen wird. Daher werden im Folgenden die meisten Indikatoren des Klimawandels in Relation zu Zeitphasen vor der industriellen Revolution
gesetzt (z. B. Vergleich des CO2-Gehalts der Atmosphäre heute und vor 1750), in denen die Emissionsbelastung durch den Menschen noch sehr gering war. Die Zivilisationsdynamik ist ausschlaggebend für Klimaveränderungen sowie weitreichende Umweltschäden, die sich in Form von Entwaldung, Bodenerosion und Wüstenbildung (Desertifikation) sowie Reduktion der Biodiversität (Artenrückgang, Artensterben) äußern. Diese Umweltveränderungen wirken wiederum zurück auf das Klimasystem und greifen z. B. durch sich verändernde Systemzwänge (radiative forcing) in den Strahlungshaushalt der Erde ein.
152
Es werden zunächst auf Grundlage des vierten, aktuellen Berichts des Weltklimarats (IPCCBericht 2007: AR4) die zentralen Aussagen und Kennwerte zum Klimawandel (Klimaprojektionen) vorgestellt und die zugrundeliegenden sozioökonomischen Emissionsszenarien (SRES) erläutert (▶ Kapitel 4). Dabei werden die für das Verständnis vernetzter Systeme so grundlegenden Begriffe wie Linearität und Nichtlinearität, Rückkopplung und Regelkreise behandelt. Nicht zuletzt erzeugt mangelndes Verständnis des komplexen Systems Erde – Atmsophäre große Unsicherheiten im politischen Entscheidungsprozess und führt nicht selten zu falschen Schlussfolgerungen. Schlüsselthemen des Klimawandels im 21. Jahrhundert wie Klimawandel und Ernährung, Klimawandel und Gesundheit, Klimawandel und
Teil II Klimawandel und Global Change
Desertifikation werden ebenfalls beispielhaft vorgestellt (▶ Kapitel 5). Das Verhalten unseres Erdsystems wird anhand verschiedener Fallbeispiele veranschaulicht (z. B. Kryosphäre, ▶ Kapitel 6 oder Klima und Gesundheit, ▶ Kapitel 7), die gleichzeitig bestehende Wissenslücken im Systemverständnis und den daraus resultierenden Forschungsbedarf verdeutlichen sollen. Der Exkurs „Klimaprojektionen – Voraussetzungen, Möglichkeiten und Restriktionen der Klimamodelle“ (▶ Kapitel 7, S. 234) zeigt komprimiert aktuelle Möglichkeiten und Probleme der Klimamodellierung auf. Teil II schließt mit einem Ausblick auf den zukünftigen Forschungsbedarf im Bereich Klimawandel. Im Vordergrund steht dabei die Frage, was wir aus den Ergebnissen des vierten IPCCReports 2007 lernen können (▶ Kapitel 8).
3
Zentrale Aussagen zum Klimawandel
Spätestens seit Erscheinen des letzten IPCC-Klimareports im Februar 2007 (AR4) ist es Konsens unter Klimaforschern, dass ein beträchtlicher Anteil der Erderwärmung auf das Wirken des Menschen zurückzuführen ist. Das heißt, die Frage „Verändert der Mensch das Klima?“ ist nach heutigem Stand der wissenschaftlichen Erkenntnis eindeutig mit ja zu beantworten. Die Wurzel des Klimaproblems „zusätzliche Erderwärmung“ liegt im vielfältigen Agieren des Menschen (Nutzung fossiler Energieträger, Entwaldung, Landbedeckungs- und Landnutzungsveränderungen) und den daraus resultierenden Wirkungen auf das System Erde – Atmosphäre. Durch die unterschiedlichsten Aktivitäten des Menschen werden zusätzliche klimarelevante Spurengase in die Atmosphäre eingebracht beziehungsweise bestehende Erdsysteme dergestalt verändert (Permafrost, Landbedeckung), dass dort „gespeicherte“ Spurengase (z. B. Methan, CH4) in Zukunft freigesetzt werden können. Dies führt zu einem zusätzlichen anthropogenen Treibhauseffekt, also zu einer zusätzlichen Erwärmung der Erdoberfläche und der unteren Luftschichten (Troposphäre). Von größter Relevanz ist dabei das Kohlendioxid (CO2), welches vor allem durch Verbrennung fossiler Energieträger (Erdöl, Kohle, Erdgas) in die Atmosphäre entweicht. Schon heute hat CO2 einen Anteil von ca. 60 % an dem sogenannten anthropogenen Treibhauseffekt. Und die Tendenz ist steigend! Aufgrund einer durchschnittlichen Verweildauer des Kohlendioxids in der Atmosphäre von 100 Jahren haben wir es mit einem langfristigen Klimaproblem zu tun. Messungen und Proxy-Daten (z. B. Eisbohrkerne) belegen eindeutig, dass sich die CO2-Konzentration in der Atmosphäre seit Beginn der industriellen Revolution (1750: etwa 280 ppm) bis heute auf über 380 ppm erhöht hat. Analysen von Eisbohrkernen aus der Antarktis geben Einblick in die
chemische Zusammensetzung der Atmosphäre und belegen, dass der CO2-Gehalt heute schon so hoch ist wie zuletzt vor etwa 650 000 Jahren. Dass der Mensch für diesen Anstieg verantwortlich ist, ist heute unter den Wissenschaftlern unstrittig. Die Konzentration der Treibhausgase nimmt seit der Industrialisierung einhergehend mit der steigenden Bevölkerungszahl auf der Erde zu. Dies verdeutlicht die sozioökonomische Komponente des Klimawandels. Hierdurch wird eine zusätzliche Erderwärmung erzwungen, da die thermische Wärmeabgabefähigkeit der Erde verringert wird. Die Troposphäre wird im infraroten Spektralbereich undurchsichtiger, der NettoEnergiestrom zur Troposphäre wächst und zwingt das Klima in einen neuen Gleichgewichtszustand (radiative forcing). Ein sich somit verstärkender Treibhauseffekt führt zu einer Modifizierung der Wolkenbildungsmechanismen und damit der globalen Bewölkung und des Niederschlags, der Meereisausdehnung, der Schneebedeckung und nachfolgend des Meeresspiegels. Für die Bevölkerung sind in diesem Zusammenhang Fragen des Auftretens von Wetterextremen und deren statistische Eintrittswahrscheinlichkeit von großem Interesse. Ob eine Hitzewelle wie im Jahr 2003 oder eine Flut wie die der Elbe im Jahr 2002 häufiger auftreten werden, ist von elementarer Bedeutung für jeden einzelnen Menschen und für die betroffenen Volkswirtschaften insgesamt. Die Folgen der Erderwärmung sind augenscheinlich: Die Mehrzahl der Gebirgsgletscher ist weltweit auf dem Rückzug; und speziell die Alpengletscher Europas haben rund die Hälfte ihres Volumens seit 1850 verloren. Die meisten von ihnen werden unter der Annahme eines „Weitermachen-wie-bisher-Szenarios“ („business as usual“-Szenario) in den nächsten fünfzig bis achtzig Jahren verschwunden sein (▶ Kapitel 6 „Fallstudie Kryosphäre“). Die Meeresspiegel steigen weltweit an, allerdings nicht, weil das Meer-
154
eis schmilzt (es verdrängt bereits sein eigenes Gewicht), sondern infolge der Eisschmelze von Gletschern an Land und der vor allem zunehmenden thermischen Ausdehnung der Ozeane. So könnte der Meeresspiegel im Mittel um 30 cm bis 2100 ansteigen. Würden die großen Eisschilde Grönlands oder der Antarktikas zusätzlich abschmelzen, wäre sogar ein Anstieg von mehreren Metern möglich. Die Niederlande würden zum Bangladesh Europas. Die Aussagen zum Anstieg des Meeresspiegels sind allerdings sehr kontrovers und mit großen Unsicherheiten behaftet. Es gilt hier festzuhalten, dass die aktuellen IPCCPrognosen zum Meeresspiegelanstieg niedriger ausfallen als die im zweiten und dritten Report vorgestellten Erwartungen (SAR und TAR). So wird im aktuellen IPCC-Report (AR4) der weltweite Meeresspiegelanstieg auf insgesamt 29 cm in diesem Jahrhundert geschätzt. Den größten Anteil am Anstieg des Meeresspiegels wird nach Einschätzung des IPCC das sich ausdehnende wärmere Wasser haben; die thermische Ausdehnung der Ozeane wird allein 23 cm bis zum Jahr 2100 ausmachen. Weitere 8 cm des prognostizierten Anstiegs werden durch schmelzende Gletscher und Eisschichten verursacht. Der Beitrag des Grönlandeisschildes am Meeresspiegelanstieg wird bis 2100 auf 3,5 cm geschätzt. In der Summe ergäben sich 34,5 cm Meeresspiegelanstieg. Die meisten Klimamodelle zeigen aber, dass die Antarktis nicht nennenswert abtauen wird, sondern
3 Zentrale Aussagen zum Klimawandel
vielmehr durch vermehrten Niederschlag zusätzliche Eismasse kumulieren wird. Dies erwirkt ein Absinken des Meeresspiegels um 5,5 cm und ergibt den bereits genannten Schätzwert von insgesamt 29 cm. Aussagen zur Größenordnung des Klimawandels (Klimaindikatoren wie Temperatur, Niederschlag, Gletschermassenbilanzen, Schnee- und Meereisbedeckung) werden basierend auf dem Wissensstand des aktuellen IPCC-Berichts und weiterer Literaturrecherche in Kapitel 4 getroffen. Das Phänomen Klimawandel ist allerdings nur als ein Teilbereich des globalen Wandels auf unserer Erde anzusehen. Dessen Dynamik beziehungsweise das Phänomen der Globalisierung in der Anthroposphäre stehen für das weltweite Bevölkerungswachstum und die damit einhergehende Wirtschaftsintensität und intensive Ressourcennutzung. Die globale Erwärmung ist somit nur als Teilproblem des globalen Wandels zu verstehen, allerdings mit direkten Auswirkungen auf die unterschiedlichen Problemfelder des globalen Wandels (zum Beispiel Ressourcenübernutzung und daraus resultierende Ressourcenverknappung in den lebenswichtigen Bereichen Wasser, Energie, Nahrung und Gesundheit). Im folgenden Kapitel 4 werden die Kennwerte des globalen Wandels und des Klimawandels sowie die hierfür zugrundeliegenden Entwicklungsszenarien (SRES) erläutert.
4
Kennwerte des Klimawandels und des globalen Wandels
Seit Erscheinen des dritten IPCC Berichts (TAR) 2001 sind enorme Verbesserungen in der Erforschung des Klimawandels sowie seiner Modellierung erzielt worden. Diese Fortschritte wurden insbesondere durch die Erfassung neuerer Daten (z. B. mittels spezieller Satellitenmissionen und Bojenmessungen in den Ozeanen, ▶ Kapitel 1) und optimierte Analysemethoden möglich. Auch die stetig optimierten Modelle zur Beschreibung und Simulation komplexer physikalischer Prozesse sind in diesem Zusammenhang zu nennen. Im Folgenden wird basierend auf dem aktuellen IPCC-Bericht (AR4) eine Übersicht der beobachteten Veränderungen im Klimasystem gegeben. Kapitel 4 schließt dann mit einer Auflistung und Zusammenfassung der aktuellen Schlüsselergebnisse der Klimaforschung. Bei der Bewertung von Unsicherheiten in den Forschungsergebnissen beziehungsweise der Eintrittswahrscheinlichkeit von Klimaereignissen wird die Terminologie des IPCC verwendet (Tabelle 4.1). Veränderungen des globalen Erdklimas wirken auf die Atmosphäre und Erdoberfläche durch verschiedene Aspekte, welche wiederum den Energiehaushalt der Erde verändern und somit das Erdklima zur Anpassung an diese Veränderungen zwingen. Zu diesen Einflussgrößen zählt primär die Zunahme der Treibhausgase, die die Absorption der von der Erde ausgehenden Wärmestrahlung erhöht, sowie die Zunahme von Aerosolen, die eine wichtige Rolle für die Reflektion und Absorption der solaren Strahlung spielen und zudem die Strahlungseigenschaften der Wolken verändern. Diese Effekte werden allgemein als Strahlungsantrieb oder Radiative Forcing bezeichnet. Das Radiative Forcing eines Faktors ist Ausdruck seiner quantitativen Wirkung auf die Strahlungsbilanz zwischen einkommender und ausgehender Strahlung im Erde-Atmosphäre-Sys-
Tabelle 4.1 Terminologie der Eintrittswahrscheinlichkeit gemäß IPCC Terminologie
Eintrittswahrscheinlichkeit
virtuell sicher
> 99 %
extrem wahrscheinlich
> 95 %
sehr wahrscheinlich
> 90 %
wahrscheinlich
> 66 %
mehr wahrscheinlich als nicht
> 50 %
sowohl wahrscheinlich als nicht
33 bis 66 %
unwahrscheinlich
< 33 %
sehr unwahrscheinlich
< 10 %
extrem unwahrscheinlich
< 5%
außerordentlich unwahrscheinlich
< 1%
tem. Positive Strahlungsantriebe (positive forcing) führen zu einer Erwärmung der Erdoberfläche; negative Strahlungsantriebe (negative forcing) tendieren zur Abkühlung der Erdoberfläche. Die Antwort unseres Klimasystems auf das Radiative Forcing ist sehr komplex und hängt von einer Vielzahl positiver und negativer Wechselwirkungen (feedbacks) ab. So ist der Wasserdampf in der Atmosphäre einerseits ein sehr starkes Treibhausgas, andererseits hängt seine Konzentration vom jeweiligen Oberflächenklima (Temperatur, Wind, Sättigungsdampfdruck) ab und kann somit eher als Feedback-Effekt und weniger als Radiative-Forcing-Faktor angesehen werden.
156
4 Kennwerte des Klimawandels und des globalen Wandels
Radiative Forcing (RF) – das Konzept des Strahlungsantriebs neuer Systemzustand erzwungen wird. Radiative Forcing (RF) bezeichnet somit die Änderung des globalen Mittels der Strahlungsbilanz an der Stratopause und ist eine Größe für die Störung des Gleichgewichts zwischen einstrahlender Sonnenenergie und an den Weltraum abgegebener langwelliger Strahlung. Ein positives RF führt zu einer Erwärmung, ein negatives RF zu einer Abkühlung. Die RF-Werte, die sich aufgrund des Anstiegs der Konzentrationen an in der Atmosphäre gut durchmischten Treibhausgasen (CO2, CH4) im Zeitraum 1750–2000 ergeben, werden in der Summe auf 2,43 Wm-2 geschätzt. Auf dem Radiative-ForcingAnsatz baut das Konzept des Global Warming Potential (GWP) auf und umfasst die Summe aller RF-Beiträge eines Gases bis zu einem gewählten Zeithorizont, die durch die einmalige Freisetzung einer bestimmten Maßeinheit am Beginn des Zeitraums verursacht wird. Dadurch ist es möglich, die Klimawirksamkeit von Treibhausgasen für unterschiedliche Zeithorizonte in die Zukunft zu extrapolieren. Das GWP wird häufig bezogen auf einen Zeitraum von 100 Jahre angegeben.
Der Begriff Radiative Forcing beschreibt die Kraft oder den Einfluss eines Faktors (z. B. eines Treibhausgases), einen Klimawandel auszulösen. Das RF wird im Deutschen als Strahlungsantrieb bezeichnet und ist die Netto-Strahlungsflussdichte an der Tropopause, welche durch die veränderte Konzentration von Treibhausgasen zustande kommt. Der Ausdruck „Strahlungsflussdichte“ meint die Strahlungsenergie, die pro Sekunde und pro Quadratmeter durch die Tropopause hindurchkommt. Man gibt das RF daher immer in Joule pro Sekunde und Quadratmeter oder Watt pro Quadratmeter (Wm-2) an. Radiative Forcing ist also ein Ausdruck für die Veränderung der Strahlungsbilanz des Erde–Atmosphäre–Systems durch Faktoren, die wiederum das Klima der Erde maßgeblich bestimmen. Der Begriff radiative wird deshalb verwendet, weil sich das Verhältnis zwischen solarer, kurzwelliger Einstrahlung zur infraroten, langwelligen Erdausstrahlung ändert. Diese Strahlungsbilanz steuert die Oberflächentemperatur der Erde. Der Begriff forcing weist darauf hin, dass durch Veränderungen der Strahlungsbilanz ein
RF-Bedingungen
RF-Werte (W/m2) CO2
langlebige Treibhausgase
N2O Halogenkohlenwasserstoffe
CH4
anthropogen
Ozon
stratosphärisch
global
hoch
0,48 [0,43–0,53] 0,16 [0,14–0,18] 0,34 [0,31–0,37]
global
hoch
mittel
0,07 [0,02–0,12]
global
niedrig
–0,2 [–0,4–0,0] 0,1 [0,0–0,2]
lokal bis kontinental
mittel – niedrig
direkter Effekt
–0,5 [–0,9–0,1]
kontinental bis global
mittel – niedrig
Wolkenalbedoeffekt
–0,7 [–1,8–0,3]
kontinental bis global
niedrig
0,01 [0,003–0,03] kontinental
niedrig
Oberflächenalbedo
Landnutzung
schwarzer Kohlenwasserstoff
lineare Kondensstreifen
natürlich
1,66 [1,49–1,83]
–0,05 [–0,15–0,05] kontinental 0,35 [0,25–0,65] bis global
troposphärisch
CH4-induz. stratosphärischer Wasserdampf
Gesamtaerosol
räumlicher Niveau d. wiss. Maßstab Verständnisses
Sonneneinstrahlung
0,12 [0,06–0,3]
gesamtes anthropogenes Netto-RF –2
1,6 [0,6–2,4] –1 0 1 Radiative Forcing (W/m2)
2
4.1 Radiative-Forcing-Komponenten, Stand 2005 (Quelle: IPCC-Report 2007).
global
niedrig
4 Kennwerte des Klimawandels und des globalen Wandels
Die Abbildung 4.1 zeigt die globalen durchschnittlichen RF-Werte für die wichtigsten anthropogenen Treibhausgase auf Basis der heutigen wissenschaftlichen Bewertung (Level of Scientific Understanding, LOSU). Statt der bodennahen Lufttemperatur wird im IPCC-Bericht das Stratospheric adjusted Radiative Forcing benutzt. Beim stratospheric adjustment geht man davon aus, dass die Temperatur in der Stratosphäre sich schon auf die neue Gleichgewichtstemperatur eingestellt hat, das Temperaturprofil in der Troposphäre jedoch noch dem alten Gleichgewicht entspricht. Dies ist folgerichtig, da sich die Temperatur in der Stratosphäre schneller den geänderten Strahlungsbedingungen anpassen kann als die in der Troposphäre (vor allem wegen der Trägheit der Ozeane, die sich nur sehr langsam aufwärmen lassen).
Vor- und Nachteile des RF-Konzepts Vorteil des RF-Konzepts ist, dass das RF nicht von komplizierten und wenig verstandenen Rückkopplungen im Klimasystem abhängt. Der große Nachteil ist, dass das RF nichts über die Änderungen der messbaren und fühlbaren Größen (z. B. Temperatur) am Erdboden aussagt, welche aber die eigentlich interessanten Parameter zur Bewertung des Klimawandels im regionalen Maßstab
Betrachten wir zunächst die dominanten Faktoren des Radiative Forcing, nämlich die Treibhausgase und deren Entwicklung in der Atmosphäre. Der Beitrag eines einzelnen spezifischen Treibhausgases zum Radiative Forcing hängt dabei von seiner Konzentration und seiner speziellen Wirkung auf den Strahlungshaushalt ab. Die aktuelle Konzentration eines Treibhausgases ist das Nettoergebnis seiner historischen Emissions- und Abbaugeschichte. Langlebige Treibhausgase wie Kohlendioxid (CO2), Methan (CH4) und Stickstoffoxid (N2O) sind chemisch stabil und verbleiben deshalb für Zeitspannen von Jahrzehnten bis zu Jahrhunderten in der Atmosphäre. Sie stellen somit ein langfristiges Klimaproblem dar. Diese langlebigen Gase durchsetzen die Atmosphäre sehr schnell und sind somit gut gemischt in der Gesamtatmosphäre vorhanden. Ihre globale
157
sind. In der Realität wird das Klimasystem zudem nur zeitverzögert in einen neuen Gleichgewichtszustand gelangen. Das bedeutet, dass sich der Strahlungsantrieb selbst in dieser Zeit verändern wird. Die Temperatur auf der Erde hinkt also den Strahlungsantrieben, die auf sie wirken, ständig hinterher. Betrachtet man nun den Zusammenhang zwischen globaler mittlerer Temperatur und RF, so steckt die größte Unsicherheit in dem Faktor, der die beiden verbindet und ClimateSensitivity-Parameter genannt wird. Dieser Parameter enthält die erwähnten Rückkopplungen und besagt, welche Temperaturänderung durch einen spezifischen Strahlungsantrieb hervorgerufen wird. Der Wert des Climate-Sensitivity-Parameters ist abhängig vom Auslöser des Strahlungsantriebs (also Treibhausgase, Aerosole, Landnutzungsveränderung) und vom gewählten Szenario. Die Abschätzungen liegen zwischen 2 °C und 4 °C pro Wm-2. Ein weiterer Nachteil des RF-Konzepts ist, dass nur Einflüsse betrachtet werden können, die über die Strahlung auf die Temperatur wirken. Effekte wie z. B. Verdunstungskälte, Kondensationswärme und Diffusion können damit nicht beschrieben werden, obwohl auch sie die Temperatur maßgeblich beeinflussen. Bei der Angabe des Strahlungsantriebs ist es wichtig, einen Ausgangszustand zu definieren, mit dem die Änderungen verglichen werden können. Für den IPCC-Bericht 2007 wurde als Bezugszeitraum das Jahr 1750 gewählt.
Konzentration kann dadurch relativ exakt mittels weniger Stationen gemessen werden. Kohlendioxid hat keine spezifische Verweilzeit in der Atmosphäre. Es unterliegt einem komplexen kontinuierlichen Kreislauf zwischen Atmosphäre, Ozean und der Biosphäre an Land. Dabei sind die beteiligten Senkenprozesse stark von den jeweiligen Randbedingungen abhängig. Der Nettoabbau in der Atmosphäre unterliegt Prozessen unterschiedlicher Zeitskalen. Die kurzlebigen Treibhausgase (z. B. Schwefeldioxid (SO2) oder Kohlenmonoxid (CO)) sind chemisch reaktionsaktiv und werden im Allgemeinen durch natürliche Oxidationsprozesse in der Atmosphäre oder durch Auswaschung bei Niederschlag (washout) aus der Atmosphäre entfernt. Ihre Konzentration unterliegt deshalb hoher räumlicher und zeitlicher Variabilität.
158
4 Kennwerte des Klimawandels und des globalen Wandels
Kohlenstoffkreislauf oder Kohlenstoffzyklus Der Kohlenstoffkreislauf beschreibt das System der chemischen Umwandlungen kohlenstoffhaltiger Verbindungen im globalen Erdsystem (Lithosphäre, Hydrosphäre, Atmosphäre, Biosphäre) sowie den Austausch dieser Verbindungen zwischen diesen Sphären (Abbildung 4.2). Das Verständnis dieses Kreislaufs einschließlich seiner Teilprozesse ermöglicht es unter anderem, die Eingriffe des Menschen in das Klima und damit ihre Auswirkungen auf die globale Erwärmung abzuschätzen und angemessen zu reagieren (Adaptation/Mitigation). Auf der Makroebene des Erdsystems ist der Gesamtkohlenstoffgehalt konstant. Jede der vier Sphären ist durch die Speicherkapazität des Kohlenstoffs, seine Verweildauer, seinen Zu- und Abfluss (Flussrate) sowie spezifische Speicherformen des Kohlenstoffs charakterisiert. Die globale Kohlenstoffmenge der Erde beträgt etwa 75
Millionen Gt C (Gigatonnen Kohlenstoff; 1 Gt = 109 Tonnen). In der Atmosphäre befinden sich etwa 750 Gt C (nach IPCC-Report 2001, TAR). Die atmosphärische CO2-Konzentration ist zwischenzeitlich auf 381 ppmv (parts per million by volume) angestiegen, was einer Menge von rund 800 Gt C entspricht. Dies ist ein Anteil von rund 0,001 % am globalen Gesamtkohlenstoff. Die Atmosphäre ist damit neben der Biosphäre der kleinste Kohlenstoffspeicher. Er reagiert aber auf Änderung der Flussraten am schnellsten und am empfindlichsten. Die Flussraten in der Atmosphäre werden durch biochemische Vorgänge bestimmt und sind damit Bestandteil kurzfristiger Kreisläufe. Wichtigste Kohlenstoffverbindung ist das Kohlenstoffdioxid (CO2) mit einem Anteil von 0,03 Volumenprozent beziehungsweise 0,046 Massenprozent am Luftgemisch. Daneben kommen noch weitere
Atmosphäre 597 + 165 120 Brutto2,6 Landsenke Respi- primärVerwit- ration produktion terung 0,2
119,6
Land1,6 nutzungsveränderung
6,4 70,6 70
22,2 20 fossile Energieträger 3700 – 244
Vegetation, Boden und Detritus 2300 + 101 – 140 0,4
0,8 Flüsse oberflächennaher Ozean 900 + 18
Verwitterung 0,2
90,2
101
50 39
3
marine Flora und Fauna
1,6 11
intermediärer Ozean und Tiefsee 37, 100 + 100 Speichergrößen in GtC (Gigatonnen Kohlenstoff) Flüsse und Austauschraten in GtC/Jahr
0,2 150
Oberflächensediment
4.2 Der globale Kohlenstoffkreislauf zwischen Land, Atmosphäre und Ozean. Die Kohlenstoffflüsse sind in Gt C/Jahr angegeben. Die schwarzen Pfeile dokumentieren die geschätzten vor-industriellen Kohlenstoffflüsse, die blauen Pfeile zeigen die anthropogen induzierten Flüsse. Der terrestrische Nettoverlust von -39 GtC resultiert aus den kumulativen Emissionen der Verbrennung fossiler Energieträger (minus dem atmosphärischen Anstieg und der Speicherung im Ozean). Der Verlust von -140 Gt C durch Vegetation, Böden und Detritus steht für die kumulativen Emissionen allgemeiner Landnutzungsveränderungen und erfordert einen Senkenanteil von 101 Gt C in der terrestrischen Biosphäre. Alle anderen Angaben zu den anthropogen bedingten Kohlenstoffflüssen sind Tabelle 4.2 entnommen und basieren auf den Angaben von Sarmiento und Gruber (2006) (Quelle: IPCC-Report 2007).
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
Spurengase wie Methan (CH4) mit 1,75 ppm, Kohlenstoffmonoxid (CO) mit 0,05–0,2 ppm, Fluorchlorkohlenwasserstoffe (FCKW) mit etwa 10-3 ppm und Tetrachlorkohlenstoff (CCl4) mit 10-4 ppm sowie Verunreinigungen in Form flüchtiger Kohlenwasserstoffe und Rußpartikel vor. Die Hydrosphäre bindet 38 000 Gt C in Form von physikalisch gelöstem CO2 sowie gelösten Hydrogencarbonat(HCO3-)- und Carbonat-Ionen (CO32-). Dies entspricht einem Anteil von 0,05 % am globalen Kohlenstoffgehalt. Hinzu kommen noch Spuren physikalisch gelösten Methans und organischer Schwebstoffe. Zur Hydrosphäre zählt auch die Kryosphäre mit ihren Polkappen, Eisschilden und Gletschern. Das im Eis eingeschlossene Kohlenstoffdioxid kann allerdings nicht an den schnellen Austauschprozessen mit der Atmosphäre teilnehmen. Die Lithosphäre speichert 99,8 % des globalen Kohlenstoffs und ist somit der größte Kohlenstoffspeicher. Die Flussraten sind aber gering und gehören zu den langfristigen Kohlenstoffkreisläufen. Wichtige Sedimente und daraus entstandene Carbonatgesteine sind Calcit (CaCO3) und Dolomit (CaMg(CO3)2) mit einem Speichervermögen von zusammen 60 000 000 Gt C. Des Weiteren sind Kerogene (fossile polymere organische Stoffe, beispielsweise in Ölschiefern) mit einem Speichervolumen von 15 000 000 Gt C zu nennen sowie Gashydrate (z. B. Methanhydrat) mit einem Fassungsvermögen von 10 000 Gt C. Schließlich sind die uns bekannten fossilen Energieträger Kohle, Erdgas und Erdöl mit insgesamt 4 100 Gt C und Böden mit Humus- und Torfauflagen mit insgesamt 1 500 Gt C aufzulisten. Auch in der Biosphäre sind die Speicherformen des Kohlenstoffs
159
oftmals Carbonate (meistens CaCO3) oder organische Stoffe. Besondere Bedeutung haben sie als Baustoffe für Aussenskelette von Tieren. Bei den Arthopoden (Krebse, Spinnentiere, Insekten) werden die Aussenskelette aus Chitin gebildet. Die Mollusken, Kammerlinge (Foraminifera) und die Coccolithophoridae bilden ihre Aussenskelette hingegen aus Carbonaten. Korallen wiederum bauen ihre Innenskelette aus Carbonaten auf. Die terrestrischen Ökosysteme binden insgesamt 800 Gt C, die marine Biosphäre kommt auf 3 Gt C, was insgesamt einem Anteil von 0,001 % am globalen Kohlenstoffvorkommen entspricht. Die Biosphäre gehört somit wie die Atmosphäre zu den kleinsten Kohlenstoffspeichern, beinhaltet aber die wichtigsten Austauschprozesse für die kurzfristigen Kreisläufe. Wie es sich aus den Zahlen und Ausführungen ergibt, sind die Aufnahmeprozesse von CO2 im Ozean von größter Bedeutung. Die folgende Gleichung fasst deshalb das bestehende chemische Gleichgewicht zwischen den verschiedenen Formen des anorganischen Kohlenstoffs zusammen. Die Prozentangaben unter der Gleichung gelten für die Bedingungen wie sie in weiten Bereichen der Ozeane vorherrschen: Temperatur = 10 °C, pH-Wert = 8, Salzgehalt = 34,3 ‰. Änderungen der Randbedingungen (Wassertemperatur, Druckbedingungen) und der Konzentrationen ändern auch die Gleichgewichtslage. Eine Erhöhung der CO2-Konzentration in der Atmosphäre verschiebt das Gleichgewicht nach rechts, die Hydrosphäre würde also vermehrt Kohlenstoffdioxid aufnehmen. Eine globale Erwärmung hingegen würde das Gleichgewicht nach links verschieben.
→ CO23 + 2H3O+ → H2CO3 + 2H2O ← → HCO–3 + H2O + H3O+ ← CO2 + 3H2O ← 1% 0% 94% 5% –
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen 4.1.1 Kohlendioxid Die heutigen atmosphärischen CO2- und CH4Werte überschreiten bei Weitem die vorindustriel-
len Konzentrationen. Eisbohrkernmessungen dokumentieren diese geringeren Konzentrationen für die vergangenen etwa 650 000 Jahre (dies entspricht sechs glazialen/interglazialen Zyklen), in denen die CO2-Konzentration zwischen 180 ppm (glaziales Maximum) und 300 ppm (im wärmeren Interglazial) schwankte. Zudem belegen unterschiedliche Untersuchungen, dass der enorme Anstieg von Kohlendioxid, Methan und Stickoxiden nach 1750 nicht auf natürliche Ereignisse zurückzuführen ist. Die Konzentration des atmosphärischen CO2 stieg von einem vorindustriellen Wert (vor 1750)
160
4 Kennwerte des Klimawandels und des globalen Wandels
a
CO2-Konzentration (ppm)
360
m/
pp 1,8
353
350 340 330 320 310 1958 60
65
70
75 Jahr
80
85
90
4.3 Keeling-Kurve, CO2-Konzentration auf Mauna Loa Hawai.
von 280 ppm auf 379 ppm im Jahr 2005. In den letzten 8 000 Jahren vor Beginn der industriellen Revolution nahm die CO2-Konzentration lediglich um etwa 20 ppm zu. Die für diesen Zeitraum zu beobachtenden Konzentrationsschwankungen beliefen sich in Zeitskalen von mehreren Dekaden bis Hunderten von Jahren auf unter 10 ppm und sind natürlichen Prozessen zuzuschreiben. Seit 1750 hat die CO2-Konzentration absolut um insgesamt über 100 ppm zugenommen. Die jährliche Wachstumsrate betrug seit Beginn der direkten atmosphärischen CO2-Messungen (Keeling-Kurve, Abbildung 4.3) im Mittel 1,4 ppm/ Jahr (Mittel der Periode 1960–2005). Seit 1995 zeigen Konzentrationsmessungen eine jährliche Zunahme von 1,8 ppm CO2/ Jahr. Die Zunahme des atmosphärischen CO2 seit der vorindustriellen Zeit ist allein für einen Strahlungsantrieb von 1,66 Wm-2 (± 0,17 Wm-2)
Tabelle 4.2
verantwortlich und führte in der Zeitspanne 1995–2005 zu einer Zunahme des Strahlungsantriebs von rund 20 % (IPCC-Report 2007). Dies verdeutlicht die besondere Bedeutung der atmosphärischen CO2-Konzentration und macht die CO2-Emissionen zum bedeutendsten anthropogenen Klimafaktor. Die primären Quellen des CO2-Anstiegs sind die Verbrennung fossiler Energieträger (Anteil: ⅔) sowie die Emissionseffekte spezieller Landnutzungsveränderungen (Anteil: ⅓). Über 45 % dieser Emissionen verbleiben zunächst in der Atmosphäre (in der sogenannten CO2-airborne fraction), rund 30% werden von den Ozeanen und der Rest von der terrestrischen Biosphäre aufgenommen. Rund die Hälfte des atmosphärischen Kohlendioxids wird innerhalb des CO2-Kreislaufs in einer Zeitspanne von 30 Jahren aus der Atmosphäre wieder entfernt. Weitere 30 % werden während einiger Hundert Jahre aus der Atmosphäre abgebaut. Etwa 20 % verbleiben für viele Tausende von Jahren in der Atmosphäre. Gerade in den letzten Jahren nahmen die CO2-Emissionen bedingt durch das weltweite Wirtschaftswachstum auch in den Schwellenländern (vor allem China und Indien) stark zu. Im Jahr 1990 betrug die weltweite CO2-Emission im Mittel 6,4 Gt C/Jahr (±0,4). Bereits im Zeitraum 2000–2005 wuchs diese auf 7,2 Gt C (± 0.3) an. Die geschätzten CO2-Emissionen aus Landnutzungsveränderungen schwanken für die 1990er-Jahre zwischen 0,5 und 2,7 Gt C/Jahr (mittlerer Schätzwert 1,6 Gt C), was die große Unsicherheit in deren Abschätzung verdeutlicht. Tabelle 4.2 fasst die globalen Kohlendioxidflüsse zusammen. Die positiven Werte in Gt C/Jahr
Globale Kohlendioxidflüsse in Gt C/Jahr (Quelle: IPCC-Report 2007) 1980
1990
2000–2005
Anstieg atmosph. CO2
3,3 ± 0,1
3,2 ± 0,1
4,1 ± 0,1
fossile CO2-Emissionen
5,4 ± 0,3
6,4 ± 0,4
7,2 ± 0,3
Nettofluss Ozean zur Atmosphäre
–1,8 ± 0,8
–2,2 ± 0,4
–2,2 ± 0,5
Nettofluss Land zur Atmosphäre
–0,3 ± 0,9
–1,0 ± 0,6
–0,9 ± 0,6
Flüsse durch Landnutzungsveränderungen
1,4 (0,4–2,3)
1,6 (0,5–2,7)
keine Angaben
übrig bleibende Landsenke
1,7 (–3,4–0,2)
–2,6 (–4,3–0,9)
keine Angaben
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
3,5 3,0 CO2, jährliche Veränderung (ppm)
stehen für CO2-Flüsse in die Atmosphäre, die negativen Werte stehen für CO2-Senken. Die Emission einer Gt C entspricht der Freisetzung von 3,67 Gt CO2. Seit den 1980er-Jahren wurden durch natürliche Prozesse der CO2-Aufnahme in der Biosphäre etwa 50 % der anthropogenen CO2Emissionen aus der Atmosphäre entfernt. Diese Prozesse werden allerdings durch die steigende atmosphärische CO2-Konzentration und resultierende Klimaveränderungen beeinflusst. Die Kohlenstoffaufnahme und -speicherung in der terrestrischen Biosphäre resultiert aus der Nettodifferenz von Kohlenstoffaufnahme während des Pflanzenwachstums und Emissionen aus der heterotrophen Atmung, wobei Entwaldung, Ernten, Feuer und andere Störfaktoren das Senkenpotenzial der Biomasse und der Böden beeinflussen. Die Zu- beziehungsweise Abnahme der Feuerfrequenz hat direkten Einfluss auf die Nettokohlenstoffaufnahme. Untersuchungen in den borealen Waldregionen belegen, dass die auf Feuereffekte zurückgehenden Emissionen hier zugenommen haben. Insgesamt ist in den mittleren Breiten der nördlichen Hemisphäre eine signifikante Kohlenstoffaufnahme durch Landeffekte nachgewiesen. Für die tropischen Regionen hingegen tendieren die CO2-Flüsse zwischen Atmosphäre und Land nahezu gegen Null, was auf ein Gleichgewicht zwischen Entwaldung und erneutem Aufwachsen hinweist. Zur Bewertung der globalen CO2-Flüsse liegen jedoch zu wenige Messergebnisse vor, und die Ökosysteme der Erde sind zu heterogen, um eine genaue Abschätzung der Netto-Flüsse zwischen Land und Atmosphäre zurzeit vorzunehmen. Kurzzeitige (interannuelle) Schwankungen der atmosphärischen CO2-Konzentration sind primär das Ergebnis der CO2-Flüsse zwischen Atmosphäre und terrestrischer Biosphäre, die wiederum von klimatischen Fluktuationen, welche das Wachstum der Pflanzen steuern, stark beeinflusst werden (Abbildung 4.4). So wirkt z. B. das ENSO-Phänomen (▶ Abschnitt 2.11.1) auf die interannuelle CO2-Variabilität, indem diese Telekonnektion regional die Land- und Ozeantemperaturen, die Niederschlagsverteilung und die Frequenz von Feuerereignissen beeinflusst und somit die CO2-Aufnahmekapazität der terrestrischen Biosphäre (Pflanzenwachtum versus Abbau organischer Substanz) steuert.
161
2,5 2,0 1,5 1,0 0,5 0,0 1960
1970
1980 Jahr
1990
2000
4.4 Jährliche Schwankungen der globalen mittleren CO2-Konzentration (graue Balken) seit Beginn der Instrumentenaufzeichnung. Die blaue Linie und die gestuften schwarzen Linien skizzieren das fünfjährige Mittel von Datenreihen aus zwei unterschiedlichen Messnetzen. Der Abstand der blauen und schwarzen Linie verdeutlicht den Schwankungsbereich der Messwerterfassung (Unsicherheit), welcher bei 0,15 ppm liegt. Kurzzeitige Konzentrationsschwankungen des CO2 korrelieren mit starken ENSO-Ereignissen in den Jahren 1972, 1982, 1987 und 1997 (Quelle: IPCC-Report 2007).
CO2 wird kontinuierlich zwischen Land, Atmosphäre und Ozean ausgetauscht. Kohlendioxid, das vom Oberflächenwasser der Ozeane aufgenommen wird, reagiert mit dem Wasser und bildet Bicarbonat (HCO3-)- und Carbonat (CO32-) -Ionen. Kohlendioxid, HCO3- und CO32- werden zusammen auch als gelöster anorganischer Kohlenstoff (Dissolved Inorganic Carbon, DIC) bezeichnet. Die Verweilzeit des CO2 als DIC im Oberflächenwasser der Ozeane ist kürzer als eine Dekade. Im Winter enthalten die kalten Oberflächenwässer der höheren Breiten große Mengen an CO2 (in der DIC-Phase). Aufgrund der hohen Löslichkeit in kaltem Wasser sinken große Mengen an CO2 von der Oberfläche in tiefere Schichten der Ozeane ab. Diese lokalen Absinkprozesse sind gekoppelt an die meridionale Umschichtungszirkulation in den Ozeanen (Atlantic Meridional Overturning Circulation, AMOC) und werden mit dem Prozess der solubility pump beschrieben. Phytoplankton nimmt mittels Foto-
162
4 Kennwerte des Klimawandels und des globalen Wandels
synthese Kohlendioxid auf. Teile davon sinken in Form toter Organismen in die Tiefe der Ozeane (biological pump) oder werden in gelösten organischen Kohlenstoff (Dissolved Organic Carbon, DOC) umgewandelt. Der größte Teil des absinkenden Kohlenstoffs wird durch Bakterien in die DIC-Phase zurückgewandelt (Respiration) und steht somit nach erheblicher Zeitverzögerung wieder für den Oberflächenaustausch mit der Atmosphäre zur Verfügung. Die beschriebenen Effekte sind sehr wichtig für die Langzeitbewertung des Kohlenstoffkreislaufs im Ozean. Solubility pump und biological pump erzeugen gemeinsam einen vertikalen CO2Gradienten im Ozean in der DIC-Phase und steuern somit den CO2-Austausch zwischen Atmosphäre und Ozean Die Stärke der solubility pump hängt global von der Stärke der AMOC sowie der Ozeanoberflächentemperatur, dem Salzgehalt des Wassers und eventueller Eisbedeckung ab. Die Effizienz der biological pump wiederum ist von der Fotosyntheseleistung im Oberflächenwasser und dem daraus resultierenden Anteil absinkender Partikel abhängig. Insgesamt wird die Kraft der biological pump durch Veränderungen der Ozeanzirkulation, das Einbringen von Nährstoffen und die beteiligten Planktongesellschaften gesteuert. Die steigende CO2-Konzentration begrenzt die Fotosyntheseleistung des Ozeans nicht signifikant. Die Geschwindigkeit, mit der anthropogenes CO2 vom Ozean aufgenommen wird, hängt davon ab, wie schnell die Oberflächenwässer abtransportiert werden und sich mit den mittleren und tiefen Wasserschichten vermischen. Eine weitere Abpufferung beziehungsweise Neutralisation des CO2 bietet die Lösung von CaCO3-Sedimenten in der Tiefsee. Diese Prozesse laufen aber über viele Tausende von Jahren. Die steigende CO2-Konzentration in der Atmosphäre hat zusammengefasst folgende Quellen:
• Verbrennung fossiler Energieträger und Herstellung von Zement (nach C. Keeling als airborne fraction definiert) • Entwaldung und landwirtschaftliche Flächennutzung Landemissionen, obwohl bedeutend, sind in dieser Abschätzung nicht enthalten. Dies rührt daher, dass ihr Beitrag schwer zu quantifizieren ist und Emissionen, die z. B. von großräumiger Entwaldung herrühren, später wieder CO2 durch
erneutes Aufwachsen von Vegetation aufnehmen. Es gibt aber auch andere Definitionen, die diese Emissionen mit berücksichtigen. Der atmosphärische CO2-Gehalt wird an verschiedenen Beobachtungsstationen (z. B. Mauna Loa auf Hawai) weltweit exakt erfasst und hat seit dem dritten IPCC-Report (TAR) 2001 erheblich zugenommen (vgl. Keeling und Whorf 2005). Lag die mittlere jährliche CO2-Zuwachsrate in der Atmosphäre in den 1990er-Jahren noch bei 3,2 ± 0,1 Gt C/Jahr, so stieg sie zwischen 2000 und 2005 auf 4,1 ± 0,1 Gt C/Jahr. Der Anstieg des globalen atmosphärischen CO2 wird dabei primär auf der Nordhemisphäre verursacht, was durch den interhemisphärischen CO2-Gradienten belegt wird. Die CO2-Emissionen aus der Verbrennung fossiler Energieträger und der Zementherstellung wuchsen von den 1980er-Jahren (1980–1990) (5,4 ± 0,3 Gt C / Jahr) über die 1990er-Jahre(1990– 2000) (6,4 ± 0,4 Gt C/Jahr) auf 7,2 ± 0,3 Gt C / Jahr in der Zeitspanne 2000–2005 an (Größenangaben nach Marland et al. 2006). Die Quantifizierung der CO2-Flüsse wird heute über zwei methodische Ansätze durchgeführt: Sogenannte Top-down-Ansätze verwenden atmosphärische Transportmodelle (z. B. das Jena-CO2Inversions-Modell des Max-Planck-Instituts für Biogeochemie Jena) und schätzen unter Hinzunahme von in situ-CO2-Konzentrationsmessungen die CO2-Flüsse. Die Methode der Atmospheric Inversions gehört zu dieser Gruppe der Top-down-Ansätze. Inputdaten liefern rund 100 Stationen zur CO2-Konzentrationsmessung (diese Daten können z. B. über das World Data Center for Greenhouse Gases oder bei der NOAA ESRL Global Monitoring Division bezogen werden . Zu den sogenannten Bottom-up-Ansätzen, die auf in situ-Messungen des CO2-Flusses aufbauen, gehören z. B. die direkten Flussmessungen mittels Erhebung des CO2-Partialdrucks (pCO2) im Ozean von Schiffen aus. Auf Grundlage des IPCC-Reports 2007 lassen sich folgende Ergebnisse für die regionalen CO2Flüsse zusammenfassen: CO2-Flüsse zwischen Land und Atmosphäre • Inversionsmodelle belegen: Die tropischen Regionen verhalten sich in der Kohlenstoffbilanz einerseits neutral oder stellen Senkengebiete dar. Trotz Entwaldung in den Tropengebieten der Erde (z. B. Indonesien 0,8 %/Jahr) ist in
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
163
den ungestörten tropischen Ökosystemen von einer Kohlenstoffaufnahme auszugehen. Allerdings liegen nur unzureichende Waldinventurdaten für die größten Tropenwaldgebiete (Amazonas) vor. • Inversionsmodelle (Top-down-Ansatz) zeigen eine ausgeprägte Kohlenstoffsenke auf den Landflächen der Nordhemisphäre an. Die Abschätzung beträgt -1,7 (-0,4 bis 2,3) Gt C/ Jahr. Ergebnisse von Bottom-up-Ansätzen liefern für die Nordhemisphäre Schätzwerte von -0,98 (-0,38 bis -1,6) Gt C/Jahr. Die stark voneinander abweichenden Werte beider Ansätze beruhen z. B. auf lateralen Kohlenstofftransporten durch Flüsse oder verringerte Kohlenstoffemissionen. • Die großen Emissionsgebiete der Nordhemisphäre, Nordamerika (-0,6 bis -1,1 Gt C/Jahr), Europa (-0,9 bis +0,2 Gt C/Jahr) und Nordasien (-1,2 bis +0,3 Gt C/Jahr) zeigen eine große Spannbreite im Kohlenstoffsenkenverhalten. Das Kohlenstoffsenkenpotenzial über Nordamerika ist nach den aktuellen Abschätzungen von Top-down- oder Bottom-up-Ansätzen niedriger anzusetzen als zum Zeitpunkt des dritten IPCC-Reports (vgl. Fan et al. 1998). Insgesamt zeigen die Abschätzungen der CO2Flüsse zwischen Land und Atmosphäre große Unsicherheiten und weisen auf zukünftigen Forschungsbedarf hin. Einige der Unsicherheitseffekte liegen auch in der Reduktion von Kohlenstoffverbindungen wie den flüchtigen organischen Verbindungen (Volatile Organic Compounds, VOC), Kohlenstoffmonoxid (CO) oder Methan (CH4), die von Ökosystemen oder vom Menschen freigesetzt und erst später zu CO2 oxidiert werden. Andere Unsicherheiten werden durch den weltweiten Handel von Wald- und Ernteprodukten induziert, weil dadurch Kohlenstoff aus den jeweiligen Herkunftsgebieten verlagert wird.
• Die tropischen Ozeane gasen CO2 in die At-
CO2-Flüsse zwischen Ozean und Atmosphäre
•
• Der regionale CO2-Fluss zwischen Ozean und Atmosphäre besteht aus einer Überlagerung natürlicher und anthropogener CO2-Flüsse (Abbildung 4.5). Die Ozeane weisen eine globale Aufnahme von 2,2 ± 0,5 Gt C / Jahr auf. Überlagert wird diese Größe im Bereich großer Flussmündungsgebiete durch deren zusätzlichen Kohlenstofftransport in die Ozeane.
•
•
•
•
•
mosphäre mit einer mittleren Flussrate von 0,7 Gt C/Jahr aus (Abschätzung nach einem ozeanischen Inversionsansatz nach Gloor et al. 2003). Dieses Ergebnis stimmt nahezu überein mit Messungen des ozeanischen CO2Partialdrucks (pCO2) von 0,8 Gt C/Jahr (nach Takahashi et al. 2002). Der außertropische nordhemisphärische Ozean ist eine Nettosenke für anthropogenes und natürliches CO2 in einer Größenordnung von 1,2 Gt C/Jahr. Der südhemisphärische Ozean ist die größte Senke für atmosphärisches (Takahashi et al. 2002) beziehungsweise anthropogenes CO2 (Mikaloff Fletcher et al. 2006). Das Senkenpotenzial wird auf 1,5 Gt C/Jahr geschätzt. Allerdings gibt es Unterschiede in der Flussverteilung zwischen subpolaren und polaren Regionen. Es wird ein größeres Senkenpotenzial der subpolaren Regionen angenommen. Eine potenzielle Verlangsamung der Ozeanzirkulation und eine Abnahme der Meerwasserpuffereigenschaften werden zusammen mit steigenden CO2-Konzentrationen beobachtet. Dies wird das ozeanische Senkenpotenzial für zusätzliches anthropogenes CO2 verringern. Die Aufnahme von CO2 hat im Laufe der Zeit den ozeanischen pH-Wert verringert (pHAbnahme um 0,1 seit 1750). Die Versauerung der Ozeane schreitet somit fort und ist unausweichlich mit der weiteren Aufnahme von anthropogenem CO2 gekoppelt. Die anorganische chemische Pufferung und die Lösung mariner CaCO3-Sedimente sind die wichtigsten ozeanischen Prozesse zur Neutralisierung von anthropogenem CO2. Diese Prozesse können jedoch temporär nicht den Anstieg auf ein hohes atmosphärisches CO2Niveau verhindern, da sie sehr langen Zeitskalen unterliegen (abhängig von der großskaligen und langsamen MOC). Die chemische Pufferung des anthropogenen CO2 durch die Ozeane ist quantitativ der wichtigste Prozess der ozeanischen Kohlenstoffsenke. Das CO2-Pufferungspotenzial im Meerwasser wird quantitativ durch den Revelle-Faktor (Revelle buffer factor) bestimmt (Abbildung 4.6). Der Revelle-Faktor betrachtet die partielle Veränderung des CO2-Partialdrucks (pCO2) im Meerwasser im Verhältnis zur par-
164
4 Kennwerte des Klimawandels und des globalen Wandels
tiellen Veränderung des gesamten gelösten anorganischen Kohlenstoffs (DIC) (Revelle und Suess 1957; Zeebe und Wolf-Gladrow 2001). Hohe Werte zeigen eine geringe Aufnahmekapazität für CO2 an. Revelle Faktor = (Δ[CO2]/[CO2])/(Δ[DIC]/ [DIC]) Alle genannten Aussagen beziehen sich auf eher kurzfristige Kohlenstoffumsätze. Die direkten Effekte einer zunehmenden atmosphärischen CO2Konzentration auf die langfristige Kohlenstoffaufnahme durch terrestrische und ozeanische Systeme können zurzeit noch nicht zufriedenstellend quantifiziert werden. 4.5 Abschätzung des CO2-Flusses zwischen Ozean und Atmosphäre (Auflösung 4° x 5°) basierend auf 940 000 Messungen des CO2-Partialdrucks im Oberflächenwasser (Messungen seit 1956) (Quelle: IPCCReport 2007). ( Farbtafel) 4.6 Geographische Verteilung des Revelle-Faktors im Oberflächenwasser der Ozeane im Jahr 1994 (nach Sabine et al. 2004a, Quelle: IPCC-Report 2007). ( Farbtafel)
Mögliche Rückkopplungen zwischen Klimaentwicklung und Kohlenstoffkreislauf Die terrestrischen und ozeanischen Kohlenstoffkreisläufe helfen, den CO2-induzierten Klimawandel zu mindern, jedoch reagieren diese Kreisläufe selbst hochsensibel auf etwaige Klimaänderungen. Die glazialen/interglazialen Zyklen der letzten 650 000 Jahre sind ein gutes Beispiel für die jeweilige Klimasensibilität des Kohlenstoffkreislaufs auf langen Zeitskalen. Daneben gibt es klare Hinweise auf Rückkopplungen des Kohlenstoffkreislaufs mit kurzzeitigen Klimaanomalien wie ENSO oder der Arktischen Oszillation (Russell und Wallace 2004). Ebenso lassen sich Rückkopplungen des Kohlenstoffkreislaufs mit natürlichen Beeinflussungen wie Vulkanausbrüchen, z. B. des Mount Pinatubo (Angert et al. 2004), herstellen. Frühere IPCC-Reporte nutzten vereinfachte Modelle, um den Einfluss des Klimawandels auf den Kohlenstoffkreislauf zu bestimmen. Diese gekoppelten globalen Atmosphäre-Ozean-Zirkulationsmodelle (AOGCM) gingen von einem
festgelegten CO2-Szenario aus, ohne die Rückkopplung zwischen Klima und Kohlenstoffkreislauf zu berücksichtigen. Im Folgenden werden die Ergebnisse erster gekoppelter Klima-Kohlenstoffkreislauf-GCM vorgestellt. Die Aussagen basieren auf den Analysen der elf C4MIP-Modelle (Coupled Carbon Cycle Climate Model Intercomparison Project, gemeinsames Projekt von IGBP-GAIM und WCRP-WGCM), die sich in ihrer Komplexität und Historie unterscheiden (Friedlingstein et al. 2006) und sich auf die Vorgaben der IPCC-Emissionszenarien (Abschnitt 4.3) beziehen. Grundlage der Modellierung war zunächst das A2-Szenario für die anthropogenen CO2-Emissionen von 1850 bis 2100. Für diese Zeitperiode führte jede Modellierungsgruppe zunächst zwei Simulationen durch: eine gekoppelte Modellierung, in welcher der Klimawandel den Kohlenstoffkreislauf beeinflusst und eine nichtgekoppelte Simulation, bei der ein atmosphärischer CO2-Anstieg keinen Einfluss auf das Klima nimmt, sodass der Kohlenstoffkreislauf keinen CO2-induzierten Klimawandel erfährt. Ein Vergleich beider Simulationen gewährt einen Einblick in das Feedbacksystem zwischen Klimawandel und Kohlenstoffkreislauf. Alle elf C4MIP-Modelle ergeben ein positives Klima-Kohlenstoffkreislauf-Feedback und berechnen im Mittel einen zusätzlichen Anstieg der CO2Konzentration bis 2100 um 87 ppm (Tabelle 4.3). Ein Großteil des anthropogenen CO2 wird nach den C4MIP-Modellen in der Atmosphäre als airborne fraction bis 2100 verbleiben. Neun beziehungsweise zehn der elf C4MIP-Modelle zeigen zudem eine Abnahme der ozeanischen und terrestrischen CO2-Aufnahmefähigkeit als Konsequenz der sinkenden Pufferungskapazität der Systeme bei zunehmender atmosphärischer CO2-Konzentration. Die Ergebnisse der C4MIP-Modelle lassen sich wie folgt zusammenfassen:
• Alle C4MIP-Modelle projizieren einen Anstieg des Anteils atmosphärischen CO2 (airborne fraction) an den CO2-Gesamtemissionen bis 2100. • Dieser CO2-Anstieg wird zunächst zu einer weiteren Aufnahme von CO2 durch die Landund Ozeansysteme führen, wobei die Pufferungsmechanismen im Ozean abnehmen und die terrestrische Kohlenstoffsenke sich durch Sättigung verringern wird.
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
• Der projizierte Klimawandel wird die terrestrische und ozeanische Kohlenstoffaufnahme in Zukunft herabsetzen. Dadurch wird sich der atmosphärische CO2-Anteil weiter erhöhen mit einem positiven Feedback auf die weitere Klimaentwicklung. Zusammengefasst zeigt die Mehrzahl der Klimamodelle, die den Land- und Meereskohlenstoff-
165
kreislauf abschätzen, positive Rückkopplungen. Die Rückkopplung zwischen Klimaentwicklung und Kohlenstoffkreislauf ergibt höhere CO2Konzentrationen und auch der Klimawandel fällt am Ende des 21. Jahrhunderts stärker aus als ohne Rückkopplung mit dem Kohlenstoffkreislauf. Dieser Rückkopplungseffekt kann durch die verringerte Aufnahme von CO2 durch die Meere und die terrestrische Biosphäre erklärt
Tabelle 4.3 Kohlenstoffkreislauf-Feedbacks auf Basis der elf C4MIP-Modelle (Quelle: IPCC-Report 2007) Modell
A
B
C
D
E
F
G
HadCM3LC
224
1,44
2,3
1,3
0,9
–175
–24
IPSL-CM2C
74
1,18
2,3
1,6
1,6
–97
–30
MPI-M
83
1,18
2,6
1,4
1,1
–64
–22
LLNL
51
1,13
2,5
2,5
0,9
–81
–14
NCAR CSM-1
20
1,04
1,2
1,1
0,9
–24
–17
FRCGC
128
1,26
2,3
1,4
1,2
–111
–47
Uvic-2.7
129
1,25
2,3
1,2
1,1
–97
–43
UMD
98
1,17
2,0
0,2
1,5
–36
–60
BERN-CC
65
1,15
1,5
1,6
1,3
–104
–38
CLIMBER2-LPJ
59
1,11
1,9
1,2
0,9
–64
–22
IPSL-CM4-LOOP
32
1,07
2,7
1,2
1,1
–19
–17
Mittelwert
87
1,18
2,1
1,4
1,1
–79
–30
±57
±0,11
±0,4
±0,5
±0,3
±45
±15
Standard Abweichung
A: zeigt den Einfluss des Klimawandels auf die CO2-Konzentration bis 2100 B: zeigt die dadurch bedingte atmosphärische CO2-Zunahme in Gt C ppm-1(climate-carbon cycle feedback factor) C: Transiente Klimasensibilität gegenüber einer CO2-Verdopplung (in °C) D: Sensibilität des terrestrischen Kohlenstoffspeichers gegenüber einer CO2-Zunahme (in GtC ppm-1) E: Sensibilität des ozeanischen Kohlenstoffspeichers gegenüber einer CO2-Zunahme (in GtC ppm-1) F: Sensibilität des terrestrischen Kohlenstoffspeichers gegenüber einer Klimaänderung (in Gt C °C-1) G: Sensibilität des ozeanischen Kohlenstoffspeichers gegenüber einer Klimaänderung (in Gt C °C-1) Modellabkürzungen (ausführliche Beschreibung der Modelle bei Friedlingstein et al. 2006): HadCM3LC: Hadley Centre, gekoppeltes Klima-Kohlenstoffkreislauf-Modell IPSL-CM2C: L’Institut Pierre-Simon Laplace MPI-M: Max-Planck-Institute für Meteorologie LLNL: Lawrence Livermore National Laboratory NCAR CSM-1: National Institute for Climate and Atmospheric Research Climate System Model Version 1 FRCGC: Frontier Research Center for Global Change Uvic-2.7: University of Victoria Earth System Climate Model UMD: University of Maryland BERN-CC: Bern Carbon Cycle Model CLIMBER2-LPJ: Climate Biosphere Model 2 - Lund Potsdam Jena Terrestrial Carbon Model IPSL-CM4-LOOP: L’Institut Pierre-Simon Laplace
166
4 Kennwerte des Klimawandels und des globalen Wandels
werden: Die Erwärmung des Ozeanwassers reduziert die Löslichkeit von CO2 im Meerwasser und reduziert damit die Aufnahme durch die Ozeane. Darüber hinaus erzeugt die Erwärmung wahrscheinlich eine sich verstärkende vertikale Schichtung der Ozeane. Dies führt zusätzlich zu einer verringerten Aufnahme von CO2 durch die Ozeane. Die globale Erwärmung verringert auch die terrestrische Aufnahme, indem sich die Rate erhöht, mit der lebende Organismen Biomasse zu CO2 konvertieren. Die langfristigen Effekte auf die beteiligten Kreisläufe sind allerdings noch nicht eindeutig geklärt. Die momentane NettoCO2-Aufnahme der terrestrischen Systeme wird aber auf längere Sicht schrumpfen, wenn die nachwachsenden Wälder auf der nördlichen Hemisphäre (insbesondere die boreale Zone) altern und die Effekte der CO2- und Stickstoffdüngung abnehmen. Zudem führt der Klimawandel zu Störungen in den Mineralisierungsraten der Böden, welche die Standortbasis der höheren Vegetation bilden (IPCC 2001d; WBGU 1998). Mehrere Vegetationsmodelle zeigen, dass die globale Netto-CO2-Aufnahme der terrestrischen Systeme weiter zunehmen wird, um dann entweder zu stagnieren oder abzunehmen (Cramer et al. 2001). Insbesondere veränderte Niederschlagsmuster könnten großräumige Veränderungen der Vegetationsverteilung und der Vegetationszusammensetzung (Arten, Struktur) bedingen, sodass der Höhepunkt der CO2-Aufnahme bereits im 21. Jahrhundert erreicht werden könnte. Die Vegetationsmodelle projizieren, dass insbesondere in Afrika, Amerika und Südostasien große Waldareale durch Dürre oder Feuer vernichtet werden könnten. Die in den Wäldern gespeicherte Kohlenstoffmenge würde dann freigesetzt und die ehemalige Waldbedeckung zunächst durch Graslandschaften ersetzt, die eine geringe CO2-Speicherfähigkeit aufweisen. Die Kopplung eines globalen Klimamodells mit einem dynamischen Vegetationsmodell (Jones et al. 2003) ergab einen Wandel der terrestrischen Biosphäre von einer Kohlenstoffsenke zu einer potenziellen Kohlenstoffquelle. Die wachsende Atmung der Landpflanzen und der Rückgang der Regenwälder (insb. im Amazonas und Asien) führen im Modell dazu, dass die terrestrische Biosphäre bereits 2040 zu einer Nettoquelle wird. Basierend auf diesen Modellergebnissen würden die terrestrischen Kohlenstoffquellen bis 2100 insgesamt
7 Gt C/Jahr emittieren und bis 2080 die Kohlenstoffsenkenkapazität der Ozeane übertreffen. Weitere verstärkte Nutzung fossiler Energieträger, Landnutzungsänderungen und Feuer würden dazu führen, dass der ehemals eingelagerte Kohlenstoff zu einem späteren Zeitpunkt wieder in die Atmosphäre gelangt. Wichtige Senkenprozesse an Land (z. B. die Nettoprimärproduktion) oder die heterotrophe Respirationsrate würden sich bis 2100 merklich verändern (Tabelle 4.4; für die Modellbezeichnungen Tabelle 4.3). Zukünftiger Forschungsbedarf sowie der Aufbau möglicher Forschungsnetze können zusätzentnommen lich dem Global Carbon Project werden. Die Tabelle 4.5 fasst die zurzeit für die Klimaforschung zur Verfügung stehenden und speziell für die Abschätzung des CO2-Kreislaufs geeigneten Satellitensysteme zusammen.
Tabelle 4.4 Sensibilität wichtiger terrestrischer Prozesse nach C4MIP-Modellen (Quelle: IPCC-Report 2007) Modell
A
B
C
HadCM3LC
57
–5,8
10,2
IPSL-CM2C
50
–4,5
2,3
MPI-M
76
–4,0
2,8
LLNL
73
–0,4
7,0
NCAR CSM-1
34
0,8
6,2
FRCGC
21
1,2
7,2
UVic-2.7
47
–2,3
6,5
UMC
12
–1,6
4,8
BERN-CC
46
1,2
8,7
CLIMBER2-LPJ
44
1,9
9,4
IPSL-CM4-LOOP
64
–0,3
2,9
Mittelwert
48
–1,3
6,2
Standard Abweichung
±20
±2,6
±2,7
A: Sensibilität der Nettoprimärproduktion (NPP) der Pflanzen gegenüber einer CO2-Verdopplung (in %) B: Sensibilität der Nettoprimärproduktion (NPP) der Pflanzen gegenüber einer Temperaturzunahme von 1 °C (in %) C: Sensibilität der spezifischen heterotrophen Respirationsrate gegenüber einer Temperaturzunahme von 1 °C (in %)
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
167
Kohlenstoffflüsse in Ökosystemen (WGBU 2003) werden (heterotrophe Respiration). Es werden also nur 5 Gt C über längere Zeiträume durch die sogenannte Nettoökosystemproduktion im Stamm und Wurzelwerk gespeichert. Auch dieser Anteil kann durch Holznutzung und Feuer als gelöster Kohlenstoff (DOC) durch Abfluss teilweise verlorengehen. Nur ein Rest von 1 Gt C pro Jahr wird in Form von Holzkohle und schwer abbaubarem Humus über sehr lange Zeiträume gespeichert (Nettobiomproduktion, NBP). Der Begriff Primärproduktion bezeichnet die Produktion von Biomasse durch die Primärproduzenten (Pflanzen, Blaualgen und autotrophe Bakterien) mithilfe von Licht oder chemischer Energie aus anorganischen Substanzen als autochthone Teile der Nahrungskette. Die NPP ergibt sich aus Bruttoprimärproduktion abzüglich Zellatmung. Maßeinheit der Primärproduktion ist die pro Zeiteinheit und Fläche (oder Volumen) in Biomasse gebundene Menge anorganischen Kohlenstoffs (in mg C/h/m2) oder die umgesetzte Energie pro Zeit und Fläche (in kJ/h/m2). Die höchste Primärproduktion findet in den Wattenmeeren und in den tropischen Regenwäldern statt. Die Primärproduktion wird zum größten Teil durch die Konsumenten und Destruenten wieder zu anorganischen Substanzen umgesetzt.
Auf dem Land sind drei wichtige Kohlenstoffspeicher zu unterscheiden:
• der Boden mit etwa 1 560 Gt C • die lebende Vegetation mit etwa 660 Gt C • die Streu (Blätter- und Wurzelreste) mit etwa 90 Gt C Die Vegetation steuert zwischen Atmosphäre und Land eine wesentliche Wechselwirkung. Die Pflanzen nehmen durch die Fotosynthese Kohlendioxid aus der Atmosphäre auf. Einen Teil des gespeicherten CO2 geben sie durch Atmung (Respiration) wieder an die Atmosphäre ab. In der Bruttoprimärproduktion (BPP) der Pflanzen werden 120 Gt C pro Jahr zunächst durch die Fotosynthese assimiliert. Etwa die Hälfte dieses Kohlenstoffs (etwa 60 Gt C pro Jahr) geht durch die Atmung der Pflanzen (autotrophe Respiration) unmittelbar wieder an die Atmosphäre verloren. Die andere Hälfte steht für die Akkumulation von Biomasse zur Verfügung (Nettoprimärproduktion, NPP). Ein Großteil der Biomasse fällt als Streu (Laub, heruntergefallene Zweige) an und wird durch Bodenorganismen mineralisiert, wobei jährlich 55 Gt C des durch das Wachstum der Pflanze gespeicherten Kohlenstoffs von 60 Gt C pro Jahr wieder an die Atmosphäre abgegeben
Nettobiomproduktion Nettoökosystemproduktion Nettoprimärproduktion CO2 Bruttoprimärproduktion
4.7 Die Kohlenstoffflüsse im Ökosystem sowie Schlüsselbegriffe, die zur Beschreibung der Flüsse in den Teilsystemen verwendet werden (nach Schulze et al. 2000).
Ernteprodukte
CO2
heterotrophe Atmung
neue Biomasse alte
Tod
organische Substanz im Boden (SOM) Streu
Feuer
neue SOM
aktive
passive
schwarzer Kohlenstoff (BC)
CO2
BC
Pflanzenatmung
CO2
SOM
Wachstum
CO2
Streu
Photosyntheseprodukte
Ernte
CO2 sonstige Kohlenstoffverluste
CO2
168
Tabelle 4.5
4 Kennwerte des Klimawandels und des globalen Wandels
Satelliten und ihre Sensoren zur Abschätzung des CO2-Zyklus
Betreiber
Mission
Sensoren zur Beobachtung des Kohlenstoffzyklus
Kategorie*
CNES
SPOT-3,- 4
HRV
1
CNES, EU
SPOT-4, SPOT -5
HRG, VEGETATION
1
CSA
Radarsat -1,-2
SAR
1
ESA
ENVISAT-1
ASAR, MERIS, AATSR, SCIAMACHY
1
ESA
ERS-2
ATSR, AMI
1
ESA, CNES
SMOS
MIRAS
1
EUMETSAT
MetOp -1, -2, -3
AVHRR /3, IASI, ASCAT
1
EUMETSAT
MSG
SEVIRI
1
INPE
MECB SSR-1, -2
OBA
2
ISRO
IRS -1C, -1D
LISS-III, PAN, WIFS
1
ISRO
IRS- P2, -P5, -P6
LISS-II (-IV), WiFS, HR-PAN, AWiFS
2
ISRO
IRS- P3, -P4
MOS, WiFS, MSMR
1
NASA
EOS Aqua
CERES, MODIS, AMSR-E
1
NASA
EOS Aura
HIRLDS, TES
1
NASA
EOS Terra
ASTER, CERES, MISR, MODIS, MOPITT
1
NASA
ESSP/VCL
MBLA
2
NASA
ICESat
GLAS
1
QuikScat
SeaWinds
NASA
1 OCO
Mission gescheitert, Februar 2009
ORBIMAGE (NASA data buy)
SeaStar
SeaWiFS
1
NASA
NMP/EO-1
ALI, Hyperion
4
NASA, NASDA
TRMM
CERES, VIRS
1
NASDA
ALOS
ALOS/PRISM, AVNIR-2, PALSAR, PRISM
1
NASDA, CNES
GCOM - B1, - B2 **
GLI, POLDER, IMG
2
NASDA, CNES, NASA
ADEOS-II
GLI, POLDER-2
1
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
169
Tabelle 4.5 Fortsetzung Betreiber
Mission
Sensoren zur Beobachtung des Kohlenstoffzyklus
Kategorie*
NASDA, NASA
GCOM-A1,-A2**
SAGE-III, ILAS-II??
2
NOAA
Landsat
ETM
1
NOAA
NPOESS
VIIRS, CrIS/ATMS, cmIS, OMPS, CERES
NOAA
TIROS-N
AVHRR, TOVS
NOAA, NASA
NPOESS Preparatory Project (NPP)**
VIIRS, CrIS/ATMS3
3
4.1.2 Methan Die CH4-Konzentration in der Atmosphäre hat sich von rund 700 ppb (Bezugsjahr 1750, Stand 1998, nach TAR 2001) auf 1 775 ppb in 2005 erhöht (Flückiger et al. 2002). Natürliche Hauptquellen des Methans sind Moorgebiete, der amazonische Regenwald, tropische Mangrovenwälder und die moorige Tundra sowie spezielle Landnutzungssysteme wie Nassreisanbau. Die Methankonzentration in der Atmosphäre hat mit dem Bevölkerungswachstum stark zugenommen (Abbildung 4.8). Der Anteil des Menschen an der Methanemission beträgt fast 75 %. Menschliche Aktivitäten wie Verbrennung von Erdgas, Reisanbau, Massentierhaltung und Müllentsorgung begünstigen die Zunahme von Methan in der Atmosphäre. Methan entsteht bei der Zersetzung von organischen Stoffen unter Luftabschluss, also in Reisfeldern, Rindermägen, Sümpfen und auf Mülldeponien. Die weltweiten Methanemissionen werden auf 500 Mio. t/Jahr geschätzt. Allein in Deutschland wurden 1994 rund 833 000 t Methan emittiert. Die Tierhaltung verursacht rund 39 % aller landwirtschaftlichen Methanemissionen, größtenteils durch
Weltbevölkerung in Milliarden
* Kategorie: 1 = Mission ist sicher beziehungsweise bereits umgesetzt oder geplant 2 = geplante Mission auf bekannter Technologie 3 = Übergang von Forschungsinstrumenten /-missionen in die operationelle Phase 4 = Entwicklung neuer Technologien 5 = Daten- und Informationssysteme ** Nicht in der WMO-/CEOS-Datenbank vorhanden
1992 1990 1984
5 4 3 2 1 1640
0,4
0,6
0,8 1,0 1,2 1,4 1,6 Methankonzentration (ppm)
1,8
4.8 Bevölkerungswachstum und Methanzunahme in der Atmosphäre.
Rinder. Der Nassreisanbau ist mit rund 17 % an den weltweiten Methanemissionen beteiligt. Ein weiteres großes Quellgebiet sind die weltweiten Feuchtgebiete. CH4, das zweitwichtigste Treibhausgas nach CO2, hat einen Anteil am Strahlungsantrieb (Radiative Forcing) von weniger als einem Drittel. In den letzten 10 000 Jahren schwankten die CH4-Konzentrationen zwischen 580 und 730 ppb, nahmen aber in den letzten 200 Jahren
170
4 Kennwerte des Klimawandels und des globalen Wandels
um 1 000 ppb zu. In den 1970er- und 1980erJahren lag die jährliche Zunahme von CH4 bei 1 %. Seit Beginn der 1990er-Jahre nahm die Rate der CH4-Zunahme wieder kontinuierlich ab und lag von 1999 bis 2005 nahe Null. Eine Zunahme der CH4-Konzentration stellt sich ein, wenn die Emissionen von CH4 dessen Abbauprozesse übersteigen. Ein Hauptabbauprozess ist die Oxidation durch das Hydroxylradikal (OH). Der Anstieg der atmosphärischen CH4-Konzentration seit der vorindustriellen Phase trägt zu einem Radiative Forcing von insgesamt +0,48 ± 0,05 W m–2 bei. Die derzeitigen atmosphärischen CH4-Gehalte beruhen auf anhaltenden anthropogenen Emissionen, welche höher liegen als die natürlichen Emissionen. Die geringen natürlichen Schwankungsraten der atmosphärischen CH4-Konzentration während der letzten 650 000 Jahre im Zusammenklang mit dem starken Anstieg seit 1750 machen es sehr wahrscheinlich, dass die beobachteten langfristigen CH4-Veränderungen auf anthropogene Aktivitäten zurückgehen. Parallel zum Rückgang der CH4-Anstiegsrate in den letzten 15 Jahren lässt sich eine hohe interanuelle Variabilität erkennen, die bis heute nicht eindeutig erklärt ist. Der größte Beitrag zur interanuellen Variabilität in der Zeitspanne 1996–2001 scheint durch die Schwankungen der Emissionen aus Feuchtgebieten und der Verbrennung von Biomasse bedingt. Klimamodelle zeigen, dass die Feuchtgebiete sehr sensibel auf Temperatur- und hydrologische Änderungen reagieren und belegen zunehmende Emissionen aus Feuchtgebieten. Allerdings sind die Schwankungsbreiten der Modellaussagen bezüglich dieses positiven Feedbacks sehr hoch. Im Falle einer Verdopplung des atmosphärischen CO2-Gehalts ermittelt das GCM von Shindell et al. (2004) eine globale Erwärmung um 3,4 °C. Daraus resultierende Veränderungen im hydrologischen Zyklus würden zu einem Anstieg der CH4-Emissionen aus Feuchtgebieten um 78 % führen. Eine Studie von Gedney et al. (2004) projiziert eine Zunahme von CH4-Emissionen aus nördlichen Feuchtgebieten aufgrund der flächenhaften Zunahme der Feuchtgebiete sowie einer steigenden CH4-Produktion bei höheren Temperaturen. Neuere Forschungsergebnisse aus antarktischen Eisbohrkernen (European Project for
Ice Coring in Antarctica, EPICA) belegen, dass Feuchtgebiete in Eiszeiten deutlich weniger Methan emittierten als in Warmzeiten. Im Gegensatz dazu blieb der Ausstoß von Methan aus Waldbränden in Eis- und Warmzeiten erstaunlich konstant. Die gut belegten Änderungen der Methankonzentration von Eiszeit zu Warmzeit sind drastisch. Glaziale Konzentrationen betrugen rund 350 ppbv (parts per billion by volume) und stiegen im Verlauf des Eiszeit/WarmzeitÜbergangs auf rund 700 ppbv an. Darüber hinaus beobachtete man Konzentrationsänderungen von etwa 200 ppbv, die mit schnellen Klimaschwankungen einher gingen. Im Laufe der letzten Jahrhunderte hat der Mensch durch künstliche Methanemissionen die Methankonzentration auf 1 750 ppbv erhöht. Was verursachte die deutlichen Schwankungen der natürlichen Methankonzentration, bevor der Mensch eingriff? Um diese Frage zu beantworten, wurde eine neue analytische Methode entwickelt, die das Verhältnis der Isotope 12CH4 und 13CH4 an Eiskernen messen kann. Dieses Verhältnis liefert Informationen über die beteiligten Methanquellen. Es zeigt sich, dass tropische Feuchtgebiete in der Eiszeit deutlich weniger CH4 emittierten, vermutlich in Abhängigkeit von Änderungen des Niederschlags in Monsungebieten. Zusammen mit einer Abnahme der atmosphärischen Lebensdauer von Methan (Methan bleibt im Mittel etwa 12 Jahre lang in der Atmosphäre) erklärt dies einen Großteil der niedrigeren Methankonzentration in der Eiszeit. Zudem waren auch die Methanquellen aus Feuchtgebieten in höheren Breiten, der borealen Zone, in der Eiszeit quasi inaktiv. Die Umweltbedingung dieser Klimaperiode war durch polare Eisschilde in Nordamerika und Nordeuropa, sowie durch sehr niedrige Temperaturen geprägt. Diese borealen Quellen wurden aber im Verlauf schneller Klimaerwärmungen wieder reaktiviert. Auch Waldbrände emittieren einen deutlichen Anteil von Methan. Diese Quelle blieb aber zeitlich relativ konstant. Die EPICA-Daten zeigen auch kein Indiz für eine Freisetzung von Methan durch die Destabilisierung mariner Gashydrate im Verlauf der Klimaerwärmung nach der letzten Eiszeit. Die Nettorate der CH4-Emissionen wird mittels dreier methodischer Ansätze abgeleitet:
4.1 Veränderungen der atmosphärischen Kohlendioxid-, Methan- und Stickoxidkonzentrationen
• Extrapolation aus direkten Flussmessungen und Beobachtungen (Analyse von Eisbohrkernen) • Prozessbasierte Modellierung (Bottom-upAnsatz) • Inverse Modellierung, die auf räumlich verteilten, zeitlich kontinuierlichen Konzentrationsmessungen beruht (Top-down-Ansatz) Die Top-down-Ansätze beinhalten flugzeug- und satellitenbasierte Messungen (Frankenberg et al. 2005, 2006) und unterstützen die Bottom-upAnsätze bei ihrer Extrapolation in größere Maßstabsbereiche. Die Messungen bestimmter CH4-Isotope (13C, 14C und 2H) können zusätzliche Informationen über die CH4-Bilanz und deren spezifische Quellen liefern. Insgesamt ist die Abschätzung früherer und zukünftiger Methankonzentrationen immer noch mit großen Unsicherheiten behaftet. Hier besteht erheblicher Forschungsbedarf. Die Gründe für den Rückgang der atmosphärischen CH4-Wachstumsrate und dessen Bedeutung für zukünftige Veränderungen in der Atmosphäre sind bis heute nicht verstanden (vgl. Prather et al. 2001). Es wird allerdings vermutet, dass der Rückgang mit dem Ungleichgewicht zwischen CH4-Quellen und Senken zusammenhängt. Der größte Anteil atmosphärischen Methans wird durch die Oxidation mit dem freien Hydroxylradikal (OH) abgebaut, welches fotochemisch in der Atmosphäre erzeugt wird. Das freie OH-Radikal baut insgesamt 3,7 Gt C an Treibhausgasen pro Jahr ab (CH4, alle Fluorkohlenwasserstoffe und Fluorchlorkohlenwasserstoffe) und spielt deshalb eine bedeutende Rolle für die Verringerung des Radiative Forcing vieler Treibhausgase. Je nach Emissionsszenario (▶ Abschnitt 4.3) wird die OH-Konzentration in der Atmosphäre bis 2100 zwischen –18 % und +5 % schwanken. Neueste Untersuchungen mit dem Tracergas Methylchloroform zeigen aber, dass die OH-Konzentration in den letzten Jahren relativ konstant geblieben ist. Eine andere Senke für den Methanabbau ist die Reaktion mit freien Chlorradikalen sowie der Abbau in der Pedosphäre. Die globale Quellstärke für Methan ist relativ genau bekannt. Die Unsicherheiten liegen in der Bestimmung der Quellstärken spezifischer Quellen (Feuchtgebiete, landwirtschaftliche Nutzung z. B. in Form von Reisanbau). Neuere For-
171
schungsstudien (Stand 2008) des Max-PlanckInstituts für Chemie, der Universität Utrecht und des Agri-Food and Biosciences Institute in Belfast zeigen darüberhinaus, dass ein Teil des Treibhausgases CH4 aus Pektin stammt. Pektin, ein Polysaccharid, ist neben Cellulose ein Stoff, den viele Pflanzen als Gerüstmaterial einsetzen. Pektin enthält Methoxygruppen, in denen die chemische Struktur des Methans schon andeutungsweise zu erkennen ist. Hinweise, dass sich aus Pektin durch UV-Lichtbestrahlung in einem fotochemischen Prozess Methan bildet, hatten die Wissenschaftler bereits zwei Jahre zuvor gefunden. Dieser CH4-Bildungsmechanismus wurde dann 2008 mittels einer Isotopenanalyse eindeutig nachgewiesen. Die Forscher ersetzten die Wasserstoffatome in diesen Gruppen durch Deuterium (schweren Wasserstoff), welchen sie später im freigesetzten Methan wiederfanden. Dieser Mechanismus kann aber nicht grundsätzlich die Methanbildung erklären – denn bei den Experimenten mit UV-Licht entsteht Methan auch ohne Deuterium. Darüber hinaus bildet sich aus Cellulose unter UV-Lichtbestrahlung ebenfalls Methan, wenn auch deutlich weniger als aus Pektin. Cellulose besitzt im Gegensatz zu Pektin nämlich keine Methoxygruppen. Das Beispiel zeigt aber, das die vielfältigen Wechselwirkungen zwischen Klima (in diesem Fall UV-Bestrahlung) und Biosphäre noch nicht vollends verstanden sind und somit die Abschätzung zukünftiger Emissionen großen Unsicherheiten unterliegt. Insgesamt lassen sich für Methan folgende Veränderungen seit Erscheinen des dritten IPCC-Berichts 2001 (TAR) festhalten. Die mittlere atmosphärische CH4-Konzentration lag im Jahr 2005 bei 1 774 ± 1,8 ppb. Dies entspricht einer Zunahme um 11 ppb seit 1998. Das durch Methan zusätzlich verursachte Radiative Forcing betrug im Jahr 2005 0,48 W/m2. Tabelle 4.6 fasst die Quellen und Senken der atmosphärischen CH4-Budgets (Tg (CH4)/Jahr) zusammen.
4.1.3 Stickoxid Das wichtigste Stickoxid ist Lachgas oder Distickstoffoxid (N2O). Die atmosphärische N2OKonzentration lag im Jahr 2005 bei 319 ppb und damit rund 18 % über der der vorindustriellen
172
4 Kennwerte des Klimawandels und des globalen Wandels
Tabelle 4.6 Beste Abschätzungen für Quellen und Senken atmosphärischer CH4-Budgets (Tg (CH4)/Jahr) (Quelle: IPCC-Report 2007) wiss. Referenz (Autor)
a
Basiszeitraum
Anthropogene Quellen Energie Kohleabbau Gas-/Öl-Industrie Deponien/Abfall Wiederkäuer Reisanbau Verbrennung von Biomasse C3-Vegetation C4-Vegetation
B
231
–70 –60 –60 –40 –60 –25
–37 –44 –55 –60 –63 –25
G
H
1990
1994
1999
1996– 1998 2001
200 176
260 231
168 145
20 15
20 4 5 14
20
29
23
350
428
48d 36e
49 83 57 41
30 52 35 91 54 88
189f 112 43e
507
610
596
I
J
2000– 2004
4
2 358
32 68 43 92 83 43
34 64 66 80 39
46 60 61 81 60 50
264
307
74
77
69 76 31 14
27 9
Imbalance
+33
A: Hein et al. 1997c B: Houweling et al. 2000 C: Olivier et al. 2005 D: Wuebbles und Hayhoe 2002 E: Scheehle et al. 2002 F: Wang et al. 2004c G: Mikaloff Flether et al. 2004ac H: Chen und Prinn 2006c I: 3. IPCC-Report 2001 (TAR) J: 4. IPCC-Report 2007 (AR4)
F
145 100
320
592
Senken gesamt
E
222 163
361
–25 –12
–18 –3,9
D
2000
4 15 5
Quellen gesamt
Senken Böden Troposphärisches OH Stratosphärischer Verlust
C
1983– 1989
Natürliche Quellen: Feuchtgebiete –58 Termiten Ozean Hydrate Geolog. Quellen Tiere Feuer/Brände
A
503
598
582
+22
+1
26 488
30 445
34 428
30 507
30 506
30g 511g
45
40
30
40
40
40g
559
515
492
577
576
581g
a: Anzeiger zur Quellenabschätzung: 13C , %b b: Indikative 13C-Werte zur Quellenabschätzung wurden von Mikaloff Fletcher et al. (2004a) bezogen. Posten für Senkenabschätzung sind die Fraktionierung (k13/k12-1), wobei Kn die Abbaurate von nCH4 ist. Die Fraktionierung von OH wurde den Angaben von Saueressig et al. (2001) entnommen. Angaben zur Bodensenke stammen von Snover und Quay (2000). c: Schätzwerte nach einer globalen inversen Modellierung (Top-down-Methode) d: Enthält natürliche Gasemissionen e: Emissionen aus der Verbrennung von Biotreibstoffen sind unter der Rubrik Industrie aufgelistet f: Beinhaltet Emissionen von Deponien und der Abfallbeseitigung g: Angaben sind aufgrund einer Rekalibrierung um 1 % gegenüber den Angaben im dritten IPCC-Report (TAR) gestiegen
4.2 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe
Phase. In den letzten Jahrzehnten nahm N2O nahezu linear mit einer Steigerungsrate von 0,8 ppb/Jahr zu. Eiskernbohrungen belegen, dass die atmosphärische N2O-Konzentration in den letzten 11 500 Jahren vor der industriellen Revolution um lediglich 10 ppb schwankte. Die Zunahme des N2O seit der vorindustriellen Phase ist heute für ein zusätzliches Radiative Forcing von +0,16 ± 0,02 Wm–2 verantwortlich. Der Anstieg wird überwiegend menschlicher Tätigkeit zugerechnet, hier sind insbesondere landwirtschaftliche Aktivitäten (Düngemitteleinsatz) und die damit verbundenen Landnutzungsveränderungen zu nennen. Heutige Abschätzungen gehen davon aus, dass etwa 40 % der gesamten N2O-Emissionen anthropogene Ursachen haben. N2O wird nicht nur direkt vom Menschen freigesetzt, sondern es bildet sich auch indirekt im Boden bei Sauerstoffmangel, wenn z. B. Stickstoffdünger (intensive Landwirtschaft) in N2O umgewandelt wird. Neuere Forschungen belegen, dass beispielsweise Maßnahmen zur Reduktion von Stickoxidemissionen aus Verbrennungsprozessen zu einer erheblichen Steigerung der N2O-Emissionen führen können. Dies gilt auch für Fahrzeuge mit geregeltem Dreiwegekatalysator, wobei über deren Auswirkung auf die globale N2O-Bilanz noch Unsicherheit besteht. Da aber der Anteil an Katalysatorfahrzeugen weltweit ansteigen wird (Nachholbedarf von Indien und China), wird auch in den nächsten Jahren mit einem deutlichen Anstieg zumindest der Kfz-bedingten N2O-Emissionen gerechnet. Eine weitere N2O-Quelle ist die chemische Industrie, die beim Prozess der Adipinsäuresynthese (Polyamidvorprodukt) N2O freisetzt und dessen Menge im unternehmenseigenen Treibhaus-Budget listen muss. Das N2O-Absorptionsspektrum trägt dazu bei, das Strahlungsfenster der Erde zum Weltall hin zu verkleinern. Mit einer mittleren atmosphärischen Verweilzeit von 114 Jahren und einem relativ hohen molekularen Treibhauspotenzial von 298 (auf 100 Jahre bezogen, Tabelle 4.7) ist N2O nach CO2 und CH4 ein weiteres klimarelevantes Gas. Sein Beitrag zum anthropogenen Treibhauseffekt beträgt heute etwa 5 %. Darüber hinaus trägt N2O zum Ozonabbau bei. Die fotochemische Spaltung von Ozon (O3) in ein freies Sauerstoffatom und ein Molekül O2 führt in der unteren Stratosphäre zu einer Reihe von chemischen Prozessen, in denen Methan, Wasserdampf, molekularer Wasser-
173
stoff und Stickoxide oxidiert werden. Dabei gehen die Stickoxide von N2O zunächst in Stickstoffmonoxid (NO) und dann in Stickstoffdioxid (NO2) über. Wasser (H2O) geht über in die Radikale OH und OH2 (Hydroxyl). Für die Wasserstoffverbindungen endet hier die Oxidationskette, während sie für die Stickstoffverbindungen noch weitergehen kann zum NO3 und N2O5. Das beim Abbau von N2O in der Stratosphäre zum Teil gebildete NO kann Ozon abbauen: NO + O3 → NO2 + O2 Ein Teil des NO2 kann durch Reaktion mit Sauerstoffatomen NO zurückbilden, sodass in der Summe die Ozonabbaureaktion katalysiert wird.
4.2 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe, des troposphärischen und stratosphärischen Ozons sowie der Aerosole 4.2.1 Fluorkohlenwasserstoffe (HFC), vollhalogenierte Fluorkohlenwasserstoffe (PFC) und Schwefelhexafluorid (SF6) Die Halogenkohlenwasserstoffe (CFC), vor allem die Flourkohlenwasserstoffe (HCFC, deutsche Bezeichnung auch FCKW), sind Treibhausgase, die durch anthropogene, vielseitige technische Anwendungen in die Atmosphäre eingebracht werden (teilweise chemisch inert). Unter dem Eindruck des Ozonlochs, welches britische Forscher 1985 aufgrund von Ozonkonzentrationsmessungen (seit 1977) über ihrer Antarktisstation entdeckt hatten, fand 1987 in Montreal eine internationale Konferenz statt. Die Unterzeichnerstaaten des sogenannten Montreal-Protokolls vereinbarten die Halbierung der wichtigsten FCKW bis zum Jahr 2000. Folgekonferenzen führten dazu, dass die Unterzeichnerstaaten ab 1995 die
174
4 Kennwerte des Klimawandels und des globalen Wandels
wichtigsten FCKW nicht mehr produzierten (Tabelle 4.7) und darüber hinaus auch die Produktion und Verbrauch für Halone, halogenierte Kohlenwasserstoffe und Methylbromid reduzierten.
Seit Inkrafttreten des Montreal-Protokolls (1987) haben die Montreal-Gase insgesamt zu einem Radiative Forcing von +0,32 ± 0,03 W m–2 im Jahr 2005 beigetragen. Das Gas CFC-12 ist dabei
Tabelle 4.7 Aktuelle Konzentrationen und Radiative Forcing für langlebige Treibhausgase (LLGHG’s). Veränderungen seit 1998 (Basis 3. IPCC-Report) (Quelle: IPCC-Report 2007) chem. Verbindungen CO2 CH4 N2O
Konzentration 2005 379 ± 0,65 ppm 1,774 ± 1,8 ppb 319 ± 0,12 ppb
Konzentration Veränderung seit 1998
Radiative Forcing 2005 (W m-2)
+13 ppm
1,66
+13
+11 ppb
0,48
–
+5 ppb
0,16
+11
Radiative Forcing Veränderung seit 1998 (%)
Ppt
ppt
CFC-11
251 ± 0,36
–13
0,063
–5
CFC-12
538 ± 0,18
+4
0,17
+1
–4
0,024
–5
+38
0,033
+29
CFC-113 HCFC-22
79 ± 0,064 169 ± 1,0
HCFC-141b
18 ± 0,068
+9
0,0025
+93
HCFC-142b
15 ± 0,13
+6
0,0031
+57
CH3CCl3
19 ± 0,47
–47
0,0011
–72
CCl4
93 ± 0,17
–7
0,012
–7
HFC-125
3,7 ± 0,10
+2,6
0,0009
+234
HFC-134a
35 ± 0,73
+27
0,0055
+349
HFC-152a
3,9 ± 0,11
+2,4
0,0004
+151
HFC-23
18 ± 0,12
+4
0,0033
+29
SF6
5,6 ± 0,038
+1,5
0,0029
+36
CF4(PFC-14)
74 ± 1,6
0,0034
–
C2F6(PFC-116)
2,9 ± 0,025
0,0008
+22
+0,5
CFC gesamt
0,268
–1
HCFCs gesamt
0,039
+33
Montreal Gase
0,320
–1
Andere Kyoto Gase (HFC + PFC + SF6)
0,017
+69
Halocarbonate
0,337
+1
LLGHGs gesamt
2,63
+9
175
4.2 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe
eines der wichtigsten langlebigen Treibhausgase (Long-Living Greenhouse Gases, LLGHG). Die Konzentrationen industriell freigesetzter Gase, die vom Kyoto-Protokoll berücksichtigt werden (Fluorkohlenwasserstoffe (HFC), vollhalogenierte Fluorkohlenwasserstoffe (PFC), Schwefelhexafluorid (SF6)), sind relativ gering, stiegen aber in den letzten Jahren rapide an (prozentuale Zunahme seit 1998 etwa 69 %, Tabelle 4.7). Ihr gesamtes Radiative Forcing betrug im Jahr 2005 +0,017 Wm–2. Insbesondere steigen die Emissionen der Gasgruppe der Fluorkohlenwasserstoffe (HFC) sehr stark an – eine Entwicklung, die an das weltweite Wirtschaftswachstum gekoppelt ist.
4.2.2 Troposphärisches Ozon Das troposphärische Ozon ist ein kurzlebiges Treibhausgas in der unteren Troposphäre mit hoher räumlicher und zeitlicher Variabilität. Für die Bildung von troposphärischem Ozon werden vorwiegend Kohlenmonoxid (CO), Stickoxide (NOx) und Formaldehyd als Ausgangsstoffe angesehen. Das troposphärische Ozon hat ein geschätztes Radiative Forcing von +0,35 (+0,25 bis +0,65) Wm–2. Die beste Schätzung troposphärischen Ozons entspricht dabei immer noch der des dritten IPCC-Reports (TAR) von 2001. Modelle zur Atmosphärenchemie belegen aber einen Anstiegstrend in niederen Breiten. Die Schwankungen des troposphärischen Ozons hängen dabei von lufthygienischen Bedingungen und vom Klimawandel ab. Viele Studien belegen die Temperaturabhängigkeit der tageszeitlichen Ozonkonzentration im Sommer. So war die Hit-
zewelle im Jahr 2003 über Europa mit sehr hohen lokalen Ozonwerten in der unteren Atmosphäre verbunden.
4.2.3 Stratosphärisches Ozon Mit dem FCKW-Boom der 1960er- und 1970erJahre kam es zum steilen Anstieg der Konzentration chlorhaltiger Gase in der Atmosphäre – zunächst in der Troposphäre und mit fünf- bis zehnjähriger Zeitverzögerung auch in der Stratosphäre. Die atmosphärische Belastung mit Chlor aus organischen Quellgasen (Gesamtchlor) verfünffachte sich in Relation zur Zeit vor der FCKWProduktion. Sie stieg vom natürlichen Wert 0,6 ppbv (komplett von Methylchlorid (CH3Cl) stammend), auf 3,7 ppbv. Im Jahr 2000 lag die Chlorbelastung der Stratosphäre in 29 km Höhe bei etwa 3,3 ppbv (Brom nicht eingerechnet). Als Chlorbelastung wird hier das atmosphärische Gesamtchlor angesehen, welches sowohl in FCKW als auch in Halonen gebunden ist oder davon abgespalten wird; Brom ist nicht enthalten. Die gemessene Chlorbelastung vor dem Jahr 2000 und ihre vorausgesagte Entwicklung bis 2070 zeigen eine fast zehnjährige Zeitverzögerung zwischen Troposphäre und mittlerer Stratosphäre (29 km Höhe). Die im Jahr 2000 in 29 km Höhe gemessene Chlorbelastung stammt also aus FCKWEmissionen in die Troposphäre, die fast zehn Jahre zurückliegen. Das Jahr 1990 war das letzte Jahr mit einem weltweit extrem hohen FCKWJahresverbrauch von 2 Millionen Tonnen. Seit 1974 war allerdings die FCKW-Weltproduktion auf diesem hohem Niveau betrieben worden.
Tabelle 4.8 Produktionsstopp der im Montreal-Protokoll gelisteten Substanzen (Quelle: UNEP-Handbuch 2000) Lebensdauer in Jahren
Industrieländer
Entwicklungsländer
FCKW (Fluorchlorkohlenwasserstoffe)
45–300
1996
2010
Halone
11–65
1994
2010
Methylchloroform
4,8
1996
2015
Methylbromid
0,7
2005
2015
10–20
2030
2040
HFCKW (teilhalogenierte Fluorkohlenwasserstoffe)
176
4 Kennwerte des Klimawandels und des globalen Wandels
Als Folge des Montrealer Protokolls, insbesondere seiner Verschärfungen in London (1990) und Kopenhagen (1992)(Änderungsprotokolle), stieg ab 1993 die Chlorbelastung der Troposphäre (nicht der Stratosphäre!) erstmals nicht mehr an. Der Rückgang der Chlorbelastung seit 1995 geht überwiegend zurück auf Methylchlo-
roform, das seit Anfang der 1990er-Jahre im Verbrauch stark reduziert wurde. Dieser Kohlenwasserstoff hat eine Lebensdauer von nur 4,8 Jahren, sodass die Chlorbelastung relativ schnell um 80 ppt (bis 1998) abnehmen konnte. Das Chlor aus langlebigeren Verbindungen nahm demgegenüber auch 1996 in der Atmosphäre noch zu. Die
Was zerstört die Ozonschicht? – Eine kurze Geschichte der Chemie des künstlichen Ozonabbaus Das Ozon der Stratosphäre steht im natürlichen Gleichgewicht von Auf- und Abbau. Die natürliche Ozonzerstörung erfolgt durch mehrere aggressive Spurengase, die aus den Quellgasen Distickstoffoxid (N2O), Wasserdampf (H2O), Methan (CH4) oder Methylchlorid (CH3Cl) und Methylbromid (CH3Br) entstehen. Die Quellgase werden am Erdboden und im Ozean durch natürliche Prozesse gebildet. Es gibt allerdings eine Gruppe von Quellgasen, die in der Natur nicht vorkommt, sondern ausschließlich anthropogene Quellen aufweist: die Fluorchlorkohlenwasserstoffe, aus denen in der Atmosphäre durch UV-Spaltung (Fotolyse) ozonabbauende Chlorradikale frei werden sowie die Halone, aus denen ozonabbauendes Brom abgespalten wird. Der Ozonabbau durch die über FCKW und Halone in die Stratosphäre eingetragenen Halogene Chlor und Brom verläuft analog dem Ozonabbau durch Halogene aus natürlichen Quellgasen, nämlich katalytisch. Das Besondere gegenüber dem natürlichen Ozonabbau ist demnach nicht der chemische Mechanismus, sondern der durch den Konzentrationsanstieg dieser Spurengase bewirkte signifikante Abbau seit über 30 Jahren. Den Ozonabbau in der Stratosphäre durch Chlor veranschaulicht Abbildung 4.9. Der Zyklus lässt sich in folgende Schritte aufteilen:
atome miteinander zu molekularem Sauerstoff und geben das Chloratom wieder frei. 3. Dieser katalytische Zyklus kann mehr als 1 000-mal nacheinander ablaufen. Er ist erst zu Ende, wenn das Chlormonoxid nicht auf ein freies Sauerstoffatom trifft, sondern auf einen anderen Spurenstoff. Im vorliegenden Fall verbindet sich ClO mit NO2. Dabei entsteht die nichtreaktive Reservoirverbindung ClONO2. Ein Ozonabbau findet nicht mehr statt. Der Pfeil nach unten zeigt an, dass die Reservoirverbindung nach unten in die Troposphäre transportiert und der katalytische Abbau gestoppt wird. 4. Häufiger ist die Aufspaltung des Chlornitratmoleküls durch UV-Strahlungsenergie („hv“ ), wobei wieder ein freies Cl-Atom entsteht. Ein neuer Zyklus des Ozonabbaus kann starten.
1. Ein von einem FCKW-Molekül abgespaltenes Cl-Atom entreißt einem Ozonmolekül O3 ein Sauerstoffatom. Dabei entsteht ClO. Der übriggebliebene molekulare Sauerstoff O2 ist nicht dargestellt. 2. Das ClO-Molekül ist zwar reaktiv, aber nicht in der Lage, Ozon zu zerstören. Dagegen kann es mit einem O-Atom reagieren, das aus der natürlichen Spaltung eines anderen Ozonmoleküls für kurze Zeit freigesetzt ist. Bei dieser Reaktion verbinden sich die beiden Sauerstoff-
ClONO2
O3 Cl
ClO O NO2
hν
4.9 Katalytischer Ozonabbau durch Chlor. Im oberen Teil der Abbildung wird der katalytische Abbauzyklus, im unteren Teil der Abbruch des Zyklus durch Verbindung von Chlormonoxid (ClO) mit dem Spurenstoff Stickstoffdioxid (NO2) zum Reservoirgas Chlornitrat (ClONO2) gezeigt. ClONO2 kann entweder nach unten absinken (Pfeil) oder das Chlor durch Strahlungsenergie (hv) wieder freigeben.
177
4.2 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe
Chlorbelastung aus CFC-12 (Dichlorodifluoromethane) stieg 1996 um 9 ppt. Aus sogenannten teilhalogenierten Kohlenwasserstoffen kamen 10 ppt neu hinzu (5 ppt vom HCFC-22, 4 ppt vom HCFC-141b und 1 ppt vom HCFC-142b) Die Zuwächse dieser vier HCFC-Typen hielten auch 1998 an. In der mittleren Stratosphäre (29 km) ist die Chlorbelastung bis zum Jahr 2000 wegen des anhaltenden „Nachschubs“ aus der Troposphäre weiter kontinuierlich gestiegen. Der stratosphärische Maximalwert von 3,3 ppb dürfte bis 2010 konstant bleiben. Danach erwartet die WMO einen Rückgang der Chlorbelastung, sofern alle Unterzeichnerstaaten des Montreal-Protokolls die Ausstiegsbeschlüsse des Änderungsprotokolls von 1997 in Monteal einhalten (Madronich et al. 1998). FCKW wird in Entwicklungsländern noch bis 2010 und HFCKW in Industrie- und Entwicklungsländern bis 2030 beziehungsweise 2040 produziert werden dürfen (Tabelle 4.8). Für den Ozonabbau ist nicht nur Chlor als Katalysator bedeutsam, sondern auch Brom. Brom wirkt pro Atom 50-mal so zerstörerisch wie Chlor. Anthropogene Bromquellen sind vor allem Halone (Feuerlöschmittel) sowie Methylbromid, das bei der Bodenbegasung als Pesti-
zid und früher bei der Verbrennung bleihaltigen Benzins freigesetzt wurde. Um die höhere Ozonzerstörung durch Brom gegenüber Chlor zu berücksichtigen, wird das atmosphärische Brom mit 50 multipliziert und dann dem Gesamtchlor zugerechnet. Dies ergibt eine äquivalente Chlorbelastung. Obwohl sich die Brombelastung der Atmosphäre bisher vom natürlichen Wert 10 ppt nur auf 17 ppt erhöht hat, entspricht dies in Chloräquivalenten einem Anstieg von 500 auf über 800 ppt. Brom stellt in der Stratosphäre heute fast ein Viertel der äquivalenten Chlorbelastung von 4,1 ppb dar. Die Regenerierung der Ozonschicht hängt deshalb nicht nur von der Verminderung des Chloreintrags, sondern auch von der Reduzierung von Brom aus Halonen und Methylbromid ab. Das Radiative Forcing aufgrund der Zerstörung des stratosphärischen Ozons durch die genannten Montreal-Gase wird auf insgesamt -0.05 ± 0.10 W m-2 geschätzt. Tabelle 4.9 fasst die mittlere Verweilzeit (Lebensdauer), die Strahlungseffizienz (radiative efficiency in Wm-2 ppb-1) sowie das globale Treibhauspotenzial (Global Warming Potential, GWP) der einzelnen Treibhausgase in Relation zu CO2 für bestimmte Zeitintervalle zusammen.
Tabelle 4.9 Lebensdauer, Strahlungseffizienz und Treibhauspotenzial (GWP in ppm) in Relation zu CO2 für die Zeitintervalle 20, 100 und 500 Jahre (Quelle: IPCC-Report 2007). industrielle Bezeichnung/ allgemeiner Name
chemische Formel
Kohlenstoffdioxid
CO2
Methan Stickoxid
CH4 N2O
Lebenszeit in Jahren a
12 114
Strahlungseffizienz in Wm–2 ppb-1 1,4 ×10–5 3,7 ×10
–4
GWP (SAR*) 100 Jahre
GWP 20 Jahre
GWP 100 Jahre
GWP 500 Jahre
1
1
1
1
21
72
25
7,6
3,03 ×10–3
310
289
298
153
Substanzen unter Kontrolle des Montreal-Protokolls CFC-11
CCl3F
45
0,25
3 800
6 730
4 750
1 620
CFC-12
CCl2F2
100
0,32
8100
11 000
10 900
5 200
CFC-13
CClF3
640
0,25
10 800
14 400
16 400
CFC-113
CCl2FCClF2
85
0,3
6 540
6 130
2 700
CFC-114
CClF2CClF2
300
0,31
8 040
10 000
8 730
CFC-115
CClF2CF3
1 700
0,18
5 310
7 370
9 990
Halon-1301
CBrF3
65
0,32
8 480
7 140
2 760
4 800
5 400
178
Tabelle 4.9
4 Kennwerte des Klimawandels und des globalen Wandels
Fortsetzung Lebenszeit in Jahren
Strahlungseffizienz in Wm–2 ppb-1
GWP 20 Jahre
GWP 500 Jahre
GWP 100 Jahre
industrielle Bezeichnung/ allgemeiner Name
chemische Formel
Halon-1211
CBrClF2
16
0,3
4 750
1 890
575
Halon-2402
CBrF2CBrF2
20
0,33
3 680
1 640
503
Kohlenstofftetrachlorid
CCl4
26
0,13
2 700
1 400
435
Methylbromid
CH3Br
0,7
0,01
17
5
1
Methylchloroform
CH3CCl3
5
0,06
506
146
45
HCFC-22
CHClF2
12
0,2
1 500
5 160
1 810
549
HCFC-123
CHCl2CF3
1,3
0,14
90
273
77
24
HCFC-124
CHClFCF3
5,8
0,22
470
2 070
609
185
HC FC-141b
CH3CCl2F
9,3
0,14
2 250
725
220
HCFC-142b
CH3CClF2
17,9
0,2
5 490
2 310
705
HCFC-225ca
CHCl2CF2CF3
1,9
0,2
429
122
37
HCFC-225cb
CHClFCF2CClF2
5,8
0,32
2 030
595
181
GWP (SAR*) 100 Jahre
1 400
1 800
Fluorkohlenwasserstoffe HFC-23
CHF3
270
0,19
11 700
12 000
14 800
12 200
HFC-32
CH2F2
4,9
0,11
650
2 330
675
205
H FC-125
CHF2CF3
29
0,23
2 800
6 350
3 500
1 100
HFC-134a
CH2FCF3
14
0,16
1 300
3 830
1 430
435
H FC-143a
CH3CF3
52
0,13
3 800
5 890
4 470
1 590
HFC-152a
CH3CHF2
1,4
0,09
140
437
124
38
HFC-227ea
CF3CHFCF3
34,2
0,26
2 900
5 310
3 220
1 040
HFC-236fa
CF3CH2CF3
240
0,28
6 300
8 100
9 810
7 660
HFC-245fa
CHF2CH2CF3
7,6
0,28
3 380
1 030
314
HFC-365mfc
CH3CF2CH2CF3
8,6
0,21
2 520
794
241
HFC-43-10mee
CF3CHFCHFCF2CF3
15,9
0,4
1 300
4 140
1 640
500
23 900
16 300
22 800
32 600
12 300
17 200
20 700
vollhalogenierter Fluorkohlenwasserstoff Schwefelhexafluorid
SF6
3,200
0,52
Stickstofftrifluorid
NF3
740
0,21
PFC-14
CF4
50,000
0,10
6 500
5 210
7 390
11 200
PFC-116
C2F6
10,000
0,26
9 200
8 630
12 200
18 200
PFC-218
C3F8
2,600
0,26
7 000
6 310
8 830
12 500
PFC-318
c-C4F8
3,200
0,32
8 700
7 310
10 300
14 700
179
4.2 Veränderungen der atmosphärischen Halogenkohlenwasserstoffe
Tabelle 4.9
Fortsetzung Strahlungseffizienz in Wm–2 ppb-1
GWP (SAR*) 100 Jahre
2 600
0,33
7,000
C5F12
4 100
0,41
PFC-5-1-14
C6F14
3 200
0,49
PFC-9-1-18
C10F18 >
>1000
Trifluormethylschwefelpentafluorid
SF5CF3
HFE-125
CHF2OCF3
HFE-134
industrielle Bezeichnung/ allgemeiner Name
chemische Formel
PFC-3-1-10
C4F10
PFC-4-1-12
Lebenszeit in Jahren
GWP 500 Jahre
GWP 100 Jahre
GWP 20 Jahre 6 330
8 860
12 500
6 510
9 160
13 300
6 600
9 300
13 300
0,56
>5 500
>7 500
>9 500
800
0,57
13 200
17 700
21 200
136
0,44
13 800
14 900
8 490
CHF2OCHF2
26
0,45
12200
6 320
1 960
HFE-143a
CH3OCF3
4,3
0,27
2 630
756
230
HCFE-235da2
CHF2OCHClCF3
2,6
0,38
1230
350
106
HFE-245cb2
CH3OCF2CHF2
5,1
0,32
2 440
708
215
HFE-245fa2
CHF2OCH2CF3
4,9
0,31
2 280
659
200
HFE-254cb2
CH3OCF2CHF2
2,6
0,28
1260
359
109
HFE-347mcc3
CH3OCF2CF2CF3
5,2
0,34
1980
575
175
HFE-347pcf2
CHF2CF2OCH2CF3
7,1
0,25
1900
580
175
HFE-356pcc3
CH3OCF2CF2CHF2
0,33
0,93
386
110
33
HFE-449sl (HFE-7100)
C4F9OCH3
3,8
0,31
1040
297
90
HFE-569sf2 (HFE-7200)
C4F9OC2H5
0,77
0,3
207
59
18
HFE-43-10pccc124 (H-Galden 1040x)
CHF2OCF2OC2F4OCHF2
6,3
1,37
6320
1870
569
HFE-236ca12 (HG-10)
CHF2OCF2OCHF2
12,1
0,66
8 000
2 800
860
HFE-338pcc13 (HG-01)
CHF2OCF2CF2OCHF2
6,2
0,87
5 100
1 500
460
7,400
Fluorierte Äther
Kohlenwasserstoffe und andere Verbindungen – Direkte Effekte Dimethylether
CH3OCH3
Methylenchlorid
CH2Cl2
Methylchlorid
CH3Cl
0,015
0,02
1
1
<<1
0,38
0,03
31
8,7
2,7
1,0
0,01
45
13
4
* : „SAR“ meint den zweiten IPCC-Bericht (1995). a Die CO -Reaktionsfunktion basiert auf dem Bern-Kohlenstoff-Modell (Bern 2.5CC; Joos et al. 2001) mit einer Hintergrund CO 2 2 Konzentration von 378 ppm.
180
4 Kennwerte des Klimawandels und des globalen Wandels
4.2.4 Aerosole Die Kenntnis über die klimatische Rolle der Aerosole ist auch heute noch mit zahlreichen Unsicherheiten behaftet. Die meisten Treibhausgase haben eine lange atmosphärische Verweilzeit und sind daher in der Atmosphäre gut durchmischt. Aerosole hingegen sind wegen ihrer kurzen Lebensdauer regional sehr unterschiedlich verteilt. Das lokale und regionale Wettergeschehen kann die horizontale und vertikale Verteilung wie auch die Mischungsverhältnisse der Aerosole schnell verändern. Chemische Prozesse sorgen zudem dafür, dass die einzelnen Aerosole in kürzester Zeit auch ihre Eigenschaften stark modifizieren können. Die klimatische Wirkung der Aerosole ist entsprechend komplex und quantitativ äußerst schwierig zu erfassen. Aerosole entstehen durch natürliche Vorgänge als auch durch menschliche Aktivitäten. Mögliche Quellen sind Vulkanausbrüche, Stürme in Trockengebieten (Wüsten, Lössgebiete Chinas) sowie die Verbrennung von Biomasse und fossilen Brennstoffen. Aerosole haben auf die abgehende langwellige Wärmestrahlung der Erde kaum Einfluss. Sie reflektieren jedoch die Solarstrahlung und absorbieren sie zum Teil auch. Da Aerosole überwiegend abkühlend wirken, maskieren sie den anthropogenen Klimawandel bis zu einem gewissen Grad. Atmosphärische Aerosole sind kleine, in der Luft schwebende Teilchen. Sie besitzen einen Durchmesser von etwa 1 nm (10-9 m) bis mehr als 10 μm (10-6 m) und sind damit mit dem bloßen Auge nicht zu erkennen. Folgende Partikelgrößen werden unterschieden:
• ultrafeine Partikel mit < 0,1 μm Durchmesser • feine Partikel mit 0,1–2,5 μm • grobe Partikel mit > 2,5 μm Grundsätzlich werden ein direkter und ein indirekter Einfluss von Aerosolen auf den Strahlungshaushalt und das Klima unterschieden. Die direkte Wirkung der Aerosole auf den Strahlungshaushalt besteht darin, dass einige Aerosole (z. B. die Sulfataerosole) die solare Strahlung verstärkt zurück in den Weltraum reflektieren und klimatisch abkühlend wirken. Darüber hinaus absorbieren einige andere Aerosole (vor allem Rußpartikel) die solare Strahlung und erwärmen somit die sie umgebende Atmosphäre, während die bodennahen Luftschichten abge-
kühlt werden. Die indirekte Wirkung besteht im Einfluss der Aerosole auf die Wolkenbildung und den Niederschlag. Aerosole liefern die für die Bildung von Tröpfchen und Eiskristallen nötigen Kondensations- beziehungsweise Eiskerne. Die klimatische Wirkung des indirekten AerosolStrahlungsantriebs ist vermutlich ebenfalls negativ beziehungsweise abkühlend. Ein weiterer Effekt ist der semidirekte Effekt der Aerosole, bei dem Rußpartikel durch Absorption von Solarstrahlung eine Wolkenauflösung und damit eine größere Durchlässigkeit der Atmosphäre für die Sonneneinstrahlung bewirken. Zusammenfassend lassen sich folgende Aerosoleffekte unterscheiden:
• Direkter Effekt ist eine stärkere Reflexion (teilweise auch Absorption). An der Obergrenze der Atmosphäre wirkt dies überwiegend als Abkühlungseffekt (teilweise auch Erwärmung). In der bodennahen Luftschicht wird eine Abkühlung bewirkt. • Indirekter Effekt führt unmittelbar zur Wasser-/Wolkenbildung sowie Eis- oder Mischwolkenbildung mit einem überwiegenden Abkühlungseffekt an der Obergrenze der Atmosphäre. In der bodennahen Luftschicht wird ebenfalls ein Abkühlungseffekt bewirkt. • Semidirekter Effekt führt unmittelbar zur Absorption und Wolkenauflösung und bewirkt an der Obergrenze der Atmosphäre und in den bodennahen Luftschichten eine Erwärmung. Die Reflexion solarer Strahlung durch Aerosole erhöht die globale Albedo der Erde, sodass die Atmosphäre abgekühlt wird. Aerosole können somit als Gegenspieler der natürlichen wie anthropogenen Treibhausgase bezeichnet werden. Der Weltklimarat (IPCC 2007) schätzt den direkten Strahlungsantrieb an der Obergrenze der Atmosphäre seit Beginn der Industrialisierung auf –0,4 ± 0,2 W/m2 für Sulfat-Aerosole, +0,2 ± 0,15 W/m2 für organische Aerosole aus der Biomassenverbrennung (black carbon), -0,1 ± 0,1 W/m2 für Nitrate, -0,1 ± 0,2 W/m2 für Mineralstäube und auf -0,05 ± 0.05 W/m2 für organische Aerosole aus der Nutzung fossiler Energieträger. Insgesamt schwächt der direkte Aerosoleffekt den anthropogenen Treibhausgaseffekt um 20–50 % (Kaufmann et al. 2002). Rußpartikel aus der unvollständigen Verbrennung fossiler Energieträger absorbieren Strahlung
4.3 Sozioökonomische Entwicklung der Welt (SRES-Szenarien)
insbesondere im kurzwelligen Spektralbereich. Dabei wird auch die aufwärts gerichtete solare Strahlung, die vom Erdboden und von Wolken reflektiert wird, absorbiert. Insgesamt wird dadurch durch Ruß die Strahlungsbilanz an der Obergrenze der Atmosphäre positiv beeinflusst (+0,19 W/m2 seit Beginn der Industrialisierung). Dies bewirkt jedoch keinen positiven Einfluss auf die bodennahen Temperaturen. Die Absorption der einfallenden Sonnenstrahlung in der Atmosphäre führt in jedem Fall zu einer Verringerung der Einstrahlung und somit zu einer Abkühlung am Erdboden. Es erwärmt sich überwiegend die Umgebungsluft im Bereich der Rußaerosole. In stark aerosolbelasteten Gebieten kann die Strahlungswirkung in der Atmosphäre um +10 W/m2 und am Erdboden -10 W/m2 betragen. Neben Ruß können auch andere organische Aerosole kurzwellige Strahlung absorbieren. Staubaerosole hingegen reflektieren kurzwellige Strahlung und absorbieren langwellige Strahlung. Nach einer Modellrechnung von Liao et al. (2004) beträgt die Störung der Strahlungsbilanz an der Obergrenze der Atmosphäre durch die direkte Wirkung aller Aerosole -0,72 W/m2 und am Boden -4,04 W/m2. Der große Unterschied ist vor allem durch Ruß-Aerosole bedingt, deren Strahlungswirkung an der Obergrenze der Atmosphäre positiv (+0,58 W/m2), am Boden mit -0,97 W/m2 aber stark negativ ist. Eine ähnliche Wirkung (+0,1 beziehungsweise -5,3 W/m2) haben auch Staub-Aerosole. Bei Sulfat- und NitratAerosolen ist die Wirkung dagegen am Erdboden und an der Atmosphären-Obergrenze ähnlich. Das durch Aerosole bedingte direkte Radiative Forcing ist heute wesentlich besser quantifiziert und verstanden als noch zur Zeit des dritten IPCC-Reports (TAR). Über alle Aerosoltypen gemittelt liegt es nach dem aktuellen IPCC-Bericht 2007 bei etwa -0,5 ± 0,4 W/m2.
4.3 Sozioökonomische Entwicklung der Welt (SRES-Szenarien) Die meisten politischen Maßnahmen bezüglich Klimawandel (einschließlich der Argumente der Umweltorganisationen) basieren heute auf den
181
IPCC-Berichten. Der erste IPCC-Bericht 1990 folgte einem gesellschaftlichen Szenario, nach dem in Zukunft wenig oder überhaupt nichts unternommen wird, um die Emissionen einzuschränken. Es handelt sich um das sogenannte business as usual-Szenario (IPCC-Report 1990). Im Jahr 1992 wurden die Szenarien aktualisiert und durch weitere Annahmen ergänzt (vier Szenariofamilien. Dies belegt auch die enorme Unsicherheit in der Abschätzung zukünftiger gesellschaftlicher Entwicklungen und den daran gekoppelten Emissionen). Doch bis zur Abfassung des dritten IPCC-Reports 2001 (TAR) blieb das Szenario IS92a (business as usual-Szenario) für die Arbeit des IPCC das Ausgangsszenario. Danach wurden sogenannte Storyboards (gesellschaftliche Abläufe) formuliert, die eine weite Spannbreite gesellschaftlichen Verhaltens (40 unterschiedliche Storyboards) abdecken und dabei eine große Unschärfe für die zukünftige Entwicklung und Entscheidungsfindung erkennen lassen. Die Vielzahl der Storyboards macht zudem die Vergleichbarkeit darauf basierender Klimaprojektionen sehr schwierig. Den Szenarienfamilien liegt eine Kopplung unterschiedlicher sozioökonomischer Ausgangsannahmen zugrunde. Zu den wichtigen sozioökonomischen Einflussgrößen zählen etwa die weltweite Bevölkerungsentwicklung, der Umgang mit Energie und Ressourcen sowie die technologische Entwicklung. Im IPCC Special Report on Emissions Scenarios (SRES) sind eine Reihe von Emissionsszenarien veröffentlicht. Heute werden insgesamt sechs Emissionsszenarien vom IPCC für die Erstellung von Klimaprojektionen vorgeschlagen. Ein grundsätzlicher Unterschied der Szenarien liegt darin, ob sich die gesellschaftliche Entwicklung in Zukunft stärker an einer ökonomischen oder ökologischen Ausrichtung orientieren wird. Vier Szenarien konzentrieren sich stärker auf die wirtschaftliche Entwicklung, sie werden mit A bezeichnet (A1Fl, A1B, A1T, A2). Zwei weitere Szenarien, die sich an einer ökologischen Nachhaltigkeit orientieren, werden mit B gekennzeichnet (B1, B2). Darüber hinaus werden vier global ausgerichtete Szenarien unterschieden, welche die Ziffer 1 bekommen (A1Fl, A1B, A1T, B1). Die regional ausgerichteten Szenarien erhalten die Ziffer 2 (A2, B2). Zusätzlich wurde das Szenario A in drei weitere Szenarien aufgeteilt.
182
4 Kennwerte des Klimawandels und des globalen Wandels
Die A1-Szenarienfamilie beschreibt eine zukünftige Welt mit anhaltend hohem Wirtschaftswachstum, einem schnellen technologischen Fortschritt und einer bis etwa 2050 wachsenden Weltbevölkerung. Diese Szenarien gehen davon aus, dass Regionen zusammenwachsen werden. Die A1-Szenarienfamilie teilt sich in drei Gruppen auf, die sich in ihrer technologischen Ausrichtung unterscheiden:
• intensive Nutzung fossiler Energieträger (A1FI) • nichtfossile Energiequellen (A1T) • ausgewogene Nutzung aller Quellen (A1B) Die A2-Szenarienfamilie ist durch eine sehr heterogene Welt mit einer steigenden Bevölkerungszahl charakterisiert. Die Grundannahmen sind Autarkie und Bewahrung lokaler Identitäten. Die Wirtschaft entwickelt sich vor allem regional und das Pro-Kopf-Wirtschaftswachstum sowie die technologischen Veränderungen sind langsamer als in den übrigen Szenarien. Die B1-Szenarien stehen für eine sich annähernde Welt. Es werden die gleichen Bevölkerungstrends wie in der A1-Szenarienfamilie angenommen, und es wird ein rascher Strukturwechsel in der Wirtschaft in Richtung Dienstleistungs- und Informationswirtschaft gesehen. Gleichzeitig wird ein Rückgang des Ressourcenverbrauchs und die Einführung sauberer und ressourceneffizienter Technologien erwartet. Das Hauptgewicht liegt auf globalen Lösungen für eine wirtschaftliche, soziale und umweltgerechte Nachhaltigkeit einschließlich erhöhter sozialer Gerechtigkeit. Es gibt allerdings – wie bei allen SRES-Szenarien – keine explizit ausgewiesene Klimapolitik. Die B2-Szenarienfamilie beschreibt eine Welt, die lokale Lösungsansätze für eine wirtschaftliche, soziale und umweltgerechte Nachhaltigkeit nutzt. Die Weltbevölkerung steigt auch hier stetig, jedoch langsamer als in A2. Die wirtschaftliche Entwicklung verbleibt auf einem mittleren Niveau und weist einen weniger raschen technologischen Fortschritt aus als in den B1- und A1-Ansätzen. Der Schwerpunkt der Lösungsansätze liegt hier auf der lokalen und regionalen Ebene. Betrachtet man die projizierten Kohlendioxidemissionen für die verschiedenen Szenarien, so erweisen sich die Szenarien B1 und A1T als besonders günstig für das Klima. Sie rufen den
geringsten Ausstoß an Kohlendioxid-Emissionen hervor. Insgesamt werden durch die Szenarien und zugehörigen Modellrechnungen die Bedeutung klimafreundlicher Technologien, die Notwendigkeit einer Erhöhung des Anteils erneuerbarer Energien sowie der Bedarf an nachhaltiger Nutzung von Ressourcen und Energie hervorgehoben. Alle Klimamodellsimulationen belegen unabhängig von den zugrunde liegenden Emissionsszenarien einen Temperaturanstieg in den kommenden Jahrzehnten. Die Höhe des Anstiegs ist dabei jedoch vom jeweiligen Emissionsszenario abhängig: Im B1-Szenario liegt die Schwankungsbreite bei 1,1 ° bis 2 °–9 °C. Das A1F1-Szenario ergibt eine Spannbreite von 2,4 ° bis 6,4 °C. Unabhängig vom gewählten Szenario steht fest, dass sich die Temperatur – sogar auch im Falle einer sofortigen Reduzierung der Treibhausgase auf das Niveau des Jahres 2000 – um weitere 0,6 °C gegenüber Ende des 20. Jahrhunderts erhöhen würde. Der Temperaturanstieg wirkt auf ein weiteres Phänomen, nämlich den Anstieg des Meeresspiegels. Die Schätzwerte liegen hier je nach Szenario weit auseinander. Die Spannweite reicht von 0,18 bis 0,38 m im B1-Szenario beziehungsweise von 0,21 bis 0,59 m im A1F1-Szenario (IPCC-Report 2007). Alle SRES-Szenarien werden als passive Referenzszenarien benannt, da sie die zukünftigen Treibhausemissionen unter der Annahme ermitteln, dass keine politischen Maßnahmen im Bereich des Klimaschutzes unternommen werden. Die sogenannten Post-SRES-Szenarien beinhalten Klimaschutzmaßnahmen und versuchen, die Auswirkungen alternativer Klimapolitiken darzustellen. Es wird darauf abgezielt, wie sich ein Szenario verändern könnte, wenn sich die CO2Emissionen z. B. auf einem bestimmten Niveau stabilisieren ließen. Die Post-SRES-Szenarien nennt man deshalb auch Stabilisierungsszenarien. Von vielen Forschergruppen wird zum Beispiel eine Erwärmungsrate um 2° C bis 2100 als obere Grenze des Stabilisierungsniveaus vorgeschlagen (vgl. WBGU-Sondergutachten 2003). Für die Stabilisierungsszenarien wurden die Szenarien A1F1, A1B, A1T, B1 und B2 als Referenzrechnungen gewählt. Die wichtigsten Ergebnisse lassen sich wie folgt zusammenfassen:
• Für den gesamten Zeitraum (von 1990 bis 2100) kommen die Modelle zu ähnlichen Er-
183
4.3 Sozioökonomische Entwicklung der Welt (SRES-Szenarien)
gebnissen bezüglich der anteiligen Reduzierung der Emissionen im Vergleich zu dem jeweiligen Referenzszenario, jedoch sind die Unterschiede zwischen den Szenarien in Relation zur erforderlichen Reduzierung der Treibhausgase in den ersten Jahrzehnten besonders groß. • Die A2-Szenariogruppe erfordert die höchste Reduzierung von CO2-Emissionen (75–80 %). • Bei vorgegebenem Stabilisierungsniveau (550 ppm CO2-Konzentration in der Atmosphäre) fallen die Kosten des Klimaschutzes je nach Referenzszenario sehr unterschiedlich aus. Sie werden am höchsten für die A2-Familie und am niedrigsten für die B1-Familie geschätzt. • Die mittlere Reduzierung des Bruttosozialprodukts infolge des Klimawandels erfährt in allen Szenarien und für alle Stabilisierungsniveaus des CO2 den niedrigsten Wert im Jahr 2020 (0,99 %). Das Maximum wird hingegen im Jahr 2050 ermittelt und nimmt dann bis 2100 wieder auf 1,3 % ab. Basierend auf den oben genannten Szenarien sind in Tabelle 4.10 die durchschnittlichen globalen Oberflächentemperaturen und Meeresspiegelanstiege bis zum Jahr 2100 wiedergegeben. Die Grundannahme einer Temperaturentwicklung von 1,5 ° bis 4,5 °C blieb aber in allen IPCC-Berichten im Zeitraum 1990–2001 unverändert, auch wenn sich die Szenarien zwi-
schenzeitlich geändert haben. Die Einschätzungen der CO2-bedingten Erwärmung bewegten sich bis zum dritten IPCC-Report im gleichen Rahmen. Dass die klimatische Spannweite auf dem Schwankungsbereich von 1,5° bis 4,5° C verharrte, bedeutet aber auch, dass wir zurzeit wissenschaftlich kaum entscheiden können, ob eine CO2-Verdopplung einen geringen Temperaturanstieg von 1,5 °C oder einen starken Anstieg von 4,5 °C verursacht. Vergleicht man unterschiedliche Klimamodelle und hält das jeweilige Szenario fest, so ergeben sich große Schwankungsbereiche. Das heißt, die Temperaturprojektion wird in erster Linie vom gewählten Computermodell bestimmt. Das von den Modellen verursachte „Rauschen“ übersteigt somit die Bedeutung des gewählten Szenarios. Auf Voraussetzungen, Möglichkeiten und Restriktionen der Klimamodelle wird deshalb später nochmals kurz eingegangen (▶ Kapitel 8). Die Klimamodelle und die aus Ihnen abgeleiteten Projektionen sind aber trotz ihrer Schwächen unverzichtbare Ausgangslagen in der Diskussion über Maßnahmen, die den Klimawandel in seinen Auswirkungen reduzieren könnten (Klimapolitik). Die möglichen Szenarien liefern wichtige Erkenntnisse über die Wirkung von Faktoren auf die Treibhausgasemissionen in unterschiedlichen Regionen der Erde. Auf ihrer Basis können die regionalspezifischen Probleme erkannt und geeignete Vorsorgemaßnahmen (Anpassungen) getroffen werden. Es bedarf
Tabelle 4.10 Projizierte globale Durchschnittstemperaturen und Meeresspiegelanstiege bis zum Jahr 2100 basierend auf sechs SRES-Szenarien (Quelle: IPCC-Report 2007). SRESSzenario
beste Schätzung der Temperatur (in °C)
Schwankungsbereich der Temperatur (in °C) > 66 % Wahrscheinlichkeit
Meeresspiegelanstieg (in m) Vergleich der Periode 2090–2099 zu 1980–1999
B1-Szenario
1,8
1,1 – 2,9
0,18 – 0,38
A1T-Szenario
2,4
1,4 – 3,8
0,20 – 0,45
B2-Szenario
2,4
1,4 – 3,8
0,20 – 0,43
A1B-Szenario
2,8
1,7 – 4,4
0,21 – 0,48
A2-Szenario
3,4
2,0 – 5,4
0,23 – 0,51
A1FI-Szenario
4,0
2,4 – 6,4
0,26 – 0,59
184
4 Kennwerte des Klimawandels und des globalen Wandels
aber umfassender soziologischer Forschung zur zukünftigen Entwicklung der Gesellschaftssysteme, um möglichst realitätskonforme Szenarien menschlichen und nationalstaatlichen Verhaltens zu entwickeln. Auf die Möglichkeiten klimapolitischer Maßnahmen wird im dritten Teil des Buches einzugehen sein.
Abbildung 4.10 gibt die vom IPCC abgeschätzten Klimafolgen dieser Emissionsszenarien wieder. 4.10 Mittlere Erderwärmung auf Basis der SRESSzenarien A2 (rot), A1B (grün) und B1 (blau) im Vergleich zur Basisperiode 1980–1999 (Quelle: IPCC-Report 2007). ( Farbtafel)
Kennzeichen der technologischen und gesellschaftlichen Entwicklung in den SRES-Szenarien • A1: Sehr großes ökonomisches Wachstum, Markt- und Technologieorientierung, Globalisierung, zunehmende Mobilität, Konvergenz zwischen den Weltregionen, Verringerung der globalen Energieintensität oberhalb historischer Raten (1,3 % pro Jahr), niedriges Bevölkerungswachstum (Weltbevölkerung: 9 Milliarden in 2050, 7 Milliarden in 2100) • A1B: ausgewogene Nutzung aller Energiequellen, das heißt eine nicht allzu große Abhängigkeit von einer bestimmten Energiequelle bei gleichzeitiger Annahme eines ähnlichen Verbesserungspotenzials für alle Energieversorgungs- und Energieverbrauchstechnologien • A1FI: vorherrschend fossilintensive Technologien • A1T: schnelle Entwicklung nichtfossiler Energieträger, großmaßstäblicher Einsatz von Wasserstofftechnologie • B1: großes ökonomisches Wachstum, dynamische Technologieentwicklung, Globalisierung, Konvergenz zwischen den Weltregionen, starke ökologische und soziale Orientierung, Wandel zu einem weniger materialistischen
Lebensstil, niedriges Bevölkerungswachstum, Verringerung der globalen Energieintensität oberhalb historischer Raten (2 % pro Jahr). • B2: lokale und regionalspezifische Entwicklungspfade, moderate ökonomische und technologische Entwicklung (Projektionen entlang historischer Trends, „business as usual“), mittleres Bevölkerungswachstum (Weltbevölkerung: 10 Milliarden in 2100),Verringerung der Energieintensität mit historischer Rate (1 % pro Jahr) Die hier beschriebenen SRES-Szenarien beziehen sich auf den IPCC Special Report on Emissions Scenarios (2000). Angenäherte CO2-Konzentrationen korrespondieren mit dem berechneten Radiative Forcing in Relation zu den erwarteten anthropogenen Treibhausgasen im Jahr 2100. Für die SRES-Szenarien B1, A1T, B2, A1B, A2 und A1FI werden entsprechend folgende CO2Konzentrationen angenommen (650, 750, 800, 850, 1 250 und 1 550 ppm). Die Szenarien B1, A1B und A2 wurden für vergleichende Untersuchungen zwischen den Modellannahmen (Klimamodellberechnungen) herangezogen.
5
Schlüsselthemen des Klimawandels
Kapitel 4 erläuterte Kennwerte und Auslöser des Klimawandels (Veränderung der Strahlungsbilanz durch treibhauswirksame Gase) sowie zugehörige gesellschaftliche Entwicklungstrends (SRES-Szenarien). Reaktionen auf die Veränderung der Strahlungsbilanz können Modifikationen des Wasserkreislaufs, der Wolkenentwicklung und der damit verbundenen Niederschlagsverteilung sowie Modifikationen in der Kryosphäre, insbesondere Änderung der Eisschilde und Rückschmelzen der Festlandgletscher, Anstieg des Meeresspiegels sowie Auftauen der Böden in Permafrostgebieten, erwartet werden. Diese Änderungen sind wiederum mit Auswirkungen auf die unmittelbaren Lebens- und Wirtschaftsräume der Menschen rückgekoppelt. Der Mensch hat sich und seine Lebensweise (Siedlungstätigkeit, Landwirtschaft) seit Jahrtausenden an die bestehenden Umweltbedingungen angepasst. Die Fragen über die Veränderung dieser Umweltbedingungen und deren Auswirkung auf das Wohlbefinden des Menschen und die Leistungsfähigkeit der Ökosysteme sind Schlüsselthemen für das zukünftige Entwicklungspotenzial von Gesellschaften. Zu diesen Schlüsselthemen gehören z. B. Fragen über den Einfluss des Klimawandels auf die Landwirtschaft und die Nahrungssicherheit, die Frage nach ausreichender Trinkwasserversorgung und hygienischer Ausstattung sowie nach dem Zusammenhang zwischen Klima und Gesundheit generell. Auch die Frage nach der Zunahme extremer Wetterereignisse (Stürme, Hurrikane, Hitzewellen) erlangt für die Menschen persönlich und für ganze Volkswirtschaften immer größere Bedeutung. Die Analyse dieser Schlüsselthemen des Klimawandels ermöglicht Aussagen darüber, wie sich die Weltbevölkerung und das globale Wohlstandsniveau in Zukunft entwickeln werden. Es zeigt aber auch gleichzeitig, dass die Klimatologie als Wissenschaft eine multi- und transdiszi-
plinäre Rolle eingenommen hat und in alle Bereiche des gesellschaftlichen und ökonomischen Lebens hineinspielt. Im Folgenden werden ausgehend von den wichtigsten Aussagen zu Veränderungen des globalen Wasserhaushalts, der Wolkenbildung und Niederschlagsverteilung auf der Erde diese Schlüsselthemen kurz vorgestellt:
• • • •
Klimawandel und Wasser Klimawandel und Landwirtschaft Klimawandel und Desertifikation Klimawandel und Wetteranomalien
In zwei etwas ausführlicheren Fallstudien
• Klimawandel und Kryosphäre sowie • Klimawandel und Gesundheit werden aus Forschungsarbeiten des Autors vor allem wichtige Regelkreise und Rückkopplungen in den entsprechenden Sphären dargestellt. Die Schlüsselthemen und Fallstudien sollen die Vernetzungen von Wirkung und Folge und die mannigfaltigen Mensch-Umweltbeziehungen verdeutlichen.
5.1 Veränderungen des globalen Wasserhaushalts, der Wolkenbildung und Niederschlagsverteilung auf der Erde – der aktuelle Wissensstand Der globale Wasserhaushalt ist zum einen von der Veränderung der globalen Oberflächentemperatur und zum anderen von der regionalen Wasserverfügbarkeit abhängig. Die globale Oberflächentemperatur hat in den letzten 100
186
Jahren (Basis 1906–2005) deutlich zugenommen. Der Anstieg liegt im Mittel bei 0,74 °C ± 0,18 °C (IPCC-Report 2007). Dieser Erwärmungstrend ist stärker als der noch im dritten IPCC-Bericht für den Vergleichszeitraum ausgewiesene Wert von 0,6 °C ± 0,2 °C. Das Jahr 2005 und 1998 waren die wärmsten Jahre seit Beginn der Instrumentenaufzeichnung um 1850. Waren die hohen Oberflächentemperaturen im Jahr 1998 noch zusätzlich beeinflusst durch ein stark ausgeprägtes ENSO-Phänomen (1997–1998), so kann dies für das Jahr 2005 nicht angeführt werden. Elf Jahre des Zeitraums 1995–2006 (Ausnahme 1996) zeigen sich als die wärmsten Jahre seit Beginn der instrumentellen Temperaturaufzeichnungen. Die durchschnittliche Erwärmungsrate pro Dekade lag in den letzten 50 Jahren bei 0,13 °C ± 0,03 °C. Es besteht große Konsistenz zwischen den unterschiedlichen Datensätzen. Die Oberflächentemperaturen über Land und Ozean zeigen ähnliche Tendenzen, ebenso gibt es Konsistenz zwischen der Meeresoberflächentemperatur (Sea Surface Temperature, SST) und der nächtlichen Lufttemperatur über den Meeresflächen. Dagegen zeigen aktuelle Studien, dass die Effekte zunehmender Verstädterung und des Landnutzungswandels im hemisphärischen und kontinentalen Maßstab nahezu vernachlässigbar sind (< 0,006 °C/Dekade über Landflächen und nahe Null über dem Ozean). Im regionalen Maßstab allerdings beeinflusst der urbane Wärmeinseleffekt die Wolkenbildung und den Niederschlag sowie die tägliche Temperaturamplitude (Diurnal Temperature Range, DTR). Neuere Untersuchungen belegen aber, dass die Tages- und Nachttemperaturen parallel ansteigen, wobei es regional große Unterschiede gibt. Die Oberflächentemperaturen über ländlichen Regionen steigen dabei in beiden Hemisphären schneller an als über den Ozeanflächen. Insbesondere in den letzten 20 Jahren lässt sich für das Land eine Erwärmungsrate von 0,27 °C gegenüber 0,13 °C über dem Ozean pro Dekade erkennen. Die größte Erwärmungstendenz findet sich dabei in den nördlichen Regionen der Nordhemisphäre und ist am stärksten im Winter (Dezember–Februar) und Frühjahr (März–Mai) ausgeprägt. Die arktischen Temperaturen haben fasst doppelt so stark zugenommen wie die Temperaturen in den übrigen Regionen der Erde.
5 Schlüsselthemen des Klimawandels
Die aus Radiosondendaten, Satellitenmessungen und Re-Analysedaten abgeleitete stratosphärische Temperaturabschätzung zeigt seit dem Jahr 1979 eine Abkühlung von 0,3 °C bis 0,6 °C pro Dekade. Diese Entwicklung lässt eine langzeitliche Veränderung der großskaligen atmosphärischen Zirkulation in Form einer polwärtigen Verlagerung der Westwinde erwarten. Die atmosphärische Zirkulation und deren Variabilität lassen sich durch entsprechende Muster (Telekonnektionen wie ENSO, NAO, PNA, PNO, ▶ Kapitel 2) und durch deren Häufigkeit und Stärke beschreiben. Sie steuern maßgeblich die Niederschlagsverteilung auf der Erde. Ausgehend von den aufgeführten Temperaturveränderungen kann abgeleitet werden, dass sich der globale Wasserhaushalt in seiner Dynamik verändert. Der troposphärische Wasserdampfgehalt hat erwartungsgemäß seit 1979 zugenommen (Zunahme der Wasserdampfsäule von 1,2 % ± 0,3 % pro Dekade über dem Ozean). Eine Zunahme des Wasserdampfgehalts ist auch für die höheren Stockwerke der Troposphäre nachgewiesen. Die Veränderung in der Bewölkung wird noch kontrovers diskutiert, neuere Untersuchungen zeigen aber, dass die Wolkenbildung stark durch ENSO gesteuert wird. Die weltweite Abnahme der DTR führt darüber hinaus zunächst zu einer größeren Wolkenanzahl. Langzeituntersuchungen der Niederschlagstrends belegen, dass in der Zeit von 1900 bis 2005 in vielen Regionen der Erde die Niederschläge zugenommen haben, was einem gesteigerten Wasserumsatz in der Atmosphäre entspricht. Niederschlagszunahmen sind verallgemeinernd in den östlichen Teilen Nord- und Südamerikas, dem nördlichen Europa sowie Nord- und Zentralasien zu verzeichnen. Trockenere Bedingungen sind für die Regionen des Sahel und des Mittelmeerraums sowie Südafrika und Teile Südasiens zu erkennen. Parallel wird eine Zunahme der Starkniederschläge beobachtet und eine zunehmende Zyklonentätigkeit im Nordatlantik (seit 1970), die mit ansteigenden SST in den Tropen korreliert. Die skizzierten Aussagen leiten über zu den Schlüsselthemen und ihren Fragekomplexen. Viele der im Folgenden aufgeführten Schlüsselthemen finden sich auch bei den sogenannten Millenium Development Goals der Vereinten Nationen (UN) wieder.
187
5.2 Klimawandel und Wasser
5.2 Klimawandel und Wasser Wasser ist für das Überleben der Menschen unentbehrlich. Die Schlüsselfrage ist: Wird das Wasser auch zukünftig für die Menschheit reichen? Unsere Erde stellt sich vom Weltraum aus gesehen als „Blauer Planet“ dar, weil der größte Teil der Erdoberfläche (71 %) von Wasser eingenommen wird. Die Gesamtwassermenge der Erde beläuft sich auf etwa 13,6 Milliarden km3. Davon befinden sich 97,2 % in den Ozeanen und 2,15 % sind im Polareis gebunden. Das Meerwasser ist aufgrund des hohen Salzgehalts (rund 34 ‰) für den Menschen leider nicht als Trinkwasserreservoir zu nutzen und das in den Polkappen enthaltene Trinkwasser ist schwer zugänglich, sodass wir auf die restlichen 0,65 % an Süßwasser an Land angewiesen sind (davon liegen 0,62 % in Form von Grundwasser vor). Die Bildung des Süßwassers im Grundwasser dauert allerdings Jahrhunderte bis Jahrtausende. Allein diese Tatsache empfiehlt einen pfleglichen Umgang mit den Grundwasserressourcen. Allerdings erneuert sich das Grundwasser auch wieder im Rahmen des hydrologischen Kreislaufs durch den Rücklauf von Niederschlagswasser in den Grundwasseraquifer. Der Gesamtniederschlag auf dem Festland liegt bei etwa 113 000 km3/Jahr, die gesamte Verdunstung beträgt etwa 72 000 km3, sodass ein NettoGesamtsüßwasserbetrag von rund 41 000 km3 verbleibt. Weil ein großer Teil dieser Wassermenge aber in abgelegenen Regionen (Amazonasbecken, Kongobecken) der Erde niedergeht, beläuft sich Tabelle 5.1 Wassermengen der Erde (nach Baumgartner und Reichel 1975). Wassermengen der Erde
Menge in %
Menge in km3
Weltmeere
97,39
1 348 000 000
Polareis, Meereis, Gletscher
2,01
27 820 000
Grundwasser, Bodenfeuchte
0,58
8 062 000
Seen und Flüsse
0,02
225 000
Atmosphäre
0,001
13 000
die geographisch zugängliche Wassermenge auf rund 33 000 km3. Ein weiteres Problem ist die hohe zeitliche und räumliche Variabilität der Niederschläge. In Asien beispielsweise fließen 80 % der zwischen Mai und Oktober gefallenen Niederschläge (Sommermonsun) wieder ab. Abfließende Hochwässer machen weltweit insgesamt ¾ der Gesamtabflussmenge aus. Damit verbleiben nur etwa 9 000 km3 als für den Menschen verfügbare Wassermenge. Ausgehend von der Weltbevölkerung im Jahr 2006 ergibt diese Gesamtmenge eine tägliche Pro-Kopf-Verfügbarkeit von 5 700 Litern. Ein Europäer verbraucht täglich etwa 566 Liter Wasser (10% der globalen Verfügbarkeit), ein USAmerikaner kommt hingegen im Durchschnitt auf einen Wasserverbrauch von 1 442 Litern pro Tag. Aquifer, Gesteinskörper, der geeignet ist, Grundwasser weiterzuleiten und abzugeben. Aquifere werden auch als Grundwasserleiter bezeichnet. Bei der Abgrenzung der Begriffe Aquiclude, Aquifuge, Aquitarde und Aquifer wird oftmals die Wirtschaftlichkeit des Gesteinskörpers hinsichtlich der Wasserergiebigkeit mit einbezogen. Aquifere sind dann solche Gesteinskörper, die Grundwasser in wirtschaftlich bedeutsamen Mengen liefern.
Zur Einschätzung des weltweiten Wasserverbrauchs muss zwischen entnommenem und unwiederbringlich verlorenem Wasser unterschieden werden. Entnommenes Wasser ist zwar tatsächlich dem Ökosystem entzogenes Wasser, aber ein Großteil dieses Wasser kehrt zeitverzögert in den Kreislauf zurück. Etwa die Hälfte des in Europa und den USA in der Stromerzeugung eingesetzten Kühlwassers wird nach Durchlauf wieder in die Flüsse zurückgeleitet. Auch das Brauchwasser in der Industrie wird zu 80–90 % wieder in den Kreislauf eingespeist. In der Landwirtschaft fließt ein Großteil des Wassers aus der künstlichen Bewässerung wieder zurück in die Flüsse und somit ins Grundwasser. Ein besserer Maßstab für den Wasserverbrauch ist deshalb die Bestimmung der Wassermenge, die aufgrund von Pflanzenverdunstung verlorengeht – der sogenannte Wasserverlust durch Verbrauch. Der Wasserverlust durch Verbrauch ist in den letzten Jahren erheblich gestiegen (von etwa 330 km3 auf 2100 km3 Ende des 20. Jahrhunderts) und wird überwiegend dem Anstieg bei der künstlichen Bewässerung in der
188
5 Schlüsselthemen des Klimawandels
Tabelle 5.2 Weltweiter prozentualer Wasserverbrauch in Landwirtschaft, Industrie und privaten Haushalten (Quelle: State of the World 2008). Region
Landwirtschaft
Industrie
private Haushalte
Entwicklungsländer
81 %
11 %
8%
Industrieländer
46 %
41 %
13 %
Welt
70 %
20 %
10 %
Landwirtschaft angelastet. Der global gestiegene Pro-Kopf-Verbrauch von rund 1 000 Liter auf rund 2 000 Liter pro Tag in den 1990er-Jahren ist ebenfalls der Zunahme des landwirtschaftlichen Wasserverbrauchs zuzurechnen. Obwohl der weltweite Wasserverbrauch heute weniger als 20 % des insgesamt verfügbaren und jährlich erneuerbaren Wassers ausmacht, kann es in vielen Ländern zu schwerwiegenden Engpässen in der Zukunft kommen. Was sind die Probleme? Ein Hauptproblem ist zunächst, dass leider nicht alle Menschen über den gleichen Zugang zur Ressource Wasser verfügen. Der projizierte Klimawandel wird zusätzlich eine Verstärkung des weltweiten Ungleichgewichts in der Niederschlagsverteilung erzeugen. Ein weiteres Problem liegt in der stetig zunehmenden Bevölkerungszahl in bereits heute unter Wasserknappheit leidenden Ländern und der sich daraus ergebenden dichteren Besiedlung mit höherem Druck auf die regionalen Wasserressourcen. Darüber hinaus decken auch heute schon viele Länder ihren Wasserbedarf aus Flusssystemen. Über 260 Flussnetze weltweit durchqueren zwei oder mehrere Länder, die unterschiedliche nationale Interessen in der Wassernutzung verfolgen. Um nun den Wasservorrat einer Nation bestimmen zu können, ist die Summe aus dem sogenannten endogenen Wasservorrat, der sich durch Niederschläge innerhalb der eigenen Landesgrenzen bildet, und dem exogenen Wasservorrat zu bilden. Der exogene Wasservorrat wird durch grenzüberschreitende Flüsse, die Süßwasser aus über Nachbarländern gefallenen Niederschlägen führen, in das Land transportiert. Ein Oberanrainer oder Oberanlieger eines Flusses ist ein Staat, auf dessen Staatsgebiet die Quelle eines
Flusses entspringt beziehungsweise sein Oberlauf oder auch Grundwasserreservoir verlaufen. Ein Unteranlieger oder Unteranrainer liegt entsprechend näher an der Mündung und erfährt oftmals die Wasserverschmutzung durch den/die Oberanlieger. Im Fall von Grundwasser kann es dagegen von Vorteil sein, Unteranlieger zu sein, denn natürliche Quellen liegen oft im „Unterlauf “ von Grundwasserleitern. Einzelne Regionen können deshalb unterschiedlich stark von Trinkwasserknappheit betroffen sein. Die kritischen Grenzen werden nicht weltweit, sondern national, regional oder gar nur lokal erreicht. Die verfügbare Süßwassermenge allein lässt noch keine Rückschlüsse auf die Versorgungslage der Bevölkerung zu, vielmehr muss die verfügbare Menge in Relation zur jeweiligen Nachfrage gesehen werden. Hierfür wird der sogenannte Wasserknappheits-Index (WKI) nach der Hydrologin Malin Falkenmark genutzt. Der Index geht zunächst von einem jährlichen ProKopf-Minimum von 36,5 m3 für den häuslichen Verbrauch aus. Je nach Entwicklungsstand (Entwicklungsland, Schwellenland, Industrieland) ist ein 5- bis 20-facher Verbrauch pro Kopf für Landwirtschaft, Energieerzeugung und Industrie hinzuzurechnen. Daraus ergeben sich folgende Grade der Wasserknappheit:
• WKI > 1 700 m3/Kopf und Jahr: gelegentliche oder lokale Wasserprobleme
• WKI > 1 000 und < 1 700 m3/Kopf und Jahr: periodische oder regelmäßige Wasserknappheit • WKI < 1 000 m3/Kopf und Jahr: chronischer Wassermangel („echter Mangel“) • WKI < 500 m3/Kopf und Jahr: akuter Mangel In Deutschland und Europa ist die Bedrohung „Wassermangel“ so gering, dass sie in der öffentlichen Wahrnehmung kaum eine Rolle spielt. Betrachten wir aber die internationale Entwicklung, so kann festgehalten werden, dass sich die Weltbevölkerung seit 1950 verdoppelt und der Wasserverbrauch aufgrund des steigenden Wohlstands in den Industrieländern verdreifacht hat. Diese Entwicklung wird sich in den heutigen Emerging Markets Asiens und Südamerikas mit ihren hohen Wachstumsraten wiederholen. Nach Schätzungen der Vereinten Nationen wird zudem die Weltbevölkerung von rund 6,6 Milliarden (2008) auf rund 9 Milliarden Menschen im Jahr
5.2 Klimawandel und Wasser
2050 ansteigen. Der überwiegende Zuwachs entfällt dabei auf die Entwicklungsländer. Tatsächlich ist die Wasserknappheit schon heute vornehmlich ein Problem der Entwicklungsländer, also von Menschen, die vor allem in Afrika sowie im Nahen und Mittleren Osten leben. Gegenwärtig haben etwa 1,2 Milliarden Menschen keinen Zugang zu sauberem Trinkwasser. In Gebieten mit erschwertem Zugang zu Wasser kann es zunächst zu innergesellschaftlichen Spannungen kommen, z. B. zu Verteilungskonflikten zwischen konkurrierenden Wirtschaftssektoren oder zwischen der Stadt- und Landbevölkerung. Sehr konfliktanfällig sind internationale Flusseinzugsgebiete, in denen fast 40 % der Weltbevölkerung leben. Die Anrainer solcher internationaler Wassereinzugsgebiete vertreten oftmals konträre Standpunkte in der Wasserzuteilung. Zudem liegen diese Flussgebiete oftmals in Regionen, in denen die politische Situation insgesamt eher von Konfrontation als von Kooperation geprägt ist. Trotzdem haben in der Vergangenheit Wasserverteilungskonflikte weit öfter zu Kooperationen als zu Konfrontationen geführt. Die Datenbank der Universität von Oregon (International Water Treaties) listet zurzeit mehr als 400 Wasserabkommen auf. Die getroffenen Wasserabkommen waren in der Vergangenheit bis heute sehr belastbar, wie Beispiele aus den Wassereinzugsgebieten des Nil, des Indus, des Jordan oder von Euphrat und Tigris belegen. Trotzdem gibt es aktuelle und historisch gewachsene Konfliktregionen, die in der Zukunft durch eine Veränderung der Wasserverfügbarkeit belastet sein könnten: Ägypten ist fast ausschließlich vom Nilwasser abhängig, das zu 86 % aus der äthiopischen Hochebene entstammt. Die Regierung in Kairo reagierte deshalb mit politischen und militärischen Drohungen, als Äthiopien bekannt gab, große Staudämme am Oberlauf des Nils zu errichten. Heute sind die durch mehrere Konflikte und Kriege gekennzeichneten Länder Ruanda, Burundi, Uganda, Sudan, Äthiopien und Eritrea in der sogenannten „Nile Basin Initiative“ zusammengeschlossen. Der Nahe Osten gehört zu den wasserärmsten Regionen der Welt. Als Syrien in den 1960er-Jahren beabsichtigte, Wasser der Flüsse Hasbani und Banyas (Quellflüsse des Jordan, die beide auf den Golanhöhen entspringen) für Bewässerungsprojekte und Trinkwasserversorgung zu nutzen, kam
189
es zu militärischen Auseinandersetzungen mit Israel (Sechstagekrieg 1967). Ein Ergebnis des Sechstagekriegs war, dass alle Wasserressourcen der Region seit der Besetzung der Golanhöhen und der Westbank unter israelischer Kontrolle stehen. Die heutigen Anrainer des Jordan-Wassereinzugsgebiets sind der Libanon, Syrien, Jordanien, Israel und Palästina. Obwohl hier eine vielfältige Konfliktsituation vorherrscht, wird im Wasserbereich zusammengearbeitet. So arbeiten Israel und Palästina in einem Joint Water Committee in regelmäßigen Abständen zusammen. Das Euphrat- und Tigris-Becken ist für Syrien und den Irak für die Wasserversorgung von großer Bedeutung. Syrien nutzt als wichtigste Wasserquelle den Euphrat und der Irak überwiegend den Tigris. Beide Flusssysteme haben ihr Quellgebiet aber in der Türkei. Die Türkei hingegen plant etwa 22 Staudämme und 19 Wasserkraftwerke, die bei den Unteranrainern Proteste hervorrufen. Aber auch die Türkei hält sich bis heute an Verpflichtungen zur Wasserversorgung, obwohl die rechtliche Lage für internationale Wasserverteilungskonflikte noch unklar ist. Eine Konvention der Vereinten Nationen, die 1997 verabschiedet wurde, ist bis heute noch nicht ratifiziert. Im Rahmen des projizierten Klimawandels werden neben Bevölkerungs- und Wirtschaftswachstum, auch Umweltverschmutzung, Wasserverschwendung, ineffiziente Nutzung des Wassers sowie zunehmende Verstädterung (Metropolisierung), bei der die Infrastruktur nicht mehr mithalten kann, die Situation der Wasserversorgung verschärfen. Beispielhaft sei die dramatische Trinkwassersituation der Städte Kalkutta (vgl. Karthe 2006) und Delhi (vgl. Stähle 2007) angeführt. Schon heute leben in der Hauptstadt Indonesiens, im Großraum Jakarta etwa 17 Millionen Menschen. Die Wasserversorgungs- und Entwässerungssysteme sind aber nur für 500 000 Einwohner ausgelegt. Aber auch in infrastrukturell entwickelten Ländern wie den europäischen Staaten kann Wasserknappheit auftreten – insbesondere durch eine zunehmende Zahl und Intensität von Trockenphasen. Besonders gefährdet sind die Mittelmeerländer, da Südeuropa zum einen regenärmer ist als der europäische Durchschnitt und zum anderen ein hoher Wasserbedarf in der Landwirtschaft die Situation verschärft. Schon jetzt wird
190
in Italien, Spanien und Griechenland 50 bis 80 % des Wassers in der Landwirtschaft verbraucht. Spanien, das mit immer trockeneren Bedingungen im Süden des Landes zu kämpfen hat, plant z. B., den Ebro im Norden des Landes durch ein riesiges Kanalsystem mit den Obst- und Gemüsefeldern im Süden zu verbinden. Das Jahr 2003 wurde von den Vereinten Nationen zum Jahr des Wassers ausgerufen, um auf den dringenden Bedarf der Verbesserung der Trinkwasserversorgung hinzuweisen. Zudem wurde der Zeitraum 2005–2015 zur Wasserdekade deklariert, wobei die Verbesserung der Trinkwasserversorgung eines der wichtigsten erklärten Millennium-Ziele der UN ist. Zusammengefasst kann festgehalten werden, dass ein weltweites integriertes Management der Wasserressourcen im Spiegel des Klimawandels das angestrebte politische Ziel sein sollte. Weitere Informationen zum Thema „Klimawandel und Wasser“ werden vor allem durch das World Water Assessment Programme der Vereinten Nationen und die zugehörigen Berichte bereitgestellt. Eine umfangreiche Bewertung der Wasserressourcen für die Landwirtschaft findet sich bei David Molden (2007) und leitet über zum nächsten Schlüsselthema „Klimawandel und Landwirtschaft“.
5.3 Klimawandel und Landwirtschaft Die Landwirtschaft kann im Rahmen des Klimawandels sowohl als Treibhausgasquelle als auch als Treibhausgassenke eine Rolle spielen. Im Folgenden soll in einem ersten Schritt die europäische Dimension betrachtet werden, wobei sich die statistischen Angaben auf das Europa der 15 (EU-15 ab 1995, ab 2007 bereits EU-27) beschränken. Ende der 1990er-Jahre verursachte die Landwirtschaft schätzungsweise 9 % aller Treibhausgasemissionen in Europa (EU-15). Landwirtschaftliche Aktivitäten sind die Hauptquelle von Methan (CH4: vor allem Viehhaltung und Reisanbau) und Distickstoffoxid (N2O: vor allem landwirtschaftliche Überdüngung und Bodenbearbeitung). So sind europaweit (EU-15) etwa 48 % der CH4Emissionen und 52 % der N20-Emissionen auf landwirtschaftliche Tätigkeiten zurückzuführen. Innerhalb Europas schwankt die Bedeutung der
5 Schlüsselthemen des Klimawandels
Landwirtschaft als Quelle oder Senke für Treibhausgase beträchtlich. Ursächlich hängt dies mit unterschiedlichen landwirtschaftlichen Praktiken und der jeweiligen nationalen Landwirtschaftspolitik zusammen. Die Leitlinien für nationale Treibhausgasinventare des IPCC (1996) unterscheiden die Landwirtschaft von Landnutzungsveränderungen und Forstwirtschaft wie folgt:
• Landwirtschaft als eigentliche landwirtschaftliche Produktion: z. B. CH4-Emissionen aus Viehwirtschaft und Reisanbau sowie N2OEmissionen aus landwirtschaftlich genutzten Böden • Landnutzungsänderungen und Forstwirtschaft: – Emissionen und Entzug von CO2 als Folge forstwirtschaftlicher Maßnahmen – Emissionen verschiedener Treibhausgase aufgrund der Umwandlung vorhandener Wälder und natürlichen Graslands für andere Arten der Bodennutzung – Entzug von CO2 aufgrund der Aufgabe zuvor bewirtschafteter Flächen – CO2-Emissionen aus dem Boden und CO2Aufnahme in den Boden und in pflanzliche Biomasse in Verbindung mit Änderungen der Landnutzung und der Bewirtschaftung Ende der 1990er-Jahre wurden von keinem EUStaat CO2-Emissionen aus der Landwirtschaft gemeldet. Die meisten EU-Mitgliedsländer gehen davon aus, dass für Landnutzungsänderungen und Forstwirtschaft der CO2-Entzug die CO2Emissionen übersteigt, und berichten lediglich Nettozahlen, das heißt Entzug minus Emission. Somit liegen lediglich Bilanzen zwischen Abbau und Freisetzung von Emissionen vor. Neben der Landwirtschaft als Hauptquelle von CH4-Emissionen in Europa (48 %) sind als weitere wichtige CH4-Quellen die Abfallwirtschaft (34 %) und der Energieverbrauch (21%) zu nennen. Auf die CH4-Hauptquellen im Bereich Landwirtschaft, die enterische Fermentation und die Düngewirtschaft, entfallen europaweit 71 % beziehungsweise 24 % aller CH4-Emissionen. Die bei der Viehhaltung erzeugte Methanemission wird durch Multiplikation der Anzahl der Tiere mit einem Emissionsfaktor pro Tier berechnet. Die Emissionsraten hängen hauptsächlich vom jeweiligen Verdauungssystem des Tieres und der Futteraufnahme ab. Die Tierexkremente beste-
5.3 Klimawandel und Landwirtschaft
hen überwiegend aus organischen Substanzen, die unter anaeroben Verhältnissen (Sauerstoffabschluss) von Methan bildenden Bakterien zersetzt werden, wobei Methan entweicht. Zur Berechnung der Methanemissionen aus der Düngewirtschaft gehen als Faktoren die erzeugte Menge an Dung sowie der Anteil ein, der anaerob abgebaut wird. Der erste Faktor richtet sich nach Art und Zahl der Tiere, der zweite ist in hohem Maße vom Klima und von den Verfahren der Mistlagerung und -behandlung abhängig. Die übrigen landwirtschaftlichen Emissionsquellen (Reisanbau, Abbrennen von Grasland) sind für Europa nicht erheblich, oder der Anteil an den CH4Emissionen ist insgesamt sehr niedrig. Im Bereich Landnutzungsänderungen und Forstwirtschaft entfallen fast 97 % der Emissionen auf „sonstige Tätigkeiten der Landnutzungsänderung“. Hierbei handelt es sich beispielsweise um Wanderfeldbau, Überflutung und die Trockenlegung von Feuchtgebieten. Die Emissions-/ Senkenströme aus diesen Tätigkeiten sind zurzeit noch nicht ausreichend genau bestimmt und beinhalten große Unsicherheiten. Die Landwirtschaft ist weiterhin die wichtigste Quelle von N2O-Emissionen in Europa. Ihr Anteil an den Gesamtemissionen von N2O beträgt etwa 52 %, gefolgt von 27 % für Produktionsprozesse, 16 % für den Energieverbrauch und 4 % für Landnutzungsänderungen und Forstwirtschaft. Die N2O-Emissionen aus der Landwirtschaft lassen sich unterteilen in
• direkte Emissionen aus landwirtschaftlichen Böden und aus der Nutztierhaltung
• indirekte Emissionen, bei denen Stickstoff das Feldsystem in der Form von NOx oder NH3 oder in Form von Nitraten verlässt (durch Auswaschung oder Abfluss) • Emissionen infolge der Verbrennung landwirtschaftlicher Rückstände Neben Methan und Distickstoffoxid ist die landwirtschaftliche Tätigkeit auch eine CO2-Quelle. Die Brutto-CO2-Emissionen entfielen 1996 mit 66 % auf Veränderungen im Forst und in anderen waldartigen Biomassespeichern. Weitere 25 % der CO2-Emissionen in Europa im Sektor Landwirtschaft gehen auf die Umwandlung von Wald und Grasländern zurück. Weiterhin erbringt der Einsatz fossiler Energieträger für Landmaschinen und zum Heizen kleine Mengen an CO2-Emis-
191
sionen. Nach Eurostat wird der Prozentsatz der energetischen CO2-Emissionen der Landwirtschaft in der EU auf 1,6 % geschätzt. Land- und forstwirtschaftliche Tätigkeiten können auch Treibhausgase aus der Atmosphäre beseitigen (Senkenpotenzial). Allerdings ist die Abschätzung der Treibhausgasaufnahme durch landwirtschaftliche Tätigkeit keineswegs quantitativ wissenschaftlich gesichert und bis heute liegt auch keine verbindliche Messmethodik vor. Mögliche Senken für Treibhausgase:
• CO2-Senke Die wichtigste Senke für CO2 stellt der Wald dar. Junge Bäume besitzen viele Jahre lang ein erhebliches Potenzial zur Aufnahme von CO2. In ähnlicher Weise kann auch die Rückwandlung von landwirtschaftlichen Flächen in nicht bewirtschaftetes Grasland zur Bindung von Kohlenstoff führen. Weitere CO2-Senken existieren in den Böden in Abhängigkeit von der gebundenen Menge organischen Kohlenstoffs. • N2O-Senke in Böden Anaerobe Böden verfügen theoretisch über ein großes Potenzial zur Reduzierung von N2O zu N2, da das Hauptprodukt der Denitrifikation in Böden in der Regel N2 und nicht N2O ist. Es gibt jedoch keine Studie, die über eine umfangreiche oder dauerhafte N2O-Aufnahme berichtet. Aerobe Böden hingegen sind in der Regel N2OQuellen, die aber in einzelnen Fällen auch eine geringe Aufnahme in Trockenböden und Feuchtwiesen aufweisen. • CH4-Senke Die Oxidation von atmosphärischem CH4 durch gut entwässerte Böden hat einen Anteil von ungefähr 10 % an der globalen CH4-Senke. Wie stark Böden imstande sind, CH4 zu produzieren oder zu verbrauchen, ist von der Bodennutzung und vom Bodentyp abhängig. Trockene, nicht bewirtschaftete Böden und Wiesen absorbieren unter Umständen CH4. Ein bewirtschafteter Boden ist als solcher keine wesentliche CH4-Quelle oder -Senke, obwohl in zahlreichen Studien nachgewiesen wurde, dass ein Aufbringen von Stickstoffdünger auf Böden die Oxidation von CH4 vielfach hemmt und somit Ammoniak eventuell als Hemmstoff für das Enzym wirkt, welches CH4 zu CO2 oxidiert. Darüber hinaus gibt es eindeutige Hinweise auf enorme CH4Quellen aus dem Nassreisanbau.
192
5 Schlüsselthemen des Klimawandels
C3-, C4- und CAM-Pflanzen – Wie verläuft die Fotosynthese? C3-Pflanzen zeigen aufgrund der Schließung der Spaltöffnungen (Stomata) bei heißem und trockenem Wetter eine verringerte Fotosyntheseleistung im Vergleich zu C4- oder CAM-Pflanzen. Sie arbeiten nach dem Grundtypus der Fotosynthese und sind bei normalen Temperatur- und Lichtverhältnissen in den gemäßigten Breiten effizienter. In der Erdgeschichte entstanden zunächst die C3Pflanzen. Wichtige C3-Pflanzen sind Weizen, Reis, Zuckerrübe und Kartoffel. Ihr Schlüsselenzym ist die Ribulose-1,5-bisphosphat-Carboxylase (abgekürzt Rubisco). Rubisco erscheint in der Erdevolution zu einem Zeitpunkt, als die Atmosphäre reich an CO2 und arm an O2 war. In diesem Atmosphärenzustand bereitete die Assimilation von CO2 keine Probleme, weil es keine Verluste aufgrund von Fotorespiration, der Fixierung von O2 anstelle von CO2, gab. Die Fixierung des Kohlenstoffs erfolgt im sogenannten Calvin-Zyklus (der Rubiscoreaktion an Ribulose-1,5-bisphosphat (kurz RubP2 genannt). Die im Calvin-Zyklus entstehende Zwischenstufe ist hochgradig instabil und zerfällt in zwei Moleküle 3-Phosphoglycerat (kurz 3-PGS genannt)), das erste Zwischenprodukt bei den C3-Pflanzen. Das 3-PGS enthält drei Kohlenstoffatome. Hiervon leitet sich der Name dieses Pflanzentyps (C3) ab. Der Prozess der Fotosynthese (Grundtypus): In einem Satz zusammengefasst entsteht bei der Fotosynthese aus Kohlenstoffdioxid und Wasser durch Energiezufuhr (Licht, Chlorophyll) Traubenzucker (Glucose) und Sauerstoff. Man unterscheidet eine Lichtreaktion und eine Dunkelreaktion der Pflanzen. Bei der Lichtreaktion wird einerseits Lichtenergie in chemische Energie (ATP) umgewandelt und gleichzeitig ein Reduktionsmittel zur Reduktion von Kohlenstoffdioxid gebildet. Dies geschieht dadurch, dass das Coenzym NADP+ mit zwei Elektronen und einem Wasserstoffion (Proton / H+) vorübergehend zu NADPH reduziert wird. Diese Reaktion, die 1954 der US-amerikanische Biologe Daniel I. Arnon (1910–1994) entdeckte, lässt sich chemisch folgendermaßen formulieren: 12 H2O → 24 (H) + 6 O2 Die Netto-Reaktionsgleichung der oxygenen Fotosynthese (Bildung von molekularem Sauerstoff) lautet:
kJ 6 CO2 + 6 H2O → C6H12O6 ΔH 0 = +2870 mol In der Dunkelreaktion (lichtunabhängig, auch Calvin-Zyklus nach seinem Entdecker Melvin Calvin (1911–1997) bezeichnet), wird Kohlenstoffdioxid als erstes an eine durch den Organismus gebildete und als Akzeptor fungierende organische Verbindung gebunden. Die meisten Pflanzen mit oxygener Fotosynthese gehören dem „C3-Pflanzentyp“ an. Der primäre Akzeptor ist das fünf C-Atome enthaltende Ribulose-1,5-bisphosphat (RubP2), und das vermittelnde Enzym ist das Ribulose-1,5-bisphosphat-Carboxylase/-Oxygenase (Rubisco). Bei C4-Pflanzen spielt Phosphoenolpyruvat (PEP) den primären CO2-Akzeptor, wobei das Enzym PEP-Carboxylase die Reaktion katalysiert. Aber auch bei den C4-Pflanzen wird das CO2 später über Rubisco in den Calvin-Zyklus eingeschleust. Das Verhältnis von Fotosynthese zu Fotorespiration wird durch das Verhältnis von CO2 und O2 in der Luft bestimmt. Je höher die CO2-Konzentration, desto höher die Fotosyntheseleistung. Bis zu 20 % des Kohlenstoffs, der in der Fotosynthese gebunden wird, kann durch Fotorespiration verlorengehen. C4-Pflanzen: Die C4-Pflanzen haben im Vergleich zu den C3-Pflanzen eine schnellere Fotosynthese bei stärkerer Wärme- und Lichteinwirkung. Sie haben einen weiteren Weg zur KohlenstoffdioxidFixierung entwickelt. Das erste Fotosyntheseprodukt bei den C4-Pflanzen ist ein C4-Körper, das Oxalacetat. Hiervon haben die C4-Pflanzen ihren Namen. Wichtige C4-Pflanzen sind Amarant, Hirse, Mais und Zuckerrohr. C3-Pflanzen und C4-Pflanzen unterscheiden sich also in der Art ihrer CO2-Fixierung. C4-Pflanzen sind in der Lage, das ihnen zur Verfügung stehende Kohlendioxid besser auszunutzen. Deshalb fällt bei ihnen eine Ertragssteigerung mit einer Erhöhung des CO2Gehalts geringer aus. Die meisten C4-Pflanzen sind Gräser und Seggen. CAM-Pflanzen: Es gibt noch eine weitere Strategie, um in sehr heißem, trockenem Klima überleben zu können. Einige Pflanzen wie Kakteen und Ananas sowie andere sukkulente Pflanzen wie die heimischen Sedum- oder Kalanchoe-Arten (Crassulaceae) können wegen des zu großen Wasserverlusts ihre Spaltöffnungen nur nachts öffnen. Das Problem ist, dass sie tagsüber das für die
193
5.3 Klimawandel und Landwirtschaft
Dunkelreaktion notwendige CO2 nicht aufnehmen können. In der Nacht nehmen sie bei geöffneten Spaltöffnungen CO2 auf und speichern es in verschiedenen organischen Säuren. Am Tag, wenn die Lichtreaktion abläuft und ATP gebildet wird, entnehmen sie das CO2 aus den Speicherstoffen und führen es dem Calvin-Zyklus zu. Da man diesen Stoffwechsel das erste Mal bei den Crassulaceen entdeckt hat, nennt man diese Pflanzen CAM-Pflanzen (crassulacean acid metabolism).
Der Stoffwechselprozess entspricht dem der C4Pflanzen. Auch hier wird im Mesophyll (nachts) mit der PEP-Carboxylase CO2 an PEP gebunden und es entsteht Oxalacetat. Dieses wird in Malat umgewandelt und wandert über Plasmodesmen in die Bündelscheidenzellen, wo es in den Vakuolen gespeichert wird. Am Tag wird es von den Vakuolen freigegeben und in Pyruvat und CO2 umgewandelt, das dann abermals durch Rubisco gebunden werden kann.
Tabelle 5.3 Wirkung einer CO2-Verdopplung auf C3- und C4-Pflanzen (Quelle: Krupa und Kickert 1993) Wirkungsgröße
direkte Wirkung einer CO2-Verdopplung
Fotosyntheserate
bei C3-Pflanzen deutlich, C4-Pflanzen kaum gefördert
Stomataöffnung
verringert bei C3- und C4-Pflanzen
Wasserausnutzung
erhöht bei C3- und C4-Pflanzen
Blattfläche
bei C3-Pflanzen stärker vergrößert als bei C4-Pflanzen
Blattgewicht
erhöht bei C3- und C4-Pflanzen
Pflanzenreife
beschleunigt bei C3- und C4-Pflanzen
Blüte
früheres Blühen bei C3- und C4-Pflanzen
Trockenmasseproduktion und Ertrag
bei C3-Pflanzen deutlich, C4-Pflanzen kaum gefördert
Trockenstress
geringere Trockenstressempfindlichkeit der Pflanzen
Neben der Frage möglicher Emissionen aus der Landwirtschaft, steht im Rahmen des Klimawandels insbesondere die Frage im Raum, ob auch in Zukunft genügend Nahrungsmittel für die stetig wachsende Anzahl von Menschen vorhanden sein werden. Die Produktivität der Landwirtschaft kann bereits von recht kleinen Klimaveränderungen abhängen. Die aktuellen Produktivitätsunterschiede bei den einzelnen Kulturpflanzen könnten sich infolge klimatischer Veränderungen noch verstärken. Ein großes Problem ist hier auch die von Anbaujahr zu Anbaujahr auftretende Variabilität in den Erträgen. In einzelnen Regionen Südeuropas wird ein Überschreiten der Temperaturobergrenze für bestimmte Kulturpflanzen die Gefahr von Ernteausfällen deutlich erhöhen. In Nordeuropa kann dagegen bei einer wärmeren und längeren
Vegetationsperiode ein breiteres Spektrum von Kulturpflanzen angebaut werden. Die klimatischen Auswirkungen auf gegenwärtig angebaute Kulturpflanzen dürften in Nordeuropa günstiger sein als in Südeuropa. Die Schwankungen der Ernteerträge werden besonders stark von Änderungen der Klimavariabilität (z. B. Temperatur- und Niederschlagsvariabilität) beeinflusst. Für Regionen, in denen Wassermangel den Ernteertrag beeinträchtigt, werden neben geringeren durchschnittlichen Erträgen auch größere Schwankungen des Ernteertrags prognostiziert. In vielen Fällen können Ertragseinbußen durch Anpassungsmaßnahmen begrenzt werden, wie durch einen Wechsel der Pflanzensorte oder die Änderung des Aussaatdatums. Hierzu bedarf es neuer phänologischer Anbaukalender, die für die einzelnen Regionen entwickelt werden müssen.
194
5 Schlüsselthemen des Klimawandels
Wirkung des CO2-Düngungseffekts auf Kulturpflanzen Die meisten Pflanzen (vor allem Weizen und Reis) wachsen in CO2-haltiger Luft besser. Das CO2 wirkt hier als Düngemittel. Dabei zeigen C3- und C4-Pflanzen unterschiedliche Reaktionen auf den CO2-Düngungseffekt. Dieser Effekt spielt auch für das Wachstum von Kulturpflanzen eine große Rolle. Unter den C3-Pflanzen finden sich die wichtigen Anbaupflanzen wie Weizen, Reis, Gerste, Maniok und Kartoffeln. Zu den C4-Pflanzen gehören z. B. Mais, Zuckerrohr und Sorghum. Weiterhin gibt es noch CAM-Pflanzen wie z. B. die Ananas. Allgemein erhöht eine höhere KohlendioxidKonzentration bei C3-Pflanzen die Fotosyntheserate. Die Öffnungsphase der Stomata wird reduziert und die Transpiration und damit der Wasserverlust verringert. Insgesamt folgt daraus ein höherer Ertrag und ein verringerter Wasserverbrauch. Unter Idealbedingungen kann die Ernte von C3-Getreidepflanzen bei einer Verdopplung der CO2-Konzentration um etwa 28 % ansteigen. Obwohl C4-Pflanzen nur wenig auf eine CO2Konzentrationserhöhung reagieren, werden auch bei dieser Gruppe bei einem höheren CO2-Angebot die CO2-Aufnahmezeiten und damit auch die Wasser-Verdunstungsphasen verringert. Insgesamt bedeutet dies eine bessere Wasserausnutzung und einen positiven Wachstumseffekt. Die Wirkung einer CO2-Erhöhung ist bei den Kulturpflanzen außer von der Wasserverfügbarkeit auch von der Temperatur abhängig. In den gemäßigten und kalten Regionen, den Hauptverbreitungsgebieten der C3-Pflanzen, hat schon ein geringer Anstieg der Temperatur eine Erhöhung der Nettoprimärproduktion zur Folge. Durch die sich damit verlängernde Vegetationsperiode wird es in höheren Breiten für einige Arten neue Wuchsräume geben. Allgemein werden die positiven Effekte einer CO2-Anreicherung auf die Fotosynthese bei Temperatursteigerungen in bestimmten Intervallen größer sein als die Nachteile. Bei einer langfristigen Verdopplung des momentanen CO2-Gehalts und gemäßigter Temperaturerhöhung könnte sich beispielsweise die Reisernte um etwa 30 % erhöhen. Bei zu starker Temperaturerhöhung verkürzt sich allerdings die Wachstumsperiode, sodass eine Abnahme der Körnererträge um etwa 10 % bei jedem Grad Temperaturerhöhung über 26° C stattfindet. Ein ähnliches Verhalten zeigen Sojabohnen und Weizen.
Für eine Erhöhung des CO2-Gehalts auf 550 ppm belegen Feldexperimente eine Erntesteigerung bei Baumwolle um 37 bis 48 % und bei Frühjahrsweizen um 8 bis 10 %. Ein steigender Kohlendioxidgehalt beeinflusst jedoch auch die Qualität der Pflanzen. Der Stärkegehalt von Reiskörnern wird bei einem höheren CO2-Gehalt zunehmen, die Konzentration von Eisen und Zink dagegen absinken wie auch der Protein-Gehalt. Der Protein-Gehalt von Weizen reduziert sich beispielsweise um 9 bis 13 % bei steigenden CO2Werten. Auch nimmt die Qualität des Weizenmehls ab, wenn die Weizenkörner bei höheren Temperaturen und erhöhtem CO2-Gehalt reifen. Einen geringeren Effekt haben ein höherer CO2Gehalt und höhere Temperaturen auf die Qualität von Weidegräsern für Wiederkäuer. Auch hier kommt es aber durch die Veränderung des Kohlenstoff-Stickstoff-Verhältnisses zugunsten des Kohlenstoffs zur Abnahme des Protein-Werts im Futter. Wie bereits angesprochen, gibt es eine Temperaturober- und -untergrenze für das Pflanzenwachstum sowie einen Temperaturbereich, in dem die maximale Netto-Fotosynthese stattfindet und sich der höchste Ertrag bildet. Dieser Temperaturbereich liegt für die meisten Pflanzen der mittleren Breiten zwischen 18 ° und 25 °C. Typische optimale Temperaturbereiche für Kulturpflanzen sind:
• Winterweizen: 17–23 °C • Mais und Reis: 25–30 °C • Kartoffeln und Sojabohnen: 15–20 °C Heute liegt der Anbau von Mais in Norddeutschland und Dänemark etwas unterhalb des Temperaturoptimums. Eine Temperaturerhöhung würde in diesem Fall bei ausreichender Wasser- und Mineralversorgung auch zu einer Erhöhung der Ernten führen. Im Gegensatz dazu liegen die Temperaturen für Weizen in Norddeutschland bereits im optimalen Bereich, sodass eine Temperaturerhöhung in diesem Fall die Ernteerträge aufgrund höherer Atmungsverluste verringern würde. Die Ausführungen belegen die Schwierigkeit genauer Ernteabschätzungen und zeigen die gegenseitigen Beeinflussungen (Feedbacks) im Verhältnis Kulturpflanzenaufwuchs zu Ernteertrag. Weitere detaillierte Informationen zur globalen Ernteabschätzung finden sich bei Adams et al. (1998) und Parry et al. (1999).
195
5.3 Klimawandel und Landwirtschaft
Obwohl die weltweite Nahrungsmittelproduktion theoretisch ausreichen würde, die gesamte Weltbevölkerung mit durchschnittlich 2 700 Kalorien pro Person und Tag zu versorgen, leiden immer noch mehr als 800 Millionen Menschen an Hunger und gelten als unterernährt. Trotz zunehmender Weltbevölkerung hat zwar der relative Anteil der hungernden Menschen in den vergangenen Jahren abgenommen, die absoluten Werte aber haben sich kaum verändert. Konnten in Süd- und Südostasien deutliche Erfolge im Bereich der Ernährungssicherung erzielt werden, so ist Unterernährung in vielen Teilen Afrikas nach wie vor zu beklagen. Die absolute Zahl der Hungernden hat hier in den vergangenen 20 Jahren sogar zugenommen. Eines der wichtigsten UN-Millennium-Entwicklungsziele, nämlich die Halbierung der Zahl der Hungernden in der Welt bis zum Jahr 2015, ist aus heutiger Sicht kaum mehr zu erreichen. Einige Untersuchungen kommen zu dem Ergebnis, dass die Nahrungsmittelproduktion auch im 21. Jahrhundert mit der Nachfrage Schritt halten wird und die Nahrungsmittelpreise während der ersten beiden Jahrzehnte stabil bleiben oder sogar sinken werden. Für den Zeitraum nach 2020 gibt es nur wenige Prognosen. Die optimistische Annahme geht davon aus, dass sich die Ernährungssituation aufgrund des ab-
nehmenden Bevölkerungswachstums (Absinken der Wachstumsrate auf weltweit 1,2 %) und der weiter zunehmenden landwirtschaftlichen Produktivität verbessern wird. Andere wissenschaftliche Stellungnahmen sind weniger optimistisch und scheinen in einer in den letzten Jahren zurückgehenden Pro-Kopf-Produktion an Getreide begründet zu sein. Es gibt z. B. Hinweise, dass die asiatische Reismonokultur aufgrund der begrenzten Wasser- und Bodenressourcen an ihr Produktionslimit stoßen wird und darüber hinaus die weltweiten Investitionen in den Agrarsektor weniger stark zunehmen werden als im 20. Jahrhundert. Auch wird der Agrarsektor durch eine Reihe von Umweltfaktoren zunehmend negativ beeinflusst. Ein sehr ernstes Problem ist die Bodenverschlechterung durch Erosion, Anreicherung von Chemikalien im Boden sowie Stauwasser oder Bodenversalzung. Seit dem Zweiten Weltkrieg wurden schätzungsweise 23 % des Agrarlands, der Dauerweiden und Wälder in ihrer Qualität nachhaltig negativ beeinflusst. Zudem gehen 5–10 Millionen Hektar an landwirtschaftlich nutzbarem Land jährlich durch Versiegelung verloren. Von der Versiegelung ist auch das Bewässerungsland betroffen, das zwar nur 16 % der weltweiten Anbaugebiete ausmacht, auf dem aber 40 % der weltweiten Nahrungsmittel produziert werden. Mit diesen und anderen Faktoren
anthropogene Emissionen Kohlendioxid, andere Treibhausgase Abgase, Pestizide
Temperaturanstieg
Klimawandel
Schädlinge, Krankheit
„CO2Düngung“ zunehmende Düngemittelanwendung
Bodenerosionsdegradierung
Meeresspiegelanstieg
chemischer und biologischer Stress, UV-Strahlung
Wasserverfügbarkeit
globale Nahrungsmittelproduktion
Versalzung, Stauwasser Verlust von Agrarland Verstädterung, Industrialisierung
Biotechnologie, verbessertes Saatgut verbessertes Management
neues Agrarland Entwaldung, Bewässerung
5.1 Globale Nahrungsmittelproduktion und wichtige Einflussgrößen.
196
tritt der vom Menschen induzierte Klimawandel in Wechselwirkung. Abbildung 5.1 fasst die Einflussfaktoren auf die globale Nahrungsmittelproduktion grafisch zusammen und verdeutlicht die vielfältigen positiven und negativen Rückkopplungen auf das Ertragssystem. Für die Entwicklung der quantitativen Folgen einer Klimaänderung auf die Ernteerträge liegen unterschiedliche Modellberechnungen in globalen oder regionalen Maßstäben vor. Alle Modelle zeigen aber, dass in tropischen und subtropischen Regionen auch bei einem relativ geringen Temperaturanstieg mit einer Reduktion der Ernten gerechnet werden muss, da die Temperaturen für viele regionalen Anbausorten z. B. in der Sahelzone heute schon an der oberen Toleranzgrenze liegen. Eine Abnahme der Niederschläge würde in diesen Breiten die negativen Folgen noch deutlich verstärken. In mittleren Breiten würden die Ernten bei einer geringfügigen Temperaturzunahme zunächst steigen, bei einer höheren Temperaturzunahme eher abnehmen. In den niederen Breiten würde sich zudem durch höhere Temperaturen die Wachstumszeit verkürzen, was wiederum die Ernteerträge verringert. In den höheren Breiten würde sich umgekehrt die Wachstumsphase verlängern mit der Folge höherer Erträge. Die Weltgetreideproduktion wird ohne einen Klimawandel nach Modellberechnungen (Parry et al. 1999, Hadley Center) im Jahre 2080 auf 4 012 Millionen t geschätzt (1990: 1 800 Millionen t). Für die Getreidepreisentwicklung bedeutet dies theoretisch einen Rückgang um etwa 7,5 %, wobei sich die Anzahl der Menschen, die an Hunger leidet, bis 2080 von 521 auf 300 Millionen verringern würde. Basisvoraussetzung ist allerdings, dass sich die politischen und ökonomischen Verhältnisse nicht wesentlich ändern und sich die Weltbevölkerung bis 2080 auf 10,7 Milliarden einpendelt. Neuere Berechnungen des Hadley Center , die sowohl den direkten Effekt des CO2-Anstiegs bis 2080 als auch den klimatischen Wandel berücksichtigen, ergeben einen insgesamt negativen Effekt des Klimawandels auf die Produktion von Weizen, Reis und Mais. Die Weltgetreideproduktion wird sich demnach allein durch den Klimawandel um 160 Millionen t beziehungsweise 4 % reduzieren. Die Menge der unter Hunger leidenden Menschen wird um 125 Millionen höher liegen als ohne eine anthropo-
5 Schlüsselthemen des Klimawandels
gen induzierte Klimaänderung. Davon betroffen sind vor allem die Entwicklungsländer, die mangels Kapitalmangel auch keine geeigneten Anpassungsmaßnahmen einleiten können. Die wichtigsten Gründe für die negativen Auswirkungen auf die Getreideproduktion sind:
• Verkürzung der Wachstumsperiode, welche die Kornreife beeinträchtigt
• Abnahme der Wasserverfügbarkeit durch höhere Verdunstung
• Verlust an Bodenfeuchte • teilweise geringere regionale Niederschläge Alle genannten Faktoren (Bodenverschlechterung durch Erosion, Anreicherung von Chemikalien im Boden sowie Stauwasser oder Bodenversalzung, Übernutzung von Systemen) führen zur Verschlechterung der Ertragslage und zu einem generell niedrigerem Naturraumpotenzial der betroffenen Regionen. Die Verringerung des allgemeinen Naturraumpotenzials (vgl. Kappas 2006) aufgrund natürlicher und anthropogener Einwirkungen ist das Schlüsselthema des nächsten Abschnitts.
5.4 Klimawandel und Desertifikation Der Begriff Desertifikation ist definiert als eine Landdegradation in ariden, semiariden und trockenen wechselfeuchten Gebieten, die aus verschiedenen Faktoren, einschließlich klimatischen Veränderungen und menschlichen Aktivitäten, resultiert. Der Begriff wurde erstmals im Jahr 1949 für Erscheinungen in Westafrika verwendet und im Jahr 1972 auf der Konferenz der Vereinten Nationen (Gründung der UNEP 1972) eingeführt. Nach der verheerenden Sahel-Dürre folgte 1979 die Ausstellung und Publikation der ersten Weltkarte zur Desertifikation in Nairobi, wodurch Desertifikation erstmals als weltweiter Prozess realisiert wurde. Der Begriff Landdegradation in obiger Definition steht dabei allgemein für den Bodenabbau in ehemals produktivem Trockenland. Die Vereinten Nationen erkannten den Prozess der Desertifikation als global wichtigen Aspekt und beschlossen 1994 das multilaterale Umweltabkommen zur Bekämpfung der Wüstenbildung (UN Convention to Combat De-
5.4 Klimawandel und Desertifikation
sertification, UNCCD), das mittlerweile (2004) 191 Staaten unterzeichnet haben. Die Ausbreitung der Desertifikation wird als eines der großen Umwelt- und Entwicklungsprobleme des 21. Jahrhunderts gesehen. Das Jahr 2006 wurde von der UN-Vollversammlung zum Internationalen Jahr der Wüsten und der Desertifikation ausgerufen. Im Gegensatz zur natürlichen Wüstenbildung ist mit dem Prozess der Desertifikation ein direkter menschlicher Eingriff in das betroffene Ökosystem gemeint. Die wichtigsten menschlichen Eingriffe sind die Überweidung von Flächen, eine unangepasste ackerbauliche Nutzung sowie die übermäßige Entwaldung für Brenn- und Bauholz. Infolge der intensiven Nutzung werden die natürlichen Ressourcen (Böden, Vegetationsbedeckung und Wasserhaushalt) nachhaltig beeinträchtigt. Es stellt sich hier eine weitere Schlüsselfrage, inwieweit die heute weltweit beobachtete Desertifikation auch etwas mit dem anthropogenen Klimawandel der letzten Jahrzehnte zu tun hat, und wie sie mit dem zu erwartenden zukünftigen Klimawandel in diesem Jahrhundert voranschreiten wird? Die Verbreitung der Trockengebiete zeigt, dass deren Lage von klimatischen Verhältnissen (atmosphärische Zirkulation, ▶ Kapitel 2) bestimmt wird. Vor allem die subtropischen Gebiete nördlich und südlich der Tropenzone werden von Trockengebieten eingenommen. Regional ergeben sich noch Abweichungen durch die Verteilung von Land und Meer sowie den Einfluss von Meeresströmungen (Ost- und Westküstenklimate). Für die Ausbildung der Trockengebiete sind also grundlegend die atmosphärische Zirkulation und die zurzeit herrschende Wirkung der Meeresströmung verantwortlich. Neben der weiteren Gefährdung der Trockengebiete durch den weiter steigenden Bevölkerungsdruck und der daraus resultierenden intensiven Nutzung der Trockengebiete, stellt sich gegenwärtig eine neue Frage: Sind die Trockengebiete der Erde außer durch Desertifikation auch durch den anthropogenen Klimawandel bedroht, sich in Wüsten zu wandeln? Diese Frage ist zurzeit wissenschaftlich nicht exakt zu beantworten. Sie ist deshalb Forschungsinhalt und wird beispielhaft für die Sahelzone untersucht. Die Sahelzone hat in den 1970er- und 1980er-Jahren extreme Dürren erfahren und repräsentiert weltweit die Region mit der größten
197
Ausbreitung (zeitlich und räumlich) wüstenartiger Verhältnisse. Auslöser der Dürreverhältnisse war eine Abnahme der Niederschläge, die im 20. Jahrhundert einmalig war. Im Vergleich zur Normalperiode 1931–1960 nahm der durchschnittliche Niederschlag der Sahelzone in der Zeit von 1970 bis 1990 um etwa 50 % ab. In den 1990er-Jahren ereigneten sich in einigen Jahren zwar wieder überdurchschnittlich viele Niederschläge, ohne dass aber eine Trendwende der Dürreverhältnisse eingeleitet wurde. Die jährliche Niederschlagsvariabilität ist in Afrika räumlich extrem hoch und schwankt zwischen 50 mm in der inneren Sahara, über 1 000 mm in der Sudanzone bis zu über 2 000 mm in den tropischen Gebieten. Ein besonders starker Niederschlagsgradient ist in der Sahelzone ausgeprägt (> 1 000 mm auf einer Nord-Süd-Distanz von 800 km Entfernung). Wissenschaftlich ging man während der Dürreperioden davon aus, dass Überweidungen und extreme Holznutzung der Auslöser der Dürre in den 1970er-Jahren gewesen waren. Die durch Übernutzung verringerte und räumlich kontrahierte Vegetation konnte kein Wasser mehr aufnehmen und an die Atmosphäre abgeben. Dies wurde auch als Hauptursache für die abnehmenden Niederschläge angesehen (sogenannte Charney-Hypothese – (positive) Wüsten-AlbedoWechselwirkung). Mittlerweile legen ComputerModellierungen nahe, dass die primäre Ursache in klimatischen Veränderungen lag. Die Vegetationsdecke spielte in Rückkopplung mit dem Klima eine nur sekundäre Rolle. Der Sahel bekommt seinen Niederschlag fast ausschließlich während des Sommers, wenn die ITC und der ursprüngliche SO-Passat als Sommermonsun (SW-Monsun) weit über den Äquator nach Norden vordringen und die über dem Meer aufgenommene Feuchtigkeit im Landesinneren als Niederschlag entlädt. Ausschlaggebend für die Niederschlagshöhe ist dabei der Temperaturgegensatz zwischen Kontinent und Ozean. Ist dieser Gegensatz relativ hoch, ist auch der Luftdruckgegensatz hoch und der Sommermonsun stark ausgeprägt. Es regnet dann mehr und der wasserdampfgesättigte Monsun kann weit ins Landesinnere vordringen. Giannini et al. (2003) konnten zeigen, dass der Luftdruckgegensatz zwischen Land und Meer durch eine Erhöhung der Meeresoberflächentemperaturen abgesenkt wurde. Als Ursache für
198
5 Schlüsselthemen des Klimawandels
die Dürre im Sahel in den 1970er- und 1980erJahren wurde tatsächlich eine starke Erwärmung des Indischen Ozeans zwischen Ostafrika und Indonesien ausgemacht, wodurch sich der Luftdruckunterschied zwischen dem warmen Land und dem kühlen Ozean verringerte und der Monsun weniger weit ins Land eindrang. Die starke Erwärmung des Indischen Ozeans wird auf die anthropogene Erwärmung (Zunahme von Treibhausgasen) zurückgeführt. Ein weiterer Einflussfaktor nach Lu und Delworth (2005) ist die unterschiedliche Erwärmung der Meerestemperaturen im Nord- und Südatlantik (nördlich und südlich des Äquators). Die Hauptemissionsgebiete der Erde liegen in der Nordhemisphäre in Nordamerika und Eurasien. Hier werden die meisten fossilen Energieträger verbrannt, wobei neben Kohlendioxid auch kleinste feste oder flüssige Partikel entstehen (Aerosole). Die Aerosole reflektieren überwiegend Sonnenstrahlen und wirken daher abkühlend auf die unteren Luftschichten. Durch die höhere Aerosol-Belastung der Atmosphäre auf der Nordhalbkugel erwärmt sich der nördliche Atlantik weniger stark als der Atlantik um den Äquator und südlich davon. Das Resultat ist eine Verlagerung des aufsteigenden Asts der Hadley-Zelle und damit der ITC nach Süden mit stärkeren Niederschlägen über der westafrikanischen Küstenregion (z. B. Kamerun) und Trockenheit im Sahel. Eine weitere Rückkopplung im Sahelsystem lässt sich rückblickend aus der Vegetationsbedeckung des Sahel und der Sahara ableiten. Die Sahara war vor etwa 6 000 Jahren eine subtropische Steppe, in der es lockeren Baumbewuchs gab.
Das Klima war zumindest auf der Nordhalbkugel in vielen Regionen wärmer als heute und insbesondere in Nordafrika deutlich regenreicher. Der Grund lag in einer geringfügig stärkeren Sonneneinstrahlung und einem wärmeren Kontinent, der einen stärkeren Sommermonsun mit höheren Niederschlägen über Westafrika verursachte. Die Vegetation verstärkte diesen Effekt, indem sie die Albedo verringerte. Das Reflexionsvermögen der Erdoberfläche nahm gegenüber einer vormals reinen Wüstenfläche ab. Dies intensivierte den Südwestmonsun im Sommer und begünstigte die weitere Vegetationsausbreitung. Die zunehmende Vegetationsbedeckung war nun auch in der Lage, den Niederschlag aufzunehmen und ihn zeitverzögert durch Verdunstung wieder an die Atmosphäre abzugeben. Auf diese Weise verbesserte die Pflanzendecke die günstigen Bedingungen für ihr Wachstum und damit ihre eigene Ausbreitung (Abbildung 5.2 und 5.3). Die heutige Situation im Sahel wurde dann durch eine geringfügige Verringerung der solaren Strahlung eingeleitet und durch Rückkopplungsprozesse mit der Vegetation stabilisiert. Bedingt durch die hohe Albedo der unbewachsenen Wüstenoberfläche und die ganzjährig geringe Bewölkung wird über der Sahara mehr Energie in den Weltraum abgestrahlt als durch solare Strahlung eingestrahlt wird. Im oberen Bereich der Atmosphäre über der Sahara herrscht daher eine negative Strahlungsbilanz, was wiederum die Luft stark abkühlen und absinken lässt. Die absinkenden Luftmassen erwärmen sich und werden dabei zunehmend trockener. Als Folge bleibt der Niederschlag weitgehend aus (Abbildung 5.4).
negative Rückkopplung Erwärmung
5.2 Rückkopplung der Vegetation mit dem CO2-Gehalt der Atmosphäre. Links: negative Rückkopplung. Bei mäßiger Erwärmung erfolgt eine Zunahme der CO2-Aufnahme durch die Vegetation. Dies führt ausgleichend zu einer Abkühlung. Rechts: positive Rückkopplung. Bei stärkerer Erwärmung erfolgt durch Erhöhung der Respiration eine CO2Abgabe durch die Vegetation, was zu weiterer Erwärmung führt.
Abkühlung
positive Rückkopplung starke Erwärmung
weitere Erwärmung
CO2-Abnahme CO2-Abgabe CO2-Aufnahme Wachstum
Erhöhung der Respiration
199
5.4 Klimawandel und Desertifikation
(positive )/negative Rückkopplungen Reflexion positive Rückkopplungen Erwärmung weitere Erwärmung
+/– Erwärmung Kondensation latente Wärme Verdunstung Abkühlung
Abkühlung
Absorption Wachstum
Reflexion
Albedo
Die Erwärmung vor 6 000 Jahren war durch eine stärkere Neigung der Erdachse während des Nordsommers zur Sonne hin bedingt und wirkte sich stärker in den mittleren und höheren Breiten der Nordhalbkugel aus. Die anthropogene Erwärmung durch zusätzliche Treibhausgase erfolgt dagegen wegen der guten Durchmischung der Treibhausgase in der Atmosphäre global. So wird sie deshalb auch eher zu einer weiteren Erwärmung der tropischen Ozeane führen. Wenn sich dieser Trend durchsetzt, wird auch in den nächsten Jahrzehnten eher mit einer niederschlagsarmen Sahelzone zu rechnen sein. Abbildung 5.5 fasst die modellierte Niederschlagsentwicklung für den Sahel zusammen.
Alle Klimamodelle zeigen aber auch, dass sich die Kontinente stärker erwärmen als die Ozeane. Dadurch würde der Temperaturgradient und Luftdruckgegensatz zwischen Land und Meer erhöht und somit der Südwestmonsun verstärkt werden, was wiederum der Sahelzone höhere Niederschläge bringen könnte. Vor allem die Temperaturen und der Luftdruck über der Sahara wurden in den letzten Jahren als Regler des Sahel-Niederschlags identifiziert. Höhere Sahara-Temperaturen erniedrigen danach den Bodenluftdruck über der Sahara und verstärken den afrikanischen Monsun. Stärkere Niederschläge wären die Folge. Allerdings wird durch den Klimawandel auch eine Verschiebung
1,6
1,3 beobachtet Szenario B1 Szenario A2 Szenario A1B
1,2
1,4
Niederschlagsindex
Abweichung vom Mittelwert
5.3 Rückkopplung der Vegetation über die Wechselwirkung von Albedo und Wasserhaushalt.
Wachstum Wasserhaushalt
1,2 1,0 0,8
Mittel der Jahre 1950–2000
1,1 1,0 0,9 0,8 0,7 0,6
0,6 1950
1960
1970
1980
1990
2000
Jahr
5.4 Beobachtete Niederschläge im Juli–September (schwarze Kurve) und mit Meeresoberflächentemperaturen angetriebene Modellsimulationen der Niederschläge im Sahel (blaue Kurve), Index berechnet auf das Mittel der Jahre 1950-2000. Die signifikante Übereinstimmung belegt die starke Bedeutung der Ozeane für die Sahel-Niederschläge. (Quelle: Held et al. 2005.)
0,5 1900
1950
2000
2050
2100
2150
Jahr
5.5 Beobachteter und nach den IPCC-Szenarien (B1, A1B und A2) modellierte Niederschlagsentwicklung im Sahel (Quelle: Held et al. 2005).
200
5 Schlüsselthemen des Klimawandels
+
Überweidung
+ + Grundwasserabsenkung
+ + Bodenerosion
Ackerbau –
+
+
+ Albedo –
+
Niederschlag
–
– –
Trockenheit, Dürre
Vieh: Schafe, Ziegen, Rinder
Gründung + von Tiefbrunnen +
technische Entwicklungshilfe
+ Bevölkerung +
+
bessere medizinische Versorgung
–
+
+ Migration in südliche Gebiete
5.6 Die Sahelzone – ein vielfältig rückgekoppeltes System.
der Klimazonen prognostiziert, die zu deutlich geringeren Niederschlägen am Nordrand der Sahara bis hinein in den europäischen Mittelmeerraum führen kann. Insgesamt zeigt das Schlüsselthema „Klimawandel und Desertifikation“, dass die Wissenschaft heute noch weit davon entfernt ist, eindeutige Aussagen über die zukünftigen Veränderungen der Trockengebiete der Erde durch den Klimawandel zu geben. Es ist äußerst unklar, wie der kombinierte Effekt von Klimawandel, Änderungen in der Landnutzung und Erhöhung der CO2-Konzentration den Sahel in der Zukunft beeinflussen wird (Abbildung 5.2). Die Abbildung 5.6 fasst die wesentlichen heute bekannten Rückkopplungen im Sahel zusammen. Im Bereich der Desertifikationsforschung haben sich in den letzten Jahren interdisziplinäre Netzwerke und Forschungsverbünde gebildet. Beispiele sind das DesertNet auf deutscher sowie auf europäischer Ebene. Das Internationale Wissen zur Desertifikation wird von der UNEP in großen GIS-Datenbanken gespeichert (z.B. GLASOD, Global Assessment of Human-induced Soil Degradation Database und ASSOD, Assessment of the Status of Humaninduced Soil Degradation in South and Southeast Asia).
Tierkrank- – heiten +
gleichgerichtete Wirkung
Bekämpfung von Tierkrankheiten –
gegengerichtete Wirkung
5.5 Klimawandel, Wetteranomalien und Singularitäten Eine Anomalie ist ein Ereignis, welches deutlich entfernt vom sogenannten erwarteten beziehungsweise mittleren Ereignis eintritt. Lineare beziehungsweise nichtlineare Trends in Klimazeitreihen sind stets von vielfältigen Fluktuationen und Anomalien überlagert. Deren Zusammenwirken steuert den Extremwertbereich der Klimadaten. Unter Extremereignissen sind solche synoptischen Konstellationen zu verstehen, die in den Zeitreihen der Beobachtungsdaten zu extremen Werten führen. Solche Werte treten relativ weit vom Mittelwert beziehungsweise Modus (häufigsten Wert) entfernt auf. Dabei ist die Frage nach möglichen Änderungen in Häufigkeit und Intensität der Extremereignisse (Abstand vom Mittelwert/Modus) bedeutsam. Hierbei entscheiden aber nicht nur Klimatrends über die Ausprägung von Extremwerten, sondern auch die überlagerten weiteren Variationsanteile. Um die Entwicklung der Extremwerte zu untersuchen, werden die Häufigkeitsverteilungen der jeweiligen Zeitreihen von Klimaparametern betrachtet.
5.5 Klimawandel, Wetteranomalien und Singularitäten
Häufigkeit
früheres Klima
heiße Perioden neues Klima
kalt
mittel
sehr heiße Perioden
heiß
5.7 Verschiebung der Häufigkeit des Auftretens von extremen Ereignissen durch Veränderung der neuen Mittelwertlage (Quelle: IPCC-Report 2007).
Abbildung 5.7 zeigt den Effekt der Verschiebung der Mittelwertlage eines Ereignisses auf dessen Häufigkeitsausprägung bezüglich möglicher Extremwerte. Die Extremwertanalyse erlaubt für beliebige Häufigkeitsverteilungen der Klimaelemente eine zeitabhängige Berechnung der Änderungen der Verteilungsparameter und somit auch der Änderungen der Über- beziehungsweise Unterschreitungswahrscheinlichkeiten für beliebige obere oder untere Schwellenwerte. Für die monatlichen, jahreszeitlichen und jährlichen Temperaturdaten liegt meist eine Normalverteilung vor, die sich ohne signifikante Änderung der Varianz zu höheren Werten hin verschiebt (weltweite Beobachtungstendenz, für Deutschland siehe Schönwiese und Trömel 2005). Dadurch werden allgemein warme Extrema wahrscheinlicher und kalte weniger wahrscheinlich. Die Pauschalaussage, das Klima werde generell extremer, ist auf dem jetzigen Wissensstand nicht gerechtfertigt, jedoch zeigen sich z. B. auch im Niederschlagsaufkommen über Deutschland deutliche regionale Unterschiede. Hier scheinen Abweichungen vom mittleren Niederschlag insbesondere im Winter (entweder sehr ergiebige Ereignisse oder sehr geringe Ereignisse) wesentlich häufiger zu werden. In Niedersachsen hingegen scheinen im Sommer die bisher unterdurchschnittlich ausgeprägten Niederschlagsereignisse vermehrte Häufungen auszuweisen. Beispiele für Extremereignisse in Deutschland sind die Hitzewelle 2003 oder die Überschwemmungen in den Wintern 1993/94 (Rhein) und 1994/95 (Mosel) sowie in den Sommern 2002 (Donau/Elbe) und 2005 (Bayern). Die Auswirkungen dieser
201
Extremereignisse wurden wissenschaftlich ausgiebig untersucht. Veränderungen im Auftreten von Temperaturextremen gehen einher mit der globalen Erwärmung. Klimabeobachtungen zeigen einen weit verbreiteten Rückgang der Anzahl von Frosttagen in den mittleren Breiten sowie einen Anstieg der Tage mit Hitzeextremen (10 % der wärmsten Tage und Nächte). Dagegen ist ein deutlicher Rückgang der Kälteextreme (10 % der kältesten Tage und Nächte) zu verzeichnen. Sehr markant hat die Anzahl kalter Nächte weltweit im Zeitraum 1951–2003 um 76 % auf den Landflächen abgenommen. Die Ausprägung und Anzahl von Hitzewellen hat demgegenüber in der zweiten Hälfte des 20. Jahrhunderts zugenommen. Die extreme Hitzwelle über Europa im Jahr 2003 hatte die höchsten Sommertemperaturen seit der Instrumentenaufzeichnung (Temperaturzeitreihe bis 1780). Die Temperaturen von Juni bis August 2003 lagen im Mittel 1,4 °C über den Werten des Extremjahrs 1807 und waren bis jetzt ein einmaliges Ereignis in der Temperaturaufzeichnung über Europa. Mit der Ausprägung der Hitzewelle im Jahr 2003 waren sehr trockene Bedingungen über dem Kontinent in dem vorangegangenen Frühjahr verbunden. Dies lässt den Schluss einer hohen Korrelation zwischen Feuchtegehalt und Ausprägung der Sommertemperaturen zu. Tabelle 5.4 zeigt die globalen Trends der Temperatur- und Niederschlagsextremwerte gemessen als zehnte und neunzigste Perzentile auf Basis der Normalperiode 1961–1990. Die Witterungsanomalien leiten über zu einem weiteren wichtigen Thema, den Singularitäten. Singularitäten sind singuläre, nichtlineare Ereignisse, die durch den Klimawandel angestoßen werden können. Mit ihnen sind Systemsprünge (Bifurkationen) verbunden, das bedeutet, dass im globalen Erdsystem verschiedene systemische Schwellenwerte möglich sind. Durch Überschreiten dieser Schwellenwerte können großräumige singuläre Ereignisse ausgelöst und das System in einen neuen Zustand versetzt werden. Modellrechnungen ergeben, dass Systemsprünge bei Temperaturänderungen eintreten können, wie sie für die kommenden Jahrhunderte projiziert werden. Das Überschreiten dieser Schwellenwerte kann zu unvorhersehbaren und teilweise irreversiblen Veränderungen führen. Der Wissenschaftliche Beirat der Bundesregie-
202
5 Schlüsselthemen des Klimawandels
Tabelle 5.4 Globaler Trend der Temperatur- und Niederschlagsextreme (zehnte und neunzigste Perzentile) bezogen auf die Normalperiode 1961–1990 (Werte nach Alexander et al. 2005) Perzentil
Trend (% pro Dekade) 1951-2003
Trend (% pro Dekade) 1979-2003
Tmin10 % Anstieg von Tmin unter das kälteste Dezil
–1,17 ± 0,20
–1,24 ± 0,44
Tmin90 % Anstieg von Tmin über das wärmste Dezil
1,43 ± 0,42
2,60 ± 0,81
Tmax10 % Anstieg von Tmax unter das kälteste Dezil
–0,63 ± 0,16
–0,91 ± 0,48
Tmax90 % Anstieg von Tmax über das wärmste Dezil
0,71 ± 0,35
1,74 ± 0,72
Niederschlag % Anteil sehr feuchter Tage (über dem 95. Perzentil) bezogen auf den jährlichen Gesamtniederschlag
0,21 ± 0,10
0,41 ± 0,38
rung Globale Umweltveränderungen (WBGU) bezeichnet einen Prozess als irreversibel, wenn er innerhalb menschlicher Zeithorizonte (Jahrtausende) nicht mehr umkehrbar ist. Hierzu gehören z. B. das Abschmelzen von Eisschilden oder der durch thermische Ausdehnung und zusätzliche Schmelzwässer bedingte Meeresspiegelanstieg. Das Kardinalproblem hierbei ist die Vorhersage, wann ein Schwellenwert erreicht wird. Noch viel wichtiger für unsere unmittelbare Zukunft ist aber die Aussage, dass die Wahrscheinlichkeit des Eintretens vieler singulärer Ereignisse mit der Veränderungsgeschwindigkeit und Veränderungsrate der Einflüsse steigen dürfte. Um diesen plötzlichen Systemsprung zu verhindern, mahnte der WBGU bereits 2003, dass ein Eintreten folgender Einzeleinflüsse auf das Erdsystem auf jeden Fall verhindert werden müsse:
• Zusammenbruch der thermohalinen Zirkulation (THZ): Die thermohaline Zirkulation (THZ) bringt warmes tropisches Wasser in den Nordatlantik und erwärmt so Nord- und Westeuropa um mehrere Grade Celsius. Zudem werden die Niederschläge in der ganzen Region verstärkt. Paläoklimatische Studien sowie zahlreiche Modellrechnungen zeigen, dass es verschiedene Gleichgewichtssituationen für die THZ im Nordatlantik gibt. Eine Gleichgewichtsänderung kann im einfachsten
Fall durch Temperaturveränderungen und/ oder Süßwasserzufluss angestoßen werden. Zirkulationsmodelle ergeben, dass es durch den zukünftigen Klimawandel zu einer Verlangsamung der Strömungsgeschwindigkeit des Golfstroms kommen kann. Von einem kompletten Zusammenbruch der THZ geht man in jüngster Zeit allerdings nicht mehr aus. Für die Verlangsamung der Golfströmung dürfte nicht nur die absolute Erwärmung von Ozean und Atmosphäre eine Rolle spielen, sondern vor allem die Erwärmungsrate, das heißt, die Geschwindigkeit mit der sich die zukünftige Erwärmung ereignet. Die Folgen wären tiefgreifende Konsequenzen für die marinen Ökosysteme und die Kohlenstoffaufnahmekapazität durch den Ozean. • Aufnahmekapazität der Kohlenstoffsenke in Ozean und Biosphäre: Der Klimawandel kann die Leistungsfähigkeit der heutigen Kohlenstoffsenke in Ozean und Biosphäre herabsetzen. Im worst case-Szenario könnte die Biosphäre sogar eine Quelle für Treibhausgase werden (z. B. Methanhydratfreisetzung aus marinen Lagerstätten). Dieser Effekt könnte eine positive Rückkopplung und somit eine Beschleunigung der globalen Erwärmung verursachen. Die Abgabe großer Methanmengen in die Atmosphäre kann auch für das plötzliche Ende der Vereisung am Ende der letz-
5.5 Klimawandel, Wetteranomalien und Singularitäten
ten Eiszeit ein wichtiger Regler gewesen sein. Auch heute existieren große Hydratvorkommen in der Arktis und in den Schelfsedimenten, die ein großes Risiko für weitere Emissionen bilden (vgl. Nisbet 2002). • Veränderung der kontinentalen Monsune: Wie bereits in Abschnitt 5.4 angesprochen, können Veränderungen in der Monsunzirkulation (z. B. Südwestmonsun über Afrika oder der indische Sommermonsun) erhebliche Auswirkungen auf die Ökosysteme an Land haben. Die Monsune sind generell großräumige Zirkulationsmuster, die von der unterschiedlichen Erwärmung und Abkühlung zwischen Land und Ozean angetrieben werden. Jedes Jahr kehrt sich die vorherrschende Windrichtung um (Windsprung > 120°), in Indien z. B. von Nordost im Winter auf Südwest im Sommer. Der Sommermonsun bringt hohe Niederschläge und macht in Indien etwa 75–90 % der jährlichen Regenfälle aus. Der Sommermonsun ist deshalb für die Landwirtschaft und Industrie in ganz Süd- und Ostasien entscheidend. Der Monsun ist an die Wanderung der Innertropischen Konvergenzzone gekoppelt, einer Region niedrigen Luftdrucks, in der die Passatwinde konvergieren. Die Lage dieser Konvergenzzone wechselt im Sommer zwischen zwei bevorzugten Breiten, die mit starken Regenfällen über Indien (aktiver Monsun) einhergehen. Eine hohe Korrelation zwischen der indischen Nahrungsmittelproduktion und der Monsunregenmenge verdeutlicht die hohe Bedeutung des Sommermonsuns für die über
203
eine Milliarde Inder. Auf Basis des gegenwärtigen Forschungsstandes über den asiatischen Monsun konnten aber noch keine Schwellenwerte identifiziert werden. • Zerfall der Eisschilde (Westantarktis, Grönland): Meereisschilde sind instabil und hängen stark von der globalen Temperaturausprägung ab. Die für die nächsten Jahrzehnte projizierte Erwärmung könnte das Schmelzen des westantarktischen und grönländischen Eisschilds anstoßen, mit der Folge eines erheblichen Meeresspiegelanstiegs (▶ Tabelle 4.10). Der westantarktische Eisschild ist in den vergangenen 1,3 Millionen Jahren mindestens einmal zerfallen – bei Temperaturen, die wahrscheinlich nur 2 °C über den heutigen lagen (Oppenheimer 1998). Es bestehen aber große Unsicherheiten über die Zeitskala des Eisschildzerfalls. Das Abschmelzen des Grönlandeises würde zusätzlich zu einem irreversiblen Anstieg des Meeresspiegels um einige Meter über viele Jahrtausende führen. Auf die Reaktion der Kryosphäre wird im gleichnamigen Fallbeispiel in ▶ Kapitel 6 noch eingegangen. Das Risiko, dass die obigen Schwellenwerte überschritten werden, wächst mit steigender Erwärmung sowie mit der Geschwindigkeit des Anstiegs (Erwärmungsrate). Der WBGU benennt daher einen Schwellenwert von 2 °C für die globale Erwärmung im Vergleich zur vorindustriellen Entwicklung mit einer dekadischen Anstiegsrate von 0,2 °C (WBGU 1995 und 2003).
6
Fallstudie Kryosphäre
Das vorliegende Fallbeispiel soll dazu dienen, das Systemdenken zu schärfen und die Vernetzung einzelner Prozesse auf Grundlage des Basiswissens aus Kapitel 2 einzuordnen. Die Fallstudie beschäftigt sich mit den Rückkopplungen im System Atmosphäre – Eis – Ozean am Beispiel der Arktis. Das Klima der Arktis ist auf vielfältige Weise in das globale Erdsystem eingebunden. Durch diverse Rückkopplungseffekte wirken sich Klimaänderungen in der Arktis stärker und schneller aus als in gemäßigten Breiten oder am Äquator. Dieser Umstand macht die Arktis als Forschungsgebiet für den Klimawandel besonders interessant. Die nur wenige Meter mächtige Meereisbedeckung im arktischen Raum reagiert sehr sensibel
auf äußere Einflüsse und spielt im globalen System der Meeresströme eine wichtige Rolle, unter anderem für den Teilantrieb des nordatlantischen Stroms, der die thermohaline Zirkulation steuert. Auch die arktische Atmosphäre spielt in dem globalen Zirkulationssystem und dem globalen Energiehaushalt eine wichtige Rolle. Da die Arktis mit ihrer negativen Energiebilanz als „Energiesenke“ für Wärme aus den Äquatorregionen dient, können Änderungen in der arktischen Atmosphäre Einflüsse auf die globale Zirkulation nehmen. Des Weiteren wird die Ausprägung der Westwinddrift und somit das Wetter in Europa entscheidend von der arktischen Atmosphäre beeinflusst. In den folgenden Abschnitten werden die wichtigsten Faktoren und Vorgänge für die Bildung des arktischen Klimas vorgestellt. Dabei werden zunächst Zustände und Prozesse innerhalb der Atmosphäre sowie der Einfluss von Aerosolen behandelt. Im Weiteren wird auf den Arktischen Ozean sowie das Meereis und dessen Veränderungen eingegangen. Die Arktis wird geographisch definiert als das Gebiet innerhalb der 10 °C-Juli-Isotherme. Abbildung 6.1 zeigt die Anrainer der Arktis sowie den Verlauf der 10 °C-Juli-Isotherme.
6.1 Variabilität des arktischen Klimas
10°C-Isotherme, Juli
6.1 Die geographische Abgrenzung der Arktis und ihrer Anrainer (die blaue Linie markiert die 10 °C-JuliIsotherme). Die gestrichelte Linie kennzeichnet den Polarkreis auf 66°33' nördlicher Breite. Der Polarkreis trennt die Polargebiete von den gemäßigten Zonen. Am Polarkreis geht am Tag der Sommer-Sonnenwende (21. Juni) die Sonne nicht unter
Seit Beginn der Instrumentenaufzeichnung sind für die Arktis starke klimatische Schwankungen nachgewiesen, welche zum Teil mit einer erheblichen Variabilität der klimabildenden Faktoren, wie z. B. der Eisbedeckung, einhergehen. In den 1920er-Jahren kam es zu einer Erwärmung der nordpolaren Gebiete, welche bis etwa 1940 andauerte. Diese Erwärmungsanomalie beschränkte sich aber auf den Bereich nördlich von 60° N. Nach einer kühleren Phase, setzte Mitte der 1980er-Jahre mit der globalen Klimaerwärmung eine starke Änderung des arktischen Klimas ein. Ergebnisse
206
der Klimamodellrechnungen lassen die Schlussfolgerung zu, dass die Änderungen im frühen 20. Jahrhundert wahrscheinlich durch niederfrequente Schwankungen im globalen ozeanischen Zirkulationssystem auf natürliche Weise zustande gekommen sind. Änderungen in der atmosphärischen Zirkulation sind aufgrund der negativen Korrelation zwischen Nordatlantischer Oszillation (NAO) und Oberflächentemperatur in der ersten Hälfte des 20. Jahrhunderts unwahrscheinlich (Bobylev et al. 2004). Die aktuelle Erwärmung, die in der Arktis deutlich stärker ausgeprägt ist als auf der restlichen Nordhemisphäre (Hotspot der terrestrischen Erwärmung), kann nur unter Berücksichtigung des anthropogenen Eintrags an Treibhausgasen modelliert werden (Johannessen et al. 2004). 6.2 Trends der Lufttemperatur in den Winterhalbjahren (NDJFMA) und den Sommerhalbjahren (MJJASO) über 20-jährige Perioden, welche repräsentativ für die warmen und kalten Phasen des 20. Jahrhunderts sind: a–b) 1920–1939, c–d) 1945–1964, e–f) 1980–1999; a,c,e) Sommermonate, b,d,f) Wintermonate (Quelle: Johannessen et al. 2004). ( Farbtafel)
Die Klimaschwankungen im 20. Jahrhundert sind räumlich unterschiedlich ausgeprägt. Für die warme Phase zwischen 1920 und 1939 und der kälteren Phase zwischen 1945 und 1964 zeigt sich aber ein Zusammenhang in der räumlichen Ausprägung der Anomalien. In beiden Fällen fanden die Änderungen hauptsächlich im Winter und im Bereich des Arktischen Ozeans statt. Die aktuelle Erwärmung hingegen ist räumlich vollkommen anders ausgeprägt als die vorherigen Anomalien, was zu der Vermutung führt, dass für diese Erwärmung andere Mechanismen verantwortlich sein müssen. Die maximale Erwärmung in den Wintermonaten fand zwischen 1980 und 1999 in der Beaufort See und Nordeuropa statt. Der Bereich maximaler Erwärmung ist zwar kleiner als der zwischen 1920 und 1939, doch ist das gesamte arktische Gebiet von dieser Erwärmung betroffen. Mit der Erwärmung der Arktis kommt es gleichzeitig zu einem höheren Niederschlag von 1,4 % pro Dekade (ACIA Report 2006). Die Modellierung des arktischen Klimas ist aufgrund vielfältiger Rückkopplungseffekte im Klimasystem sehr schwierig. Aktuelle Modelle geben bis zum Jahr 2100 eine „arktische Erwärmung“ von ca. 4–6 °C an, was deutlich über der modellierten globalen Erwärmung von 1,5–2,5 °C liegt.
6 Fallstudie Kryosphäre
6.2 Die Nordatlantische und die Arktische Oszillation Die Nordatlantische Oszillation (NAO) beschreibt den normalisierten Druckunterschied zwischen dem Islandtief und dem Azorenhoch (▶ Abschnitt 2.11.3). Beide Druckgebilde sind im Winter wesentlich ausgeprägter als im Sommer, sodass der NAO-Index meist nur für den Winter ermittelt wird. Ein positiver Index bedeutet ein ausgeprägtes Tiefdruckgebiet über Island und ein ausgeprägtes Hochdruckgebiet über den Azoren, ein negativer Index eine relative Annäherung der Druckverhältnisse. Die Ausprägung der NAO hat großen Einfluss auf die Stärke der Westwinddrift über dem Nordatlantik, welche warme feuchte Luft nach Europa und in die Arktis treibt und somit die Temperaturverhältnisse am Boden entscheidend beeinflusst. Ein positiver NAO-Index geht tendenziell mit einer Verschiebung des Tiefs über Island und des Hochs über den Azoren in nördliche Richtung einher. Die Lufttemperatur und die NAO-Indexwerte korrelieren für die geographische Breite von 60° bis 90° N in der zweiten Hälfte des 20. Jahrhunderts stark (Johannessen et al. 2004). 6.3 Änderungen des globalen und arktischen (60°–90° N) Klimas relativ zur Durchschnittstemperatur von 1981–2000 in verschiedenen Klimamodellen (die dicken Linien zeigen die globalen, die dünnen die arktischen Klimaänderungen) (Quelle: ACIA Report 2006). ( Farbtafel)
Die Indexwerte der NAO können sich von Winter zu Winter sehr sprunghaft verändern, weshalb langfristige Untersuchungen durchgeführt wurden, die belegen, dass die NAO mehrere Jahrzehnte hindurch Phasen mit vorwiegend positiven oder vorwiegend negativen Werten aufwies. Seit Anfang der 1980er-Jahre ist die NAO in einer positiven Phase (vgl. Serreze et al. 2005). Die Steuerungsfaktoren der NAO-Variabilität sind bisher nicht geklärt. Allerdings gibt es Korrelationen zwischen der NAO-Variabilität und Änderungen in der Ozeanzirkulation (Jung 2000). Weitere Wechselbeziehungen sind teilweise mit der Erwärmung von oberflächennahen Schichten im tropischen Pazifik und im Indischen Ozean
6.3 Arktische Stratosphäre
zu verzeichnen, welche zu erhöhtem Niederschlag und einer Erwärmung der Atmosphäre in den Tropen führt. Auch die Korrelation zwischen dem Kaltwasserereignis La Niña (ENSO-Mechanismus) und warmen, positiven Phasen der NAO wird untersucht. Die Arktische Oszillation (AO) beschreibt die normalisierten Druckunterschiede zwischen einem ausgeprägten winterlichen Tiefdruckgebiet über dem Pol und schwächeren Tiefdruckgebieten über dem Atlantik und dem Pazifik. Die Theorie besagt, dass tieferer (höherer) Druck über dem Pol mit höherem (tieferem) Druck über dem Nordatlantik und Nordpazifik einhergeht. Generell sind die Aktionszentren und die Verläufe von NAO und AO sehr ähnlich. Es wird jedoch vielfach angenommen, dass die NAO eine regionale Ausprägung der AO ist. Die Fluktuationen innerhalb der AO stehen im Zusammenhang mit Schwankungen des stratosphärischen Vortex (Polarwirbels) und werden eher mit dem Ozongehalt und der Anreicherung von Treibhausgasen in der Atmosphäre, welche zu einer Abkühlung der Stratosphäre führen, als mit der Erwärmung der tropischen Ozeane in Verbindung gebracht. Ungeklärt ist weiterhin, wie sich die Strömungen in Troposphäre und Stratosphäre gegenseitig beeinflussen. Möglich erscheint hier z. B. eine Beeinflussung des stratosphärischen Energiehaushalts durch Eindringen wärmerer Luft aus der Troposphäre.
6.3 Arktische Stratosphäre Die arktische Stratosphäre beginnt über dem Pol in etwa 5,5 km Höhe und reicht über die Breitenlage der arktischen Front (etwa 70° N) in einer Höhe von etwa 4 km. Sie ist im Winter von einer isolierten, in östliche Richtung rotierenden Luftmasse geprägt, dem polaren Vortex (Polarwirbel). Anders als in der Antarktis ist der arktische Vortex aufgrund der physischen Beschaffenheit der Erdoberfläche nicht symmetrisch und sein Zentrum liegt nicht über dem Pol, sondern ist leicht in Richtung Spitzbergen verschoben (Müller 2001). Die Windgeschwindigkeiten im polaren Vortex nehmen
207
mit steigender Höhe zu. Normalerweise sind die Luftmassen im Polarwirbel gegen die wärmeren Luftmassen aus der Troposphäre isoliert. Es kann jedoch zu Warmlufteinbrüchen durch eindringende planetarische Wellen aus der Troposphäre kommen, welche als plötzliche Stratosphärenerwärmung (Sudden stratospheric warming) bezeichnet werden. Von einem Major Warming spricht man, wenn ein Warmlufteinbruch auf einem Niveau von 10 hPa oder weniger einen Anstieg der stratosphärischen Temperatur um einige 10 °K in wenigen Tagen hervorruft. Die Erwärmung bewirkt eine Umkehr des Temperaturgradienten und führt zum Zusammenbruch oder zur Umkehr des Wirbels. Die ursprüngliche Situation stellt sich im Anschluss an die Erwärmung wieder her. Das Phänomen tritt maximal einmal im Winter in den Monaten Januar und Februar auf. Ein Minor Warming bedeutet einen schnellen Temperaturanstieg in einer stratosphärischen Schicht von mindestens 25 °K innerhalb einer Woche, wobei es unerheblich ist, in welcher Schicht der Stratosphäre sie auftritt. Auch die Lage auf der Winterhemisphäre ist beliebig. Solche Erwärmungen sind mehrere Male im Winter anzutreffen, wobei sie keinerlei Auswirkung auf die stratosphärische Zirkulation haben. Als Final Warming wird schließlich die Übergansphase von Winterzirkulation zu Sommerzirkulation bezeichnet. Sie funktioniert wie das Major warming allerdings ohne anschließende Wiederherstellung des Polarwirbels. Ein Final warming findet meist zwischen März und Mai statt (Müller 2001). Die Stärke des polaren Vortex ist von der Temperatur der Stratosphäre abhängig. Je kälter die Stratosphäre ist, desto stärker und stabiler ist der Luftstrom. Neben dem Vortex wird auch der Ozongehalt der Stratosphäre durch die Temperatur beeinflusst. Bei extremer Kälte bilden sich im Inneren des Vortex polare Stratosphärenwolken (Polar Stratospheric Clouds, PSC), die neben Wasser aus einer kleinen Menge gefrorener Schwefelund Salpetersäure bestehen. Diese Mischung ist als NAT (Nitric Acid Trihydrate) bekannt und bedingt durch Anlagerung von ozonabbauenden Reservoirgasen den Ozonabbau im Inneren des Polarwirbels (ACIA Report 2006). Diese Prozesse werden in ▶ Abschnitt 6.10 genauer beschrieben.
208
6.4 Arktische Troposphäre Die mittlere Troposphäre ist, ebenso wie die Stratosphäre, von einem zirkumpolaren Luftstrom geprägt, welcher aber deutlich unsymmetrischer als der stratosphärische ist, da in der Troposphäre der Einfluss der Erdoberfläche stärker wirkt. Aus diesem Jetstream entstehen die Zyklonen und Antizyklonen, die vor allem für den atlantischen Bereich der Arktis prägend sind. Für die bodennahen Schichten der Atmosphäre ergibt sich für die vier Jahreszeiten folgendes Bild:
• Im Winter wird das Wetter durch einen Tiefdruckgürtel zwischen Nordpol und dem atlantischen Sektor sowie einem Tiefdruckgebiet über dem pazifischen Sektor bestimmt. Über dem Nordpol bildet sich ein leichtes, über dem kontinentalarktischen Bereich Russlands ein extremes Hochdruckgebiet. Im Winter liegen die Hauptbildungszentren für Zyklonen über Island. Diese bewegen sich in Richtung Nordosten und ziehen über den Atlantik in die Arktis. Neben den Zyklonen über Island bilden sich Zyklonen über der Baffin Bay. Antizyklonen entstehen zum größten Teil über dem kanadischen Becken, teilweise auch über der Barentssee. • Die Situation im Frühjahr ist ähnlich der Wintersituation. Das pazifische Tief wandert in Richtung Nordosten, das Sibirienhoch verlagert sich in westliche Richtung. Zusätzlich entsteht über der Beaufortsee ein geschlossenes Hochdrucksystem (Serreze et al. 2003). • Im Sommer nimmt die Stärke des Islandtiefs und des pazifischen Tiefs ab. Die Sommersituation wird von Hochdruckgebieten über dem Atlantik und der Beaufortsee geprägt, welche bis in das Innere Alaskas reichen. Über dem Nordpol bildet sich ein Tief, dass bis in die zentralen arktischen Bereiche Russlands reicht und dort am stärksten ausgeprägt ist. Im Sommer treten Zyklonen am häufigsten über Island und der Barentssee sowie im südlichen Teil der kanadischen Arktis auf. Antizyklonen treten am häufigsten im westlichen Teil der kanadischen Arktis, der Beaufortsee, der Ostsibirischen See sowie der Karasee und Barentssee auf. Die Geschwindigkeiten sowohl von Zyklonen als auch von
6 Fallstudie Kryosphäre
Antizyklonen sind im Sommer deutlich niedriger als im Winter. • Im Herbst bilden sich Tiefdruckgebiete über Grönland und Westalaska, und die Bildung des Hochdruckgebiets über Russland beginnt. Im Winter treten im Bereich der Norwegischen See und der Barentssee polare Ostwinde auf. Sie entstehen hauptsächlich in den kontinentalen Hochdruckgebieten über der russischen Arktis und ziehen in südwestliche Richtung. Sie verlassen die Arktis zwischen Grönland und Island, gelenkt von den ostgrönländischen Gebirgen. In der kanadischen Arktis und der Baffin Bay dominieren Nordwestwinde, die in der Polregion und der Beaufortsee entstehen. An gleicher Stelle bilden sich Winde, welche die Beringsee aus Nordosten passieren. Im nordöstlichen Teil der russischen Arktis wehen West- bis Südwestwinde, die – wie die Winde über der Norwegischen See – in den zentralen Hochdruckgebieten Nordrusslands entstehen. Die höchsten Windgeschwindigkeiten mit durchschnittlich bis zu 10 m/s treten in der Norwegischen See und südlich von Island auf. In der Baffin Bay und der Beringsee werden durchschnittliche Windgeschwindigkeiten von 6–7 m/s erreicht (Przybylak 2003). Im Sommer treten in abgeschwächter Form in der Norwegischen See Nordostwinde auf. Ebenso wie im Winter wird Nordkanada und die Baffin Bay von nord- bis nordwestlichen Winden dominiert, die südlich der Balfin Island nach Osten abdriften. In Alaska sind südöstliche Winde zu verzeichnen, die später über der Beaufortsee in östliche Richtung zum Pol hin drehen. Die russische Arktis wird von nordöstlichen Winden dominiert, die über der Barentssee entstehen. Die Windgeschwindigkeiten liegen im Sommer allgemein niedriger als im Winter. Bei Island werden im Sommer durchschnittliche Windgeschwindigkeiten von 5–7 m/s erreicht, in der Barentssee und in Polregion 5 m/s und in der Beringsee 5–8 m/s.
6.5 Strahlungsverhältnisse in der Arktis Würde die Wärmeenergie der Arktis alleine durch die Umwandlung von kurzwelliger in langwellige Strahlung geliefert, wäre die Arktis um
6.6 Wolken und Niederschlag in der Arktis
einige Dekagrad kälter (Bobylev et al. 2003). Die Wärme wird durch großräumige atmosphärische und ozeanische Zirkulationen aus den äquatorialen Gebieten in Richtung der Pole transportiert. Dominierend ist dabei der Wärmetransport über die Atmosphäre, welcher im Sommer 90 % und im Winter fast 100 % der von außen zugeführten Wärme in die Arktis bringt. Die ozeanische Zirkulation spielt vor allem im Winter wegen der Isolationswirkung der Eisbedeckung im Arktischen Ozean eine sehr geringe Rolle. Im Winter ist aufgrund der größeren Gradienten zwischen den Polen und dem Äquator der Wärmetransport ausgeprägter als im Sommer. Die Menge der am Boden auftreffenden, kurzwelligen Sonnenstrahlung variiert nach Breitengrad, Jahreszeit sowie Bewölkungshäufigkeit und -dichte. Die räumliche Verteilung und die Menge der Strahlung sind für beide Übergangszeiten ähnlich. Über den Jahresverlauf gesehen erhalten die arktischen Randbereiche in Russland und Kanada sowie Zentralgrönland die meiste Energie. Diese Bereiche sind insgesamt am wenigsten bewölkt. Die geringste Menge kurzwelliger Sonnenstrahlung erhalten die Polregion sowie die Norwegische See, welche das Hauptaktionsgebiet von Zyklonen ist. Eine bedeutende Rolle für die Energiebilanz der arktischen Atmosphäre spielt die Albedo. Eis- und Schneemassen, welche im Winter einen großen Teil der Arktis bedecken, reflektieren 80 –85 % der kurzwelligen Strahlung und führen so zur Auskühlung der bodennahen Luftschichten. Dies führt wahrscheinlich zu den im Winter in weiten Teilen vorherrschenden, sehr stabilen Temperaturinversionen, die zum Teil bis in eine Höhe von 1 200 m reichen und die bodennahen Luftschichten von der restlichen Troposphäre isolieren.
6.6 Wolken und Niederschlag in der Arktis Ein weiterer wichtiger Faktor für das Klima der Arktis sind die Wolken und deren Interaktion mit der Strahlung. Die Erfassung und Erforschung der Wolken gestaltet sich dabei schwierig, da sie im Winter aufgrund des Mangels an Sonnenlicht nur schwer oder gar nicht beobachtet werden können. Messungen mit modernen Fernerkundungsgeräten sind fehlerbehaftet, da die
209
Wolken oft dünn sind und tief liegen, wodurch sich ein geringer Kontrast zwischen Wolken und Boden im optischen, thermalen und Mikrowellenbereich des elektromagnetischen Spektrums ergibt (Curry et al. 1996; Schweiger et al. 1999). Ein weiteres Problem sind die ungewöhnlichen arktischen Wolkentypen wie z. B. die kristallinen Wolken über Grund, welche nur in der Arktis beobachtet werden können. Wolken haben generell eine hohe Albedo. Neben der Reflexion kurzwelliger Strahlung absorbieren Wolken vor allem die vom Boden ausgehende Strahlung aus dem nahen Infrarotbereich und emittieren eben solche von ihrer Unter- und Oberseite, wodurch es zu einer Erwärmung der unteren und einer Auskühlung der oberen Luftschichten kommt (Zhang et al. 1996; Bobylev et al. 2004). Dies führt dazu, dass die Erdoberfläche in der Arktis bei Wolkenbedeckung mehr Energie erhält als an wolkenlosen Tagen. Über das gesamte Jahr haben Wolken in der Arktis – anders als in niederen Breiten – einen positiven Einfluss auf die Temperatur der unteren Atmosphäre. Niedrige Wolken in der Stratosphäre können z. B. zu einer Erhöhung der langwelligen Strahlung am Boden von 130–200 W/m2 führen. Verglichen mit einer Verdopplung des CO2-Gehalts der Atmosphäre, was zu einer Erhöhung der langwelligen Strahlung von nur 4–7 W/m2 führen würde, sind Wolken in der Arktis also deutlich effektiver für die Erwärmung. Zwischen Wolkenbedeckung und Wolkenart und dem Zeitpunkt der Eisschmelze wurden starke Zusammenhänge beobachtet. Der Effekt der Wolken hängt vom Wolkentyp und der Höhe ab, in der sie auftreten. Generell haben niedrigere Wolken einen größeren Einfluss auf die Strahlungsbilanz am Boden als hohe Wolken. Neben der Höhe spielt die Größe der Eispartikel/ Wassertropfen eine wichtige Rolle, da diese zu unterschiedlicher Durchlässigkeit für die Strahlung führen. Die Art der auftretenden Wolken hängt von dem Wassergehalt der Luft, der Menge der Einstrahlung sowie der Konzentration von Aerosolen ab, welche als Kondensationskerne dienen. Im Sommer, wenn die Einstrahlung am größten ist, bilden sich die meisten Wolken, was auf die größere Menge an Wasser in der Atmosphäre zurückzuführen ist. Die Arktis ist generell ein sehr niederschlagsarmes Gebiet. Besonders im Winter erhalten die Arktis, Nordkanada, Nordalaska und weite Teile
210
Osteurasiens lediglich durchschnittliche Niederschläge von 10–20 mm, da diese Bereiche weit von Altantik, Pazifik und Bereichen starker Zyklonenaktivität entfernt sind. Es handelt sich somit um sogenannte Kältewüsten. Die größten Niederschläge erhalten im Winter die Bereiche Südgrönlands und der Norwegischen See (bis 150 mm). In der gesamten Arktis dominiert der feste Niederschlag, welcher in weiten Bereichen des arktischen Beckens 90–99 % des Niederschlags ausmacht. Im Sommer erhalten die meisten Bereiche der Arktis die durchschnittlich größte Menge an Niederschlägen im Jahresverlauf. Dies ist auf die erhöhte Verdunstung durch vermehrte Einstrahlung und erhöhte Konvektion zurückzuführen. Zwar dominieren im Sommer in weiten Teilen des Arktischen Ozeans feste Niederschläge, doch vor allem in den Küstenregionen und dem atlantischen Sektor fällt flüssiger Niederschlag.
6.7 Aerosole in der Arktis und ihre Quellen Aerosole sind meist Suspensionen fester und/ oder flüssiger Stoffe in der Luft. Sie kommen in Größen von 10-9 m bis 10-6 m in der Atmosphäre vor. In der Stratosphäre entstehen sie durch Nukleation und Kondensation. Dabei versteht man unter Nukleation die Kondensation von flüssigen Aerosolpartikeln aus der Gasphase. Dieser Kondensation liegt die Bedingung zugrunde, dass der Partialdruck des Gases pvap größer ist als der Sättigungsdampfdruck p∞ (Sättigungsverhältnis (S=pvap/p∞), ist S >1 so herrscht Übersättigung). Es gibt dabei zwei verschiedene Arten der Nukleation. Von homogener Nukleation spricht man, wenn die Kondensation mit reinem Gas in reiner Luft stattgefunden hat. Dafür muss allerdings eine sehr hohe Übersättigung bestehen. Bei der heterogenen Nukleation hingegen genügt eine geringe Übersättigung, da die Kondensation dabei an Nukleationskeimen stattfindet. Bei der Kondensation wachsen die Aerosolpartikel aus der Nukleation heraus durch Kondensation weiter an, bis sie den kritischen Radius erreicht haben. Wenn sie diesen Radius nicht erreichen, zerfallen sie wieder in die Gasphase. Neben der Verdunstung spielt auch die Sedimentation der Aerosole eine wichtige Rolle beim Aerosolverlust.
6 Fallstudie Kryosphäre
Die Sedimentationsgeschwindigkeit der Aerosole ist proportional zur Dichte des Partikels und zum Quadrat des Partikelradius. Bei einer Höhe von 20 km können Aerosole mit Radien von 0,5 μm etwa 10 m am Tag absinken. Durch Absorption und Streuung von Sonnenstrahlung, der Wechselwirkung mit terrestrischer Strahlung sowie der Beeinflussung der optischen und mikrophysikalischen Eigenschaften der Wolken haben sie außerdem direkten Einfluss auf das System Erde – Atmosphäre. Aerosole zählen zu den Spurenstoffen. Man unterscheidet sie in erster Linie durch ihre chemische Zusammensetzung. Die Größenverteilung der Partikel reicht von 0,001 bis 100 μm und ist in drei Klassen gegliedert. Die erste Klasse ist die Aikten-Klasse mit Radien von 0,001 bis 1,0 μm. Diese Teilchen entstehen aus Gas direkt durch Gas-zu-Teilchen-Umwandlung oder Kondensation an bereits bestehenden Teilchen. Grundsubstanzen sind Schwefel- und Stickstoffverbindungen. Die zweite Klasse wird Accumulation Mode oder große Teilchen genannt. Diese Klasse weist einen Radius von 0,1 bis 1,0 μm auf und entsteht aus der Koangulation von Teilchen der ersten Klasse. Die dritte Klasse wird Coarse Mode oder Riesenkerne genannt und beinhaltet Teilchen mit Radien über 1 μm. Diese Teilchen entstehen durch mechanische Prozesse wie das Aufwirbeln von Staub. Zusätzlich werden Aerosole nach ihren Phasenzuständen unterschieden, die durch Temperatur- und Feuchteänderungen zustande kommen. Weiter wird noch zwischen externer und interner Mischung getrennt. Bei externer Mischung besteht jeder Partikel aus nur einer Substanz und bei einer internen Mischung jeder Partikel aus mehreren Substanzen. In Bezug auf die Aerosolquellen unterscheidet man zwischen natürlichen und anthropogenen Aerosolquellen. Zu den natürlichen Aerosolquellen zählen aufgewirbelte Mineralien und Meersalz, welches durch das Zerplatzen von Wasserbläschen auf den Ozeanen in die Atmosphäre gelangt, aber auch Staub und Asche von Vulkanausbrüchen und Wald- und Buschbränden sowie biologische Aerosole wie Pollen und Sporen. Auch das Phytoplankton der Ozeane ist eine natürliche Quelle von Aerosolen. Es produziert Dimethylsulfid (DMS), was zu den Sulfidaerosolen zählt. Auch mikrobiologische Prozesse tragen zum Stoffeintrag in die Atmosphäre bei. Allerdings hat der produzierte Schwefelkohlenstoff (CS2) und
6.9 Arktischer Dunst (Arctic Haze)
Schwefelwasserstoff (H2S) nur eine Verweildauer von 3 bis 4 Tagen beziehungsweise 12 Tagen in der Atmosphäre. Die Menge der schwefelhaltigen Aerosole stammt allerdings nicht aus natürlichen Quellen, sondern ist anthropogen bedingt. Sie stammen aus der Verbrennung von fossilen Brennstoffen. Auch Staub und Rußpartikel, die in der Industrie, im Straßenverkehr und in den Heizsystemen von Haushalten vorkommen, tragen zur Erhöhung der Aerosolkonzentration in der Atmosphäre bei. Die Verweildauer der Aerosole in der Atmosphäre hängt aber nicht nur von ihrer Zusammensetzung ab, sondern auch von den vorherrschenden meteorologischen Bedingungen. Ihre Verweildauer in der Arktis kann aufgrund des geringen Niederschlags bis zu 30 Tage betragen (Fortmann 2004). Die Aerosolquellstärke beträgt im globalen Mittel rund 2–2,5 Gt/Jahr, wobei zu beachten ist, dass auf der Südhalbkugel der Aerosoleintrag aus anthropogenen Quellen ca. ⅓ der natürlichen Emissionen ausmacht, während auf der Nordhalbkugel mit dem fünffachen des natürlichen Emissionseintrags fast 90 % aller anthropogenen Aerosole entstehen.
6.8 Klimawirkung der Aerosole Die Klimawirkung der Aerosole ist abhängig von ihrem Absorptions- und Rückstreuvermögen in Relation zur Oberflächenalbedo. Streuende Aerosole wirken dabei abkühlend über Oberflächen mit geringer Albedo (Wasser), da sie die planetare Albedo erhöhen. Absorbierende Aerosole wirken hingegen erwärmend auf das System Erde – Atmosphäre, da sie über Flächen mit hoher Albedo (Eis, Schnee) die planetare Albedo verringern. Als Beispiel für Aerosole mit kühlender Wirkung kann man die Sulfataerosole anführen. Dieser Kühleffekt wirkt direkt, da diese Aerosole die Sonnenstrahlung bei klarem Himmel in den Weltraum zurückstrahlen. Diese abkühlende Wirkung der Aerosole ist besonders über den Industriegebieten Nordamerikas, Südostasiens, Zentraleuropas sowie an deren Leeseiten zu beobachten. Diese Aerosole stammen aus der chemischen Reaktion von SO2 und aus der Öl- und Kohleverbrennung. Für einen erwärmenden Effekt sind Kohlenstoffpartikel verant-
211
wortlich, welche die einfallenden Sonnenstrahlen absorbieren und die planetare Albedo verringern. Dies geschieht vor allem über Gebieten mit hohen Bodenalbedowerten, was vor allem in den Wüsten Nordafrikas und den polaren Regionen der Fall ist. Mineralische Aerosole, die als Folge von Versteppungsvorgängen in die Atmosphäre gelangen, können erwärmende und kühlende Eigenschaften aufweisen. Sie absorbieren Spektralbereiche zwischen 8 und 14 μm und haben dadurch eine ähnliche Wirkung wie Treibhausgase. Anthropogene Aerosole, so wird vermutet, tragen zu einer Erhöhung der planetaren Albedo bei und wirken dadurch negativ auf den direkten Strahlungsantrieb. Die Aerosolpartikel haben auch Auswirkungen auf die Bildung und die Strahlungseigenschaften von Wolken. Durch die Erhöhung der optischen Dicken der Wolken kommt es zu einer verstärkten Reflexion der Sonnenstrahlung, was einer Erhöhung der planetaren Albedo entspricht. Bei der Wirkung von Aerosolen gibt es zwei verschiedene Effekte: Beim Ersten Twomey Effekt oder ersten indirekten Effekt kommt es bedingt durch eine erhöhte Aerosolzahl zu einer vermehrten Wolkenbildung in der Atmosphäre, was zu einer verstärkten Rückstrahlung der Sonnenstrahlung führt. Der Zweite Twomey Effekt oder zweite indirekte Effekt bewirkt eine Veränderung des Wolkentropfenspektrums hin zu kleineren Tropfen. Dies bewirkt eine längere Verweildauer der Wolken in der Atmosphäre. Dadurch kommt es zu einer Zunahme des Bedeckungsgrades, was eine Veränderung in der atmosphärischen Strahlungsbilanz bedeutet. Außerdem kommt es durch die längere Verweildauer zu einer Verminderung des Niederschlags und damit zu einer Verringerung der Aerosolauswaschung sowie zu einer Veränderung des hydrologischen Kreislaufs. Alleine dieser Wirkungskreislauf verdeutlicht die mannigfaltigen Rückkopplungen bei den aerosolgekoppelten Wolkenbildungsprozessen.
6.9 Arktischer Dunst (Arctic Haze) Obwohl direkte anthropogene Aerosolquellen in der Arktis fehlen, kann man in den Monaten März bis Mai in der gesamten Arktis einen ext-
212
rem hohen Aerosoleintrag messen. Dies ist über der gesamten Arktis zu beobachten und variiert sehr stark räumlich und zeitlich. Die Ausbreitungsformen dieses Aerosoleintrags können sowohl fleckenartig als auch großräumig in stabilen Schichten vorkommen. Die Aerosolschichten können eine horizontale Ausdehnung von 10 bis 1 000 km annehmen. Das vertikale Profil weist eine starke Strukturierung bis zur freien Atmosphäre auf. Die Aerosolkonzentration kann dabei in der Arktis sogar Werte wie über Industriestädten erreichen. Das beschriebene Erscheinungsbild ist seit den 1950er-Jahren als Arctic Haze (Arktischer Dunst) bekannt. Dem Arctic Haze liegen Strahlungsunterschiede zwischen Äquator und Polregionen zugrunde, welche zu Luftmassenbewegungen vom Äquator zu den Polen führen. Wichtigster Faktor bei der Bildung von Arctic Haze ist die Lage der Polarfront, einer baroklinen Zone mit sehr starken horizontalen Temperaturgradienten zwischen tropischen und polaren Luftmassen. Im Sommer befindet sich die Polarfront zwischen 60° N und 70° N, dabei ist die Polarluft weitestgehend isoliert. Im Winter hingegen kommt es zu einer Verlagerung der Polarfront auf 40° N bis 50° N, wodurch die Luftmassen in Kontakt mit Quellgebieten anthropogener Aerosole kommen wie z. B. mit Regionen der amerikanischen oder kanadischen Ostküste, Eurasiens oder Mitteleuropas. Die Transportwege der Aerosole sind oft mit stabilen Hochdruckgebieten im mittleren Atmosphärenstockwerk verbunden, welche vor allem über Mittel- und Osteuropa sowie über Nordamerika liegen. Ihnen zugrunde liegt die starke Abkühlung der Kontinente in den Wintermonaten. Der Arctic Haze ist meist in mehreren, scharf abgegrenzten Schichten entweder unmittelbar unter oder oberhalb einer angehobenen Inversion zu finden oder aber in der Grenzschicht unterhalb einer Bodeninversion. Die optischen Eigenschaften des Arctic Haze wirken überwiegend im Wellenlängenbereich um 0,55 μm des sichtbaren Spektrums. Die vertikal integrierten, optischen Dicken variieren bei 0,5 μm zwischen 0,1 und 0,45 μm. Es sind aber auch optische Dicken von bis zu 0,7 μm beobachtet worden. Mit zunehmender Wellenlänge nimmt die optische Dicke ab. Dies zeigen Messungen im UV- und sichtbaren Bereich. Vor allem im Frühjahr besteht der Arctic Haze zu 75 % aus Sulfataerosolen, die zu
6 Fallstudie Kryosphäre
74 % als SO2 und zu 26 % als Sulfat in die Arktis gelangen. Außer diesen Sulfataerosolen sind Ruß aus den Verbrennungsprozessen der Industriestaaten, Seesalz, Nitrate aus Oxidation von Stickoxiden und sehr geringe Mengen an Mineralien Bestandteile des Arctic Haze. Die schon erwähnten Rußpartikel führen zu einer Absorption der solaren Strahlung. Dies wiederum führt zu einer Erwärmung der Luft um bis zu 1,8 K/ Tag, was eine Absorption im Tagesmittel von 2 bis 20 W/m2 bedeutet. Dies bedingt eine Abschwächung der solaren Einstrahlung um -1 bis -6 W/m2. Zusätzlich führen die Rußpartikel zu extremen Abschmelzprozessen von Eismassen, da sie diese verdunkeln und durch Veränderung ihrer Albedo der Sonne extreme Angriffsflächen bieten. Wichtig sind auch die optischen Eigenschaften der Aerosole. Diese werden vor allem durch ihre chemische Zusammensetzung, ihre Konzentration und die Größenverteilung sowie die relative Luftfeuchtigkeit bestimmt.
6.10 Ozon in der Arktis Das in der arktischen Atmosphäre enthaltene Ozon ist für das dortige Klima und die dort lebenden Organismen von großer Bedeutung. Das Ozon sorgt für eine Absorption eines Großteils der solaren UV-B-Strahlung (λ = 280–315 nm). Wenn dies nicht geschehen würde, könnten die energiereichen Photonen der UV-B-Strahlung erhebliche Schäden in den Organismen hervorrufen, da sie große organische Molekühle wie die DNA oder Proteine zerstören (▶ Kapitel 7, „Fallstudie Klima und Gesundheit“). Für die natürliche Bildung von Ozon in der Atmosphäre sind Sauerstoff und die solare Strahlung von enormer Bedeutung. Das Ozon entsteht fotochemisch durch die Dissoziation von Sauerstoff während der Absorption solarer Strahlung. Die Sauerstoffatome können sich dann an Sauerstoffmolekülen anlagern. Die folgenden Formeln fassen die Prozesse der Ozonbildung kurz zusammen: hν + O2 → O + O O + O2 + m → O3 + M M= Stoßparameter, nimmt überschüssige Energie auf, Wellenlänge λ < 243 nm, hv: kurzwellige solare Strahlung.
6.10 Ozon in der Arktis
Bei Wellenlängen bis λ= 1 200 nm findet natürlicher Ozonabbau statt. hν + O3 → O2 + O O + O3 → O2 + O2 Eine tiefgreifende Beschreibung der chemischen Prozesse findet sich bei Müller 2001. Die Reaktion O + O2 + m → O3 + m wird mit zunehmender Höhe langsamer, wo hingegen die Reaktion hν + O3 → O2 + O mit zunehmender Höhe schneller wird. Das Ozonmaximum befindet sich somit in einer Höhe von etwa 25 bis 35 km. Oberhalb dieser Höhe befindet sich zu wenig Sauerstoff, um Ozon zu produzieren, unterhalb dieser Höhe fehlen die Spektralbereiche der solaren Strahlung, die zur Ozonproduktion benötigt werden. Die Ozonschicht beziehungsweise die Ozonabbauvorgänge sind stark abhängig von der Temperatur. Dies bedingt, dass der Ozonabbau in der Antarktis, wo die Temperaturen niedriger sind, höher ist als in der Arktis (Stratosphärentemperatur als limitierender Faktor). Es wird vermutet, dass die zunehmende Konzentration von Treibhausgasen in der Stratosphäre diese abkühlen wird und somit eine Regeneration des Ozons verhindert. Auch der Ozonabbau selbst kann zu einer Abkühlung führen, was wiederum einen weiteren Ozonabbau nach sich zieht und wiederum eine Abkühlung erzeugt (positiv rückgekoppelt). Es ist zu beobachten, dass in den letzten dreißig Jahren die geographische Ausdehnung niedriger Temperaturen in der arktischen Stratosphäre merklich zugenommen hat. Nach einer Theorie des britischen Mathematikers und Geophysikers Sydney Chapman (1888–1970) aus dem Jahr 1930 entsteht das in der Stratosphäre enthaltene Ozon durch Fotolyse molekularen Sauerstoffs unter dem Einfluss kurzwelliger UV-Strahlung. Die Maximalproduktion des Ozons erfolgt in etwa 30 km Höhe in den Tropen, von wo aus es durch Meridionalzirkulation in Richtung der Pole geleitet wird. Das in der Stratosphäre enthaltene Ozon wird über der Arktis vor allem chemisch durch Reaktionen mit Halogenen abgebaut. Dabei ist Chlor das wichtigste Halogen. Über 80 % des in der Stratosphäre enthaltenen Chlors sind zurzeit anthropogenen Ursprungs. Auch stratosphärische Sulfataerosole spielen beim Ozonabbau eine wichtige Rolle. Zwischen der Tropopause und einer Höhe von etwa 30 km Höhe liegt die nach C. Junge benannte
213
Junge-Schicht. Dies ist eine Aerosolschicht in 16 bis 19 km Höhe, die sogenannte Hintergrundaerosole aus verdünnter Schwefelsäure enthält (Oxidationsprodukte schwefelhaltiger Substanzen aus vulkanischen und biologischen Emissionen). Theoretisch liegt der H2SO4-Gehalt der Aerosole bei Temperaturen von 200 bis 240 K bei rund 60–80 %, wobei sie einen Radius von 0,1 μm aufweisen. Diese Sulfataerosole können entweder durch eine heterogene Reaktion Chlor aktivieren und damit einen katalytischen Ozonabbau initiieren oder sie dienen als Kondensationskeime, die in Verbindung von Wasser und HNO3 polare Stratosphärenwolken (PSC) bilden. Diese Stratosphärenwolken bilden sich vor allem im Winter. Sie sind zwar nicht direkt für den Ozonabbau verantwortlich, tragen aber bedingt durch die Aktivierung von Reservoirgasen dazu bei, dass Chlor freigesetzt wird und dieses das Ozon zerstört. Die Wahrscheinlichkeit, dass sich PSC bilden ist umgekehrt proportional zur Temperatur. Bei Temperaturen oberhalb von 196 K liegt sie bei rund 10 %, bei Temperaturen zwischen 193 und 185 K liegt sie schon bei 45 % und bei Temperaturen unter 185 K liegt die Wahrscheinlichkeit, dass sich PSC bilden bei mehr als 90 %. Dies verdeutlicht die Funktion der zukünftigen Temperaturausprägung der Stratosphäre für den Ozonabbau in der Arktis. Aktuell werden folgende PSC-Typen beobachtet:
• Bei niedrigen Temperaturen unter 200 K beginnen die flüssigen H2NO4-Tröpfchen aus der Junge-Schicht Wasser und HNO3 aufzunehmen, wachsen dadurch massiv an und sind als PSC-Typ Ib mit einem LIDAR (Lasermessung) detektierbar. • Bei weiterer Temperaturabnahme bilden sich Eiskristalle im Tröpfchen, die bei ausreichender Größe des Eiskeimes zum vollständigen Durchfrieren führen können. Durch Erstarren von NAT (Salpetersäuretrihydrat) aus der Gasphase (-78 °C ~ TNAT) entstehen feste NATPartikel, die als PSC-Typ Ia bekannt sind. • Bei geringerer Größe des Eiskeims sind die Tröpfchen oberhalb des Eisgefrierpunkts (TSTS) wieder komplett flüssig und existieren unterhalb von TSTS als PSC-Typ Ib. Wenn die Temperaturverhältnisse entsprechend sind, können durch Wachstum von Eiskeimen in
214
den Partikeln auch Mischungen der PSC-Typen Ia und Ib entstehen. • Unterhalb des Eisgefrierpunkts können sich Wassereiskristalle bilden, und der optisch dichtere PSC-Typ II entsteht. Die Wolken bilden Oberflächen für heterogene Reaktionen. Durch diese Reaktionen wird das in den Reservoirgasen gebundene Chlor an den PSC-Partikeln wieder freigesetzt: ClONO2 + HCl → Cl2 + HNO3 ClONO2 + H2O → HOCl + HNO3 HOCl + HCl → Cl2 + H2O Das so entstandene molekulare Chlor (Cl2) wird zum Ende der Polarnacht durch wieder einstrahlende Solarstrahlung fotolysiert. Das dabei entstehende Chlorradikal kann dann das Ozon weiter zerstören: Cl + O3 → ClO + O2 O3 + h ν → O2 + O ClO + O → Cl + O2 Es gibt dabei zwei wesentliche Wirkungsunterschiede der PSC: Flüssige PSC-Tröpfchen sind für die chemische Reaktion der Chloraktivierung und Stickstoffdeaktivierung verantwortlich, welche durch flüssige Phasen katalysiert werden. Hingegen sind die festen Partikel für Denitrifizierungs- und Dehydrierungsvorgänge durch Absinkeffekte in der Stratosphäre zuständig. Unter Denitrifizierung versteht man die Entfernung von Stickoxidverbindungen aus einer Luftschicht durch Sedimentation. Dieser Vorgang ist irreversibel und fördert den katalytischen Ozonabbau durch Halogene. Dieser Ozonabbau kann in denitrifizierten Schichten besonders effektiv funktionieren. Normalerweise findet dieser Vorgang in der Antarktis statt, da dort die Temperaturen so niedrig sind, dass PSC vom Typ II existieren können, was in der Arktis hingegen nur selten vorkommt. Allerdings wurde auch in der Arktis eine Denitrifizierung beobachtet und man geht davon aus, dass auch große PSC-Teilchen vom Typ Ia für die Denitrifizierung verantwortlich gemacht werden können. Hingegen versteht man unter Dehydrierung die irreversible Entfernung von Wasser aus bestimmten Luftschichten. Dies kann nur bei Temperaturen unterhalb des Eisgefrierpunkts stattfinden, da für das Entfernen des Wassers aus den
6 Fallstudie Kryosphäre
Luftschichten die Eispartikel des PSCTyps II verantwortlich sind. Dies zeigt sich auch darin, dass in der Arktis nur selten Dehydrierung stattfindet, wobei in der Antarktis dieser Vorgang regelmäßig zu beobachten ist. Ozonverlust findet vor allem in den Jahren statt, in denen sich sehr stabil ausgeprägte Polarwirbel bilden und die Temperaturen um TNAT liegen, wodurch sich PSC bilden können. Wenn diese Temperatur nicht unterschritten wird, kann kein Ozonabbau beobachtet werden. Daraus lässt sich folgern, dass der Ozonabbau auch von PSCVorkommen abhängig ist. Für einen deutlichen Ozonabbau sind Temperaturen unterhalb von TNAT (-4 K) erforderlich. Bei Temperaturen oberhalb von -78 °C tritt kein signifikanter Ozonabbauprozess auf. Zwischen -82 und -78 °C finden nur in einigen Wintern signifikante Ozonabbauvorgänge statt. Es ist also herauszustellen, dass Ozonabbau nur durch das Zusammenspiel von Aerosolen, PSC-Bildung und vorhandener solarer Strahlung stattfinden kann. Allgemein ist zu beobachten, dass die höchsten Ozonverlustraten bei denjenigen Luftmassen mit den niedrigsten Tmin-Werten auftreten. Oberhalb von etwa 195 K (-78,15 °C) treten kaum noch signifikante Ozonverlustraten auf. Im Tmin-Bereich zwischen 191 K (-82,15 °C) und 195 K ist nur in einigen Wintern hoher Ozonverlust zu verzeichnen, während in anderen Wintern kein signifikanter Ozonabbau nachzuweisen ist. Für Tmin-Werte unterhalb von 191 K ist dagegen ausnahmslos in allen Wintern, in denen diese Werte vorkommen, deutlich signifikanter Ozonverlust zu erkennen (Schulz 2001) Dies bedeutet also, dass die Temperaturschwelle für Ozonabbau nicht genau bei TNAT liegt, sondern erst bei Temperaturen von -4 K unterhalb von TNAT, wobei dann allerdings in jedem Fall deutlicher Ozonabbau stattfindet.
6.11 Der Arktische Ozean Die Topographie des Arktischen Ozeans bilden hauptsächlich Schelfmeere mit einer Tiefe von etwa 200 Metern und teilweise über 4 000 Meter tiefe Becken. Schelfe sind die Barentssee, die Karasee, die Laptewsee, die Ostsibirische See, die Tschuktschensee und schließlich das Beau-
215
6.11 Der Arktische Ozean
fortschelf. Ihnen stehen das Kanada-Becken, das Makarow-Becken, das Amundsen-Becken und das Nansen-Becken mit großen Meerestiefen gegenüber. Die beiden erstgenannten Becken werden auch zum Kanadischen Becken und die beiden letztgenannten zum Eurasischen Becken zusammengefasst. Zwischen diesen Beckensystemen befindet sich der Lomonossow-Rücken mit einer Satteltiefe von 1 400 bis 2 000 Metern. Die Framstraße stellt die größte und mit 2 600 Metern Wassertiefe auch die tiefste Verbindung des Nordpolarmeers zum Europäischen Nordmeer dar. Zum Atlantik gibt es zwar eine direkte, aber nur sehr flache Verbindung durch die Kanäle des Kanadischen Archipels. Hier kann nur ein Austausch der maximal 200 Meter tiefen oberen Schichten stattfinden. Die Verbindung zum Nordpazifik ist die Beringstraße. Mit einer Tiefe von 50 Metern und einer Breite von 85 Kilometern ist hier auch nur ein kleiner Wasseraustausch möglich. Eine weitere große Wasserquelle des Arktischen Ozeans sind Flüsse. Obwohl diese Wasserquelle nur ein Prozent des weltweiten Volumens der Meere ausmacht, fließen zehn Prozent des weltweiten Flusseintrags in den Arktischen Ozean. Dies hat große Auswirkungen
auf die Schichtung der Wassermassen und die Bildung von Meereis. Durch die Beringstraße gelangt ebenfalls frisches, gering salzhaltiges Wasser in die Arktis. Im Nordpolarmeer wird zwischen drei Hauptwassermassen unterschieden, die auch drei Schichten darstellen. Die erste Schicht ist das Oberflächen-/Haloklinenwasser bis zu einer Tiefe von 200 Metern. Die Temperaturen liegen nah am Gefrierpunkt, der durch das gelöste Salz bei unter 0 °C liegt. Der Salzgehalt liegt zwischen 28 psu (practical salt units) in der Beaufortsee und 31 psu nahe des Nordpols. Die zweite Hauptwassermasse ist das atlantische Wasser in einer Tiefe von 200 bis zu 1 000 Metern. Im Gegensatz zum Oberflächenwasser liegt die Temperatur über 0 °C. Der Salzgehalt ist ebenfalls erhöht und liegt bei 34,5 psu. Das Tiefen- und Bodenwasser befindet sich unterhalb von 1 000 Metern. Die Temperatur nimmt mit der Tiefe ab und kann bis auf -1 °C absinken. Der Salzgehalt liegt dabei mit einem Wert von 35 psu nur leicht höher als beim atlantischen Wasser. Diese Schichtung ist sehr stabil, da sie auf der Salinität basiert. Das Oberflächen- und Haloklinenwasser hat eine deutlich geringere Salinität und daher eine geringere Dichte. Der deutliche
1
3 2
6.4 Zirkulation im Arktischen Ozean. 1: Antizyklonale Zirkulation im Arktischen Becken, 2: Transpolardrift, 3: Ostgrönlandstrom. Angabe der Oberflächengeschwindigkeit in km/h (Quelle: Bobylev et al. 2004).
216
6 Fallstudie Kryosphäre
Anstieg der Salinität mit der Tiefe verleiht der Schichtung weitere Stabilität. So wird die vertikale Konvektion blockiert, was vor allem dafür sorgt, dass die Temperatur in der oberen Schicht nahe am Gefrierpunkt bleibt und nicht durch das atlantische Wasser erwärmt wird. Der einzig mögliche Weg zum Wärmeaustausch ist die Konduktion, die nach heutigem Kenntnisstand allerdings nicht sehr effizient ist. Der Atlantische Strom bringt warmes Wasser durch die Framstraße und die Barentssee in das Nordpolarmeer. Dabei sinkt es unter salzarmes und weniger dichtes Polarwasser ab. Durch diesen Prozess entsteht der Nachschub für das atlantische Wasser. Im Zentrum des Nordpolarmeers ist die Oberflächenzirkulation durch die Transpolardrift und den antizyklonalen Beaufortwirbel bestimmt. Die Transpolardrift reicht von den sibirischen Schelfmeeren bis zur Framstraße. Durch die Fram-Straße zum europäischen Nordmeer führt der Ostgrönlandstrom. Ursache dieser Ströme ist der atmosphärische Antrieb (▶ Kapitel 2). Der atmosphärische Einfluss wird vor allem beim Beaufortwirbel deutlich. Dieser schwankt zwischen Jahren mit zyklonalen und antizyklonalen Regimen. Ursache sind Wechsel von Position und Intensität des Islandtiefs und des sibirischen Hochs. Ein ausgeprägter Beaufortwirbel ist in antizyklonalen Jahren vorhanden. In Phasen eines zyklonalen Regimes wird dieser stark abgeschwächt und dicht an die nordamerikanische
Küste gedrängt oder sogar durch ein zyklonales Strömungsmuster ersetzt. Die Tiefenzirkulation findet vor allem in den Bereichen der Arktischen Becken, der Framstraße und der Barentssee statt. Nur hier ist der Arktische Ozean tief genug. Eine freie Zirkulation ist nicht gegeben, da der Lomonossow-Rücken diese unterbindet. Eine Quelle für nordatlantisches Tiefenwasser (NADW) befindet sich im Meer vor Grönland, Island und Norwegen. Das Wasser aus dem Nordatlantik kühlt hier ab und sinkt aufgrund steigender Dichte tiefer. Im Gegensatz zum Arktischen Ozean gibt es im Nordatlantik kaum Unterschiede in der Salinität. So findet eine sehr tief reichende Konvektion statt, durch die kühles Wasser nicht nur unter das arktische Oberflächenwasser sinken kann, sondern auch Tiefen unterhalb von 1 000 Metern erreicht. Dieses NADW fließt zum Großteil nicht in den Arktischen Ozean, sondern zurück in den Nordatlantik. Das Absinken führt außerdem zu einem Ausgleichprozess, der warmes Wasser aus südlicheren Regionen herbeiführt (AMOC).
6.12 Eis in der Arktis Am Ende des Winters (Ende März) sind im Mittel 15 × 106 km2 der Arktis mit Eis bedeckt, während im Sommer ein Großteil abschmilzt und im
Lena Yenisey
Sibirien
Russland Ob
Laptevsee Kara-See BeringStraße
Chukchisee
Skandinavie
6.5 Oberflächenströme (schraffierte Pfeile) und Tiefenströme (dünne Pfeile) in der Arktis sowie Lage der vier größten arktischen Zuflüsse (Ob, Yenisey, Lena und Mackenzie). Schummerung korrespondiert mit der Meerestiefe (Quelle: Bobylev et al. 2004).
n
Barentssee
Alaska Mackenzie Beaufortsee
Kanada Oberflächenströme
Grönland Tiefenströme
Norwegische See Grönländische See
Meerestiefe
6.12 Eis in der Arktis
September nur noch eine Fläche von 7 × 106 km2 eisbedeckt ist. Das Eis in der Arktis entsteht durch Gefrieren des Meerwassers und Akkumulation von Schnee auf dem Eis. Das Meereis ist 12 % leichter als Wasser, sodass sich 88 % des Eises unter dem Meeresspiegel befinden. In der Arktis werden drei verschiedene Eisarten nach Alter und Genese unterschieden:
• Im ersten Jahr bildet sich eine dünne Schicht gefrorenen Meerwassers, das FirstYear Ice (FYI). Seine Dicke ist geringer als zwei Meter. • Übersteht das FYI-Eis einen Sommer und wächst in den nächsten Jahren an, so spricht man vom Multiyear Ice (MYI). • Der dritte Typ ist das Ridged Ice (Packeis), das ebenfalls ein mehrere Jahre altes Eis ist. Im Gegensatz zum MYI weist es Verformungen und Kompressionen auf. Neben den Eistypen gibt es noch das offene Meer. Der Hauptteil der arktischen Eisproduktion findet in Bereichen des offenen Meeres und des dünnen Eises statt. Im Winter finden sich ideale Bedingungen, die ein Wachstum von im Durchschnitt 0,15 Meter am Tag ermöglichen. Das FYI macht so etwa 40 % der gesamten Eisfläche aus. Im Gegensatz zu der Ausbreitung lässt sich die Dicke des Eises nur sehr schwer mit Fernerkundungsmethoden via Satellit erfassen. So liegen die meisten Daten nur kleinräumig und vor allem nicht kontinuierlich vor, da der Großteil der Daten von U-Booten mit aufwärts gerichtetem Sonar gesammelt wird. Erst seit 2005 gibt es dank des NASA-Satelliten ICEsat (▶ Abschnitt 1.3.2) mehr Daten über die Eisdicke, die in der westlichen Arktis durchschnittlich 3 bis 5 Meter beträgt (Sönderkvist 2003). Neben einzelnen Stellen, an denen sich über 50 Meter dickes Packeis befindet, ist das Eis an der nördlichen Küste Kanadas und Grönlands aufgrund der Kompression durch den Beaufortwirbel und der daraus folgenden Eisdrift mit sechs bis acht Metern am dicksten. Beim Gefrieren des Meerwassers verbleiben nur 15 % des im Wasser gelösten Salzes im Eis. Der Rest wird ins Meer abgegeben. Innerhalb weniger Wochen gelangt auch das restliche Salz aus dem Eis zurück ins Meer. Dies führt zu einem unmittelbaren Anstieg der Salinität in Gebieten mit Eisbildung (Prange 2003). Im Sommer ist die Salinität durch den hohen Frischwassereinfluss im Arktischen Ozean am geringsten und die Schichtung am sta-
217
bilsten. Im Herbst kühlt das Oberflächenwasser relativ schnell ab, da durch die stabile Schichtung keine Konvektion stattfindet und so nur die ersten 200 Meter abgekühlt werden. Dies ermöglicht schnelles Eiswachstum. Ebenfalls begünstigt ist das Wachstum durch die geringe Salinität und den dadurch höheren Gefrierpunkt im Vergleich zum durchschnittlichen Meerwasser mit einem höheren Salzgehalt. Das arktische Meereis ist in einem Zustand der dauerhaften Bewegung. Davon ausgenommen ist das Eis in Küstennähe. Das Meereis driftet vor allem im Beaufortwirbel und durch die Transpolardrift entlang der Meeresströmungen. Eine Umdrehung im Beaufortwirbel dauert fünf bis zehn Jahre, während es sich nur maximal drei Jahre in der Transpolardrift befindet. Der Hauptteil des Eises, welches das Nordpolarmeer verlässt, gelangt durch die Framstraße bis zum Ostgrönlandstrom und schmilzt im Nordatlantik. Diesen Weg gehen 20 % des gesamten arktischen Eises pro Jahr. Das MYI macht mit 80 % davon den Haupteistyp aus. Der Prozess des Gefrierens und Schmelzens ist gleichzeitig ein Transport negativer latenter Wärme. Bei der Bildung des Eises wird Wärme freigesetzt und für das Schmelzen Wärme verbraucht. So hat das Abschmelzen der Eisberge im Nordatlantik vor Grönland einen Kühleffekt. Die Eisbedeckung hat mehrere Eigenschaften, die Auswirkungen auf den Ozean und das Meer haben. Meereis hat eine Albedo von 0,6 % und bei Bedeckung mit Neuschnee von 0,9 %. Eine freie Wasserfläche weist einen Albedowert von 0,1 % auf. So bewirkt das Meereis im Sommer eine hohe Reflexion und absorbiert wenig Strahlung – im Gegensatz zu den freien Ozeanflächen, bei denen 90 % der einfallenden Strahlung zur Erwärmung beitragen. Im Winter hat die Eisfläche ein hohes Isolationsvermögen und schützt so den darunterliegenden Ozean vor der kalten Atmosphäre. Durch die geringe Eisdicke von höchstens einigen Metern ist das arktische Eis sehr empfindlich gegenüber Klimaschwankungen und anderen Einflussgrößen. Wie bereits eingangs erwähnt, ist das Meereis nicht einseitig an die kalten Lufttemperaturen gebunden, sondern in seiner Bildung durch mehrere Faktoren bedingt. Die Eigenschaften von Meereis als Isolator zwischen Meer und Atmosphäre sowie der hohe Reflexionsgrad machen es zu einem
218
Hauptfaktor des Klimawandels. Eine Änderung der Eisbedeckung hat unmittelbare Folgen für den Arktischen Ozean durch Änderung seiner Struktur. Aufzeichnungen der Ausdehnung des arktischen Eises sind seit dem frühen 20. Jahrhundert vorhanden und mit Ausnahme der Zeit des Zweiten Weltkriegs durchgehend verfügbar. Die Meereisbedeckung betrug 8 988 000 km2 im Jahr 1918 und sank auf 7 925 000 km2 im Jahr 1990. Allerdings entspricht der Rückgang des Eises nicht einer linearen Funktion. Im 20. Jahrhundert gab es zwei Phasen mit Zunahme der Eisbedeckung in den Jahren 1900–1918 und 1939–1968. Demgegenüber stehen zwei Phasen mit einer Abnahme der Eisbedeckung in den Zeitintervallen 1918–1939 und 1968–1999. Die Ostgrönland- und Barentssee sind die Regionen des Arktischen Ozeans mit den größten Schwankungen in der Meereisbedeckung. Die erste Kältephase zu Beginn des 20. Jahrhunderts führte zu Klimaverhältnissen, die man seitdem in der Arktis nicht wieder beobachten konnte. Niedrige Wasser- und Lufttemperaturen führten zu einer hohen Eisausdehnung. Der Übergang zu der zweiten, wärmeren Phase passierte sehr schnell. Zwischen den ersten beiden Phasen herrschte ein Temperaturunterschied von 1 °C. Dieser Temperaturanstieg führte zu einem Zurückweichen des Meereises – an manchen Stellen um 100 Kilometer nach Norden, was z. B. an der sibirischen Küste zu einer in den späten 1930er- und frühen 1940er-Jahren im Sommer eisfreien Route vom Nordmeer bis zur Beringstraße führte. Die dritte Phase brachte eine Abkühlung um bis zu 4 °C, was wiederum eine Zunahme der Eisdicke bedeutete. Dies war zunächst im Bereich der Beringstraße und erst Jahre später auch im Bereich von Grönland zu beobachten. Die vierte Phase zeigt erst eine kleine Abnahme der Eisausbreitung, die Anfang der 1990er-Jahre plötzlich in einem viel stärkerem Maße auftritt. Vor allem in Nähe des Nordatlantiks wich das Eis zurück. In der Barentssee nahm die eisbedeckte Fläche von 220 000 km2 im Jahr 1989 auf 97 000 km2 innerhalb eines Jahres ab. Ebenso stark verschwanden die Eisflächen in der Ostgrönlandsee und der Ostsibirischen See. Die Eisausbreitung hatte bis 1990 ein Minimum für das gesamte 20. Jahrhundert erreicht. Neben dem dünnen Eis verschwindet vor allem auch das mehrjährige Eis und führt zu einer Abnahme der Eisdicke. Allerdings gibt es Probleme bei der
6 Fallstudie Kryosphäre
flächenhaften Bestimmung der Eisdicke, sodass unterschiedliche Angaben zu finden sind. Die Abnahme wird auf bis zu 40 % geschätzt. Weiterhin sind bei der Eisdicke die Kompaktion und Packeisbildung starke Einflussgrößen, die nicht jedes Jahr in den gleichen Regionen stattfinden und somit zu fehlerhaften Interpretationen führen können. Die Hauptgefahr des arktischen Eises ist die Erwärmung des atlantischen Wassers. Diese Erscheinung ist weder kurzzeitig noch zufällig und wurde über dem gesamten Arktischen Becken festgestellt. Gleichzeitig steigt die Schicht des atlantischen Wassers näher zur Oberfläche. Auf der anderen Seite steigt die Salinität im Oberflächenwasser an und führt zu einer Abnahme der vertikalen Salinität. Doch gerade diese vertikale Salinität verhinderte die tief reichende Konvektion im Ozean. Falls sich diese Prozesse über weite Teile des Arktischen Ozeans erstrecken und das warme atlantische Wasser bis zur Oberfläche steigt, wird dies zur größten Beeinträchtigung der Meereisbildung führen. Neben einem Abschmelzen des Eises hätte dieser Effekt auch weitreichende Folgen für die Tiefenwasserneubildung und die Schichtung im Nordatlantik. Ein Anstieg der Salinitätsunterschiede könnte zur Verlangsamung (im Extremfall Blockierung) der tief reichenden Konvektion führen. Das Abschwächen warmer Ausgleichsströme würde in Folge eine Abkühlung des Nordatlantiks zur Folge haben. Die einzelnen Ausführen zur arktischen Atmosphäre, Meereisbildung und Ozeanströmung verdeutlichen den hohen Grad an Vernetzung zwischen den einzelnen Sphären und ihren Reglermechanismen. Im Folgenden werden die wichtigsten wissenschaftlichen Aussagen zur allgemeinen Entwicklung der Kryosphäre und ihren Veränderungen zusammengefasst (Stand: IPCC-Report 2007 sowie eigene Literaturrecherche bis Dezember 2008):
• Zurzeit bedecken permanente Eisflächen noch etwa 10 % der gesamten Landfläche. Nur ein kleiner Teil davon liegt außerhalb von Antarktika und Grönland. • Im Jahresmittel bedeckt Meereis die Ozeane weltweit zu 7 %. • Die Ausdehnung der Schneedecke im Winter beträgt im Durchschnitt 49 % der Landoberfläche der Nordhalbkugel.
219
6.12 Eis in der Arktis
• Zu den wichtigsten Eigenschaften von Schnee-
• •
•
•
•
und Eisflächen gehört ihre hohe Oberflächenalbedo (90 % der einkommenden Strahlung wird reflektiert). Nur 10 % der Strahlung werden von offenen Wasserflächen oder bewaldeten Landflächen reflektiert. Veränderungen der Schnee- und Eisflächen bilden daher wichtige Feedback-Mechanismen im zukünftigen Klimawandel. Schnee- und Eisflächen sind auch wirksame Isolatoren. Saisonal gefrorene Flächen haben einen größeren Effekt auf den Energie- und Feuchtehaushalt als schneebedeckte Flächen. Deshalb spielen sie eine wichtigere Rolle für den Energiehaushalt der Erde. Die Kryosphäre speichert rund 75 % der Süßwasserreserven der Erde. Im regionalen Maßstab spielen Variationen der Schneebedeckung in den Gebirgen, der Gebirgsgletscherbilanzen und kleinen Eiskappen eine große Rolle für die Verfügbarkeit von Süßwasser. Seit dem dritten IPCC-Bericht (TAR) von 2001 konnten ein Rückgang der meisten Gebirgsgletscher, eine Abnahme der Schneedeckenausbreitung, eine Veränderung der Permafrostgebiete, ein Rückgang der arktischen Meereisausdehnung sowie die Ausdünnung des küstennahen grönländischen Eisschildes festgestellt werden. Die Schneebedeckung ist in den meisten Regionen der Erde insbesondere im Frühjahr rückläufig. Die nordhemisphärische Schneedeckenausdehnung nimmt auf Basis von Satellitenuntersuchungen (1966–2005) in den meisten Monaten (Ausnahme November/Dezember) ab. Der Verlust liegt bei etwa 5 % im jährlichen Mittel seit den 1980er-Jahren. Auf der Südhemisphäre zeigen wenige Langzeitaufzeichnungen beziehungsweise ProxyDaten entweder einen Rückgang der Schneedecke oder nur geringe Veränderungen für die letzten 40 Jahre. Auf der Nordhemisphäre korreliert die Ausdehnung der Schneedecke im April sehr stark mit der Temperaturausprägung in einem Breitenbereich 40° bis 60° N und zeigt einen starken Feedback-Mechanismus zwischen Schneedeckenausdehnung und Temperatur. Jährliche Zeitreihen der Schneemächtigkeit und das daraus ableitbare Schnee-WasserÄquivalent zeigen eine deutliche Abnahme.
•
•
•
•
•
Die Schneedecke in Gebirgen reagiert dabei sehr sensibel auf geringfügige Temperaturveränderunen. Das Schnee-Wasser-Äquivalent hat an 75 % der Stationen in Nordamerika seit 1950 abgenommen. Der Temperaturbereich im Gebirge, bei dem sich Schnee bilden kann, hat sich weltweit nach oben verschoben. Die Permafrostgebiete und die Gebiete mit saisonal gefrorenem Boden zeigen große Veränderungen in den letzten Jahrzehnten. Die Temperaturzunahme im oberen Bereich der Permafrostschichten liegt bei etwa 3 °C seit 1980. Die Erwärmung der Permafrostschichten ist dokumentiert für die kanadische Arktis, Sibirien, das tibetanische Hochplateau und Teile Nordeuropas. Nach dem IPCC-Report 2007 taut der Permafrost in Alaska mit einer Rate von 0,04 m/Jahr und auf dem tibetanischen Hochplateau von 0,02 m/Jahr. Die maximale Fläche, die von oberflächlich gefrorenem Boden eingenommen wird, schrumpfte auf der Nordhemisphäre um im Mittel 7 % seit der zweiten Hälfte des 20. Jahrhunderts (in den Frühjahrsmonaten sogar um 15 %). Die durchschnittliche maximale Dicke des gefrorenen Bodens hat seit Mitte des 20. Jahrhunderts um 0,3 m abgenommen. Die maximale Auftautiefe hat gleichzeitig in der russischen Arktis um 20 cm (Zeitraum 1956– 1990) zugenommen. 150-jährige Eis-Zeit-Reihen der Flüsse und Seen zeigen ein im Mittel um 5,8 ± 1,9 Tage/ Jahrhundert verspätetes Gefrieren sowie ein im Mittel um 6,5 ± 1,4 Tage/Jahrhundert verfrühtes Auftauen des Eises an. Die alljährliche mittlere Meereisausdehnung der Arktis hat seit 1970 um 2,7 ± 0,6 %/Dekade abgenommen (seit 1978 belegt durch Satellitenbeobachtungen). Die Abnahme der Sommerausdehnung ist stärker als die der Winterausdehnung. Für die Antarktis sind keine konsistenten Trends basierend auf Satellitenbeobachtungen bis heute nachgewiesen. Im Gegensatz zu den kontinentalen Eismassen (Schilde und Gebirgsgletscher) führt das Abtauen der Meereismassen nicht direkt zur Erhöhung des Meeresspiegels, wohl aber zur Einfütterung von zusätzlichem Süßwasser in den Ozean. Während des 20. Jahrhunderts haben die meisten Gletscher und Eisschilde einen erheb-
220
lichen Massenverlust erlitten und zum Meeresspiegelanstieg beigetragen. Der Massenverlust weltweit (ohne die Eisschilde Grönlands und Antarktikas) trug zu einem geschätzten Meeresspiegelanstieg von 0,5 ± 0,18 mm/Jahr SLE (Sea Level Equivalent) zwischen 1961 und 2003 bei. Zwischen 1991 und 2003 entsprach er sogar 0,77 ± 0,22 mm/Jahr SLE. • Der grönländische und antarktische Eisschild haben mit großer Sicherheit zum Anstieg des Meeresspiegels in jüngster Zeit beigetragen. Der grönländische Eisschild schrumpfte zwischen 1993 und 2003 vor allem an seinen Rändern, wobei es in zentralen Bereichen Grönlands zur Verstärkung des Eisschilds kam. Die Massenbilanz des grönländischen Eisschilds zeigt nach den besten Schätzungen für diesen Zeitraum einen Verlust von –50 bis –100 Gt/
6 Fallstudie Kryosphäre
Jahr. Dies entspricht einem Anteil von etwa 0,14 bis 0,28 mm/Jahr am globalen Meeresspiegelanstieg. Es bestehen größere Unsicherheiten für frühere Zeiträume und für die Eismassen Antarktikas. Die Bewertung aller verfügbaren Datenbestände für die Antarktis bezogen auf den Zeitraum 1961–2003 ergeben eine deutliche Schwankung in der Massenbilanz, die zwischen Wachstum (100 Gt/Jahr) und Verlust (200 Gt/Jahr) pendelt. Dies hat für den globalen Meeresspiegel eine Absenkung von –0,27 mm/Jahr SLE beziehungsweise einen Anstieg von +0,56 mm/Jahr SLE zur Folge. Die zuletzt untersuchte Dekade (1993–2003) ergibt eine Schwankungsbreite der Massenbilanz in der Antarktis von +50 bis –200 Gt/Jahr, was einem Anteil am Meeresspiegelanstieg von –0,14 bis +0,55 mm Jahr/SLE entspricht.
Fallstudie Klima und Gesundheit
Die menschliche Gesundheit wird von allen Bereichen des globalen Umweltwandels beeinflusst und besitzt eine allgemeine Sensitivität gegenüber den vielfältigen Antrieben des Klimawandels. Von den meisten Gesellschaftssystemen weltweit wird die Gesundheit des Menschen als schützenswertes Gut anerkannt. Darüber hinaus lässt der Gesundheitszustand der nationalen Bevölkerung auf den Entwicklungsstand des jeweiligen Staates schließen und kann zusätzlich als Indikator für die mögliche Beeinflussung durch klimatische Veränderungen herangezogen werden. Auch für den Index der menschlichen Entwicklung (Human Development Index, HDI), ein aus verschiedenen Komponenten zusammengesetzter Indikator für den wirtschaftlich-sozialen Fortschritt eines Landes, spielt die Gesundheitsbewertung (Lebensdauer) eine zentrale Rolle. Von den vielfältigen Beeinflussungen des Klimawandels auf die Gesundheit sind global insbesondere die Krankheiten Unterernährung, Durchfall (meist durch unsaubere Nahrungsmittel- und Wasserversorgung verursacht), Krankheiten durch Überflutungen und Malaria zu nennen. Allein diese vier genannten Krankheiten verursachen eine Gesundheitsbeeinträchtigung von 5,5 Millionen DALY (Disability-adjusted Life Years). Diese Schätzung nach Campbell-Lendrum et al. (2003) stellt den weltweiten Verlust von gesunden beziehungsweise produktiven Lebensjahren (DALY) dar. Dieses Summenmaß wurde eingeführt, um die gesamte gesundheitliche Beeinträchtigung einer Bevölkerung (frühzeitiger Tod, Krankheit oder Behinderung) zu erfassen (WHO 2004). Bei der räumlichen Betrachtung von DALY zeigen sich große regionale Unterschiede (Abbildung 7.1). Die größte Gesundheitsbeeinträchtigung tritt in den Regionen auf, die die größte Beeinträchtigung bei gleichzeitig stärkstem Bevölkerungswachstum aufweisen. Es sind dies die Gebiete Afrikas südlich der Sahara sowie Südasiens.
3500 DALYs/Millionen Menschen
7
3000 2500 2000 1500 1000 500 0
Afrika
Südost- östlicher LateinRegion entwickelte asien Mittelmeer- amerika westlicher Länder raum und Karibik Pazifik
7.1 Geschätzte Wirkung des Klimawandels auf die Gesundheit in DALY im Zeitraum 1990–2000 bezogen auf vier Krankheiten (Unterernährung, Durchfall, Krankheiten durch Überflutungen, Malaria) (Quelle: CampellLendrum 2003, WBGU 2003).
Nach der Weltgesundheitsorganisation (WHO) werden die Gesundheitsschäden weltweit auf direkte und indirekte Gesundheitswirkungen zurückgeführt. Direkte Gesundheitswirkungen sind vor allem Effekte extremer Wetterereignisse (z. B. Hitzewelle 2003 mit starken Herz- und Kreislauferkrankungen, Asthma) und wetterbedingte Katastrophen wie Überschwemmungen im Küstenbereich oder an großen Flusseinzugsgebieten. Die Überschwemmungen führen nicht nur zu direkten Beeinträchtigungen bei Mensch und Tier, sondern schädigen die Infrastruktur und führen so zur Beeinträchtigung der Gesundheitsversorgung (z. B. durch Erdrutsche bedingte Zerstörung von Straßen- und Kommunikationssystemen). Ein entscheidendes Element der Anpassungsfähigkeit an den Klimawandel wird dadurch geschwächt. Weitaus größere Gesundheitsschäden entstehen allerdings durch die indirekten Gesundheitsauswirkungen wie die z. B. durch Vektoren (Mücken, Zecken, Fliegen) übertragenen Infektionskrankheiten (Malaria, Denguefieber). Die WHO geht
222
davon aus, dass bis zum Jahr 2080 260–320 Millionen Menschen zusätzlich der Malaria ausgesetzt sein werden. In anderen Regionen könnte die Malariaexposition durch den Klimawandel auch zurückgehen. Ein großes Problem ist die mögli-
7 Fallstudie Klima und Gesundheit
che Einwanderung der Malaria in neue Gebiete (nichtendemische Malariagebiete), da die Bevölkerung dort immunologisch ungeschützt ist. Auch Denguefieber oder die durch Zecken übertragene Hirnhautentzündung sind Vektor-übertragene In-
Das DALY-Konzept Die Abkürzung des Vergleichsmaßes DALY steht für Disability-adjusted Life Years beziehungsweise Disease-adjusted Life Years und wird im Bereich der Medizin, der Soziologie und Ökonomie verwendet. Das DALY-Konzept wurde erstmals 1993 von der Weltbank in ihrem Weltentwicklungsbericht (World Development Report) präsentiert. Mit diesem Konzept soll die Bedeutung verschiedener Krankheiten für den Entwicklungsstand einer Gesellschaft gemessen werden. Auch soll die Effizienz von Vorbeugung und Behandlung messbar werden. Mit DALY soll nicht nur die Sterblichkeit sondern auch die Beeinträchtigung des normalen, beschwerdefreien Lebens durch eine Krankheit erfasst und in einer Maßzahl summiert betrachtet werden. Die Zahl der verlorenen Lebensjahre durch vorzeitigen Tod wird mit dem Verlust an Lebenszeit durch Behinderung kombiniert. Die Globale Krankheitslast-Studie (Global Burden of Disease, GBD) entwickelte für das Maß „Lebensqualität“ einen negativen Behinderungsindex, der bei hohen Werten eine niedrige Lebensqualität beschreibt: das behinderungsadjustierte Lebensjahr (Disability-adjusted Life Year, DALY). Ein besonderer Vorteil ist der mögliche länder- und kulturübergreifende Vergleich. DALY misst Gesundheitslücken und beschreibt den Unterschied zwischen einer tatsächlichen Situation und einer idealen Situation, in der jede Person bei voller Gesundheit bis zu dem Alter lebt, das den Standardwerten der Lebenserwartung entspricht. Eine global geltende Standardlebenserwartung ist, basierend auf Sterbetafeln bei der Geburt, mit 80 Jahren für Männer und 82,5 Jahren für Frauen festgelegt. Die mit einer Beeinträchtigung gelebte und die durch vorzeitigen Tod verlorene Lebenszeit wird im DALY kombiniert: durch vorzeitigen Tod verlorene Lebensjahre (YLL) entsprechen im Wesentlichen der Anzahl von Todesfällen multipliziert mit der verbliebenen Lebenserwartung in dem Alter, in dem der Tod vorzeitig eintritt. Doch wird nicht nur die Sterblichkeit sondern auch die Beeinträchtigung des normalen, beschwerdefreien Lebens durch eine
Krankheit mittels des DALY erfasst und in einer Maßzahl zusammengerechnet: DALY = YLL + YLD mit: YLL = durch vorzeitigen Tod verlorene Lebensjahre YLD = mit Behinderung gelebte Lebensjahre Genauer ist: YLL = N x L mit: N = Anzahl der Todesfälle L = verbliebene Lebenserwartung im Sterbealter (in Jahren) Und: YLD = I x DW x L mit: I = Anzahl der Fälle DW = Schwere der Behinderung L = Durchschnittliche Dauer der Behinderung bis zur Heilung oder bis zum Tod (in Jahren) Das DALY-Konzept wird von Gesundheitsexperten und Wirtschaftsökonomen kritisiert, da technische, ethische und politische Diskussionen über die Vorteile und Grenzen dieser Maße beachtet werden müssen. Die komplette Krankheitslast der Menschheit beläuft sich nach dem DALY-Konzept auf 1,4 Milliarden verlorene Lebensjahre, das entspricht 259 verlorenen Lebensjahren pro 1 000 Einwohnerjahre. Das Maß ermöglicht einen Ländervergleich: Entwickelte Länder: 117 DALY Verlust/1 000 Einwohnerjahre China: 178/1 000 Indien: 344/1 000 Einige Länder Afrikas: 574/1 000 Die Zahl erlaubt auch einen Vergleich der sozialen Bedeutung bestimmter Krankheiten: AIDS: 30 Millionen verlorene Lebensjahre, das entspricht 2,2 % aller DALY TBC: 46 Millionen verlorene Lebensjahre, das entspricht 3,4 % aller DALY
223
7 Fallstudie Klima und Gesundheit
fektionskrankheiten, die vom Klimawandel beeinflusst werden können. Die Quantifizierung der Klimawirkungen auf Infektionskrankheiten ist ein wichtiges Forschungsgebiet. Genaue quantitative Angaben sind bisher nur vereinzelt in speziellen Fallstudien vorhanden (Abschnitt 7.1), ansonsten lassen sich nur allgemeine Abschätzungen vornehmen (Tabelle 7.1). Wichtigstes Ziel ist es, die Forschung auf diesem Gebiet zukünftig weltweit zu koordinieren und problemorientiert auszurichten. Die ESSP hat dazu eine umfassende Strategie erarbeitet (ESSP-Bericht 2004, ESSP Joint Project on Global Environmental Change and Human Health). Neben den direkten und indirekten Gesundheitsauswirkungen des Klimas gibt es auch zahlreiche kombinierte Effekte. In Regionen, in denen die Ernährungssicherheit und Wasserversorgung bereits heute gefährdet sind, kann davon ausgegangen werden, dass kombinierte Effekte (z. B. regionale Temperaturerhöhung kombiniert mit Trinkwasserverknappung, Versalzung der Böden und Übernutzung) zu Ernteausfällen und Beeinträchtigungen der Ernährungslage führen werden. Bei weiterer unzureichender Anpassung führt dies zur Unterernährung besonders empfindlicher Bevölkerungsgruppen (Kinder, Frauen, Arme). Insgesamt lässt sich daraus schließen, dass die Gesundheitseffekte von Nahrungsman-
Tabelle 7.1
gel, Trinkwasserverknappung, Malaria- und Denguefieberausbreitung sowie von Flut- und Dürrekatastrophen synergistisch wirken. Eine Quantifizierung dieser Wechselwirkungen auf die weltweite Gesundheitslage ist zurzeit noch nicht ausreichend möglich. Geschätzte Temperatursensitivitäten nach Parry et al. (1999) lassen aber erkennen, dass sich zwischen 1 °C und 1,8 °C Temperaturerhöhung klimabedingt ein erheblicher zusätzlicher Wassermangel in vielen Regionen der Erde einstellt. Wassermangel verbunden mit einem Mangel an persönlicher Hygiene würde einen deutlichen Anstieg der Durchfallerkrankungen bedeuten. Die WHO (2004) beziffert den Anstieg der Durchfallerkrankungen mit etwa 3 bis 8 % pro 1 °C Temperaturanstieg. Abbildung 7.2 fasst die biogeophysikalischen Faktoren mit Relevanz für unsere Gesundheit zusammen. Zusammenfassend können für das Fallbeispiel Klimawandel und Gesundheit folgende allgemeine Aussagen getroffen werden:
• Die Klimawirkungen auf die menschliche Gesundheit sind erheblich und wirken kumulativ.
• Die Auswirkungen auf die Gesundheit werden räumlich sehr unterschiedlich ausfallen, wobei Afrika und Südasien am stärksten beeinträchtigt werden. Es handelt sich heute bereits um Gebiete mit überdurchschnittlichem Bevölke-
Wichtige Gesundheitsrisiken und geschätzte gefährdete Bevölkerung (Stand 2007)
Gesundheitsrisiko
gefährdete Bevölkerung
Art des Globalen Umweltwandels als Mitursache
Malaria
40% der Weltbevölkerung
Klimawandel und Landnutzungswandel
Denguefieber
3 Milliarden
Klimawandel, Verstädterung, Welthandel
Durchfallerkrankungen in Verbindung mit qualtitativem/quantitativem Wassermangel
1 Milliarde
Klimawandel, Landnutzungswandel, Luft-, Boden- und Wasserverunreinigungen, Bewässerung, Verstädterung
Unterernährung (insbesondere Nahrungsmittelknappheit)
840 Millionen
Klimawandel, Landnutzung, Trinkwasserverknappung, Biodiversitätsrückgang
Gsundheitsrisiken infolge von Desertifikation: Unterernährung, Atemwegserkrankungen, Migration (z.B. in endemische Malariagebiete)
250 Millionen
Klimawandel, Landnutzung, Landbedeckungswandel
Hautkrebs, Augenkrankheiten, Schwächung des Immunsystems
1–2 Milliarden Menschen der mittleren und höheren Breiten
Abnahme des stratosphärischen Ozons
224
•
•
• •
7 Fallstudie Klima und Gesundheit
• Die wichtigsten indirekten Wirkungskomplexe
rungszuwachs und geringer Anpassungskapazität. Gemäß WHO lässt der derzeitige Kenntnisstand keine exakte Quantifizierung der künftigen Klimawirkungen auf die menschliche Gesundheit zu. Es besteht ein erheblicher Forschungsbedarf, um das Beziehungsgeflecht zwischen globalen Umweltveränderungen und Gesundheit besser verstehen und quantifizieren zu können. Aktuelle potenzielle Gefahren für die Gesundheit ergeben sich aus direkten und indirekten Wirkungskomplexen. Die wichtigsten direkten Wirkungskomplexe auf die Gesundheit sind: – strahlungsbedingte (aktinische) Wirkungen auf den Menschen – Luftverunreinigungen – Zunahme des Pollenflugs und damit der Gefahr von steigenden Allergien – Hitzewellen und thermophysiologische Effekte
auf die Gesundheit sind: – Zunahme von Vektor übertragenen Infektionskrankheiten – globale Zunahme von Tropenkrankheiten (Malaria, Denguefieber, Gelbfieber) – mögliche Zunahme von Aedes-Arten und die damit verbundene Übertragung von Arboviren – mögliche Zunahme der Leishmaniose durch Vermehrung der Sandmücken – mögliche Zunahme der Lyme-Borreliose durch vermehrtes Zeckenaufkommen als Vektoren für Borrelia burgdorferi sensu lato – mögliche Zunahme der Inzidenz der Frühsommer-Meningoenzephalitis (FSME) – mögliche Zunahme bis jetzt seltener, von Zecken übertragener Krankheiten wie QFieber, Rickettsiosen, Ehrlichiosen – mögliche Zunahme der Infektionskrankheiten bei Tieren durch sich vermehrende Gnitzen (Ceratopogonidae) als Überträger
Hautschädigung/Hautkrebs Ozonabbau
Augenschäden (z. B. grauer Star)
direkte Auswirkungen
Immunsystemstörung Hitzestress: Tod, Krankheiten, körperliche Schäden Klimawandel
Stürme, Hurrikane, Überflutungen, Feuer
direkte Auswirkungen
Meeresspiegelanstieg: Landverlust, Infrastrukturschäden
Vulnerabilität
Landbedeckung Ausbreitung invasiver Arten
Raubbau durch den Menschen
Risiken durch Infektionskrankheiten (neu entstehende und wieder auflebende)
Landnutzung Veränderungen der Biodiversität
Veränderungen bei den Vektoren (Moskitos etc.)
z. B. Bestäubung Nahrungsmittelproduktion: Ernährungsweise und Gesundheit
Wasserhaushaltsmanagement
Methoden der Nahrungsmittelproduktionssysteme
Verstädterung: Siedlungsverdichtung
7.2
Biogeophysikalische Wirkungsgrößen für unsere Gesundheit, nach ESSP.
Vogelgrippe, Nipahvirus, BSE etc. Slumbildung, schlechte Hygiene, Ausbreitung von Infektionskrankheiten (Mobilität, engere Kontakte)
225
7.1 Fallbeispiel: Klimawandel und Hautkrebsgefährdung
Aktuelle Forschungsergebnisse zum Themenkomplex „Klima und Gesundheitsrisiken“ sowie zu den oben genannten Krankheiten finden sich bei Lozán (2008). Nach Darstellung des allgemeinen Zusammenhangs von Klimawirkung und Gesundheit sollen nun anhand zweier Beispiele aus dem eigenen Forschungsbereich die vielfältigen Wechselwirkungen zwischen Klimawandel und Gesundheitsrisiken verdeutlicht werden. Das erste Beispiel der Klimafolgenforschung beschäftigt sich mit strahlungsbedingten (aktinischen) Auswirkungen auf den Menschen und geht der Frage des Klimawandels und möglicher steigender Hautkrebsgefährdung nach. Das zweite Beispiel untersucht den Zusammenhang von Klimawandel der Malariagefährdung in Westafrika.
7.1 Fallbeispiel: Klimawandel und Hautkrebsgefährdung Hautkrebs ist weltweit die häufigste Krebsart. Seine wichtigsten Formen sind das maligne Melanom (schwarzer Hautkrebs) sowie das Plattenepithelkarzinom und das Basalzellkarzinom (heller Hautkrebs). Im Vergleich aller Krebsarten weist die Inzidenz (Häufigkeit) des Hautkrebses in den letzten Jahrzehnten einen besonders hohen Anstieg auf. Stärkster wissenschaftlich be-
legter Kausalfaktor des Hautkrebses ist die UVStrahlung, deren Wirkung auf der Erdoberfläche stark von stratosphärischer Ozonkonzentration und Bewölkung abhängig ist. Die Auswirkungen des Klimawandels auf diese und weitere Faktoren, welche eine Steigerung der Hautkrebsinzidenzen zur Folge haben können, sind noch weitgehend unerforscht. Unter Berücksichtigung der Regularien des Montreal-Protokolls dauert es etwa bis 2065, bis die stratosphärische Chlorkonzentration wieder unter die für das Auftreten des „Ozonlochs“ kritische Konzentration absinkt (WMO 2007). Jedoch haben die ozonzerstörenden Substanzen eine lange Lebensdauer in der Atmosphäre, was die Ozonschicht in den nächsten Jahrzehnten „empfindlich“ bleiben lässt. Die Kombination des verstärkten Auftretens sogenannter Niedrigozonereignisse (Low Ozone Events, LOE) und Ozonminilöcher (OM) (Stenke und Grewe 2003) mit länger anhaltenden Schönwetterperioden im Frühjahr und Sommer kann zu einer erheblich veränderten Strahlungsbelastung des Menschen führen. Daran gekoppelt ist das thermisch bedingte Expositionsverhalten des Menschen, der sich bei zunehmender thermischer Gunst vermehrt im Freien aufhalten wird beziehungsweise sich allgemein stärker der Strahlung aussetzt (sei es in der Freizeit mit eventuellen Strahlungsspitzen bedingt durch ein anderes Kleidungsverhalten oder durch eine steigende Grundbelastung). Abbildung 7.3 zeigt stark vereinfacht die kausalen Zusammenhänge zwischen einem projizier-
Klimawandel
(Groß-)Wetterlage
atmosphärische Einflüsse (Bewölkung etc.)
stratosphärische Ozonkonzentration, Gesamtozon
Strahlungsdauer (Sonnenstand, geogr. Lage)
UV-Strahlung (Expositions-) Verhalten des Menschen
Versorgung, Prävention
biologische Zellschäden Karzinogenese
Inzidenz des Hautkrebses
7.3 Kausalitätsdiagramm Klimawandel, UV-Strahlung, Hautkrebsinzidenz.
226
ten Klimawandel und der sich möglicherweise dadurch verändernden Hautkrebsinzidenz. Zu erkennen ist, dass klimatische Veränderungen einen Einfluss auf Faktoren wie Wetterlage, Bewölkung, stratosphärische Ozonkonzentration und auch auf das Verhalten des Menschen haben. Das Beziehungsgeflecht in Abbildung 7.3 erfordert die Beantwortung wissenschaftlicher Leitfragen, die nur in einem interdisziplinären Forschungsnetzwerk im engen Verbund von Natur-, Sozialwissenschaft und Ökonomie angegangen werden können. Die wichtigsten Leitfragen in diesem Themenkomplex der Klimafolgenforschung lauten:
7 Fallstudie Klima und Gesundheit
Tabelle 7.2 Biologische Wirkungen der UV-Strahlung. Bereich
Wellenlänge [nm]
biologische Wirkungen
UV-A
320–400
fotosensibilisierend (Hautbräunung)
UV-B
280–320
erythemwirksam (Hautrötung, Sonnenbrand),Vitamin D-Fotosynthese
UV-C
100–280
keimtötend, Sonnenbrand, Bindehautentzündung
• Wie ist der Einfluss sich verändernder klima• • • • •
tologisch-meteorologischer Parameter auf die UV-Strahlung zu bewerten? Wie ist eine sich durch den Klimawandel verändernde UV-Strahlung hinsichtlich ihrer biologischen Wirkung zu beurteilen? Gibt es einen Zusammenhang zwischen dem Klimawandel und dem (thermisch motivierten) Expositionsverhalten der Menschen? Welche Konsequenzen ergeben sich daraus für Hautkrebs-Präventionsmaßnahmen? Welche Auswirkungen hat der Klimawandel auf die Hautkrebsinzidenz, den zukünftigen Versorgungsbedarf und die Volkswirtschaft? Wie ist die Forschung in diesem Bereich zu koordinieren, und wie kann eine strukturierte und zentrale Datenhaltung zum Aufbau von Bewertungs- und Prognosemodellen führen, die dann für politische Entscheidungsträger und die Öffentlichkeit zur Verfügung stehen?
Die Beantwortung dieser Fragen lässt sich nur in einem breit gefächerten, interdisziplinären Ansatz beantworten. Es gibt zwar zahlreiche Einzeluntersuchungen, dennoch können diese aufgrund ihrer fehlenden Vernetzung die komplexe Fragestellung nicht beantworten. Vor diesem Hintergrund wurde ein interdisziplinäres Netz von Wissenschaftlern – CLIMAderm – aus Klimatologie, Meteorologie, UV-Forschung, Geographie, experimenteller und klinischer Dermatologie, Versorgungsforschung, Epidemiologie, Soziologie, Umweltpsychologie und Volkswirtschaft aufgebaut . Die Arbeitsgruppe CLIMAderm versteht sich als ein offenes Netzwerk, welches sich auf die Kernfrage „Klimawandel und Hautkrebs“ konzentriert und dazu Arbeitscluster generiert
hat, die in ihrer Vernetzung zum verbesserten Verständnis des Klimasystems und seiner Einwirkungen auf Mensch und Gesellschaft führen sollen (vgl. Kappas 2008). Betrachtet man die UV-Strahlung in Deutschland unter dem Aspekt von Global Change, so müssen die direkten Wirkungen der UV-Strahlung auf den menschlichen Organismus im Fokus stehen. Einführend werden deshalb die Grundlagen und Definitionen der UV-Strahlung, der UV-Index (UVI), sowie das UV-Messnetz in Deutschland vorgestellt. Zudem werden die Methoden der Messwerterfassung und der UVIPrognose kurz erläutert. Schließlich wird auf die Folgen der UV-Bestrahlung für den Menschen eingegangen. Die UV-Strahlung wird anhand der biologischen Wirksamkeit in drei Wellenlängenbereiche unterteilt (Tabelle 7.2). In Deutschland wird seit 1993 die bodennahe UV-Strahlung an zunächst vier Standorten alle sechs Minuten messtechnisch erfasst. Dies geschieht über Spektralradiometer im Wellenlängenbereich von 290 bis 400 nm. Diese Messstationen sind an folgenden Standorten angesiedelt: Zingst (Ostseeküste), Langen (Rheingraben bei Frankfurt am Main), Schauinsland (Schwarzwald), Neuherberg (bei München). Diese Stationen werden von dem Bundesamt für Strahlenschutz (BfS) und dem Umweltbundesamt (UBA) betrieben. Mittlerweile gibt es ein bundesweites UV-Messnetz (Tabelle 7.3), welches vom BfS zusammen mit dem Deutschen Wetterdienst (DWD) und assoziierten Institutionen eingerichtet wurde.
227
7.1 Fallbeispiel: Klimawandel und Hautkrebsgefährdung
Tabelle 7.3 UV-Messstationen des Deutschen Wetterdienstes (DWD) Ort
Höhe über Meeresspiegel
geographische Position
Sylt
20 m ü.N.N.
8,3°O, 54,93°N
Zingst
10 m ü.N.N.
12,44°O, 54,8°N
Norderney
10 m ü.N.N
7,216°O, 53,716°N
Hannover
95 m ü.N.N.
9,715°O, 42,361°N
Lindenberg
126 m ü.N.N.
14,122°O, 52,209°N
Dortmund
100 m ü.N.N.
7,45°O, 51,517°N
Langen
124 m ü.N.N.
8,561°O, 50,005°N
Kulmbach
306 m ü.N.N.
8,3°O, 54,93°N
Schauinsland München
1205 m ü.N.N.
7,909°O, 47,915°N
493 m ü.N.N.
11,583°O, 40,217°N
Der UV-Index (UVI) wurde als anschaulicher Indikator eingeführt, um der Bevölkerung Informationen zur aktuellen und zukünftigen Belastung durch UV-Strahlung zur Verfügung zu stellen. In Tabelle 7.4 wird generell der erwartete Tageshöchstwert angegeben. Der UVI ist dimensionslos und berechnet sich als das Integral der UV-Einstrahlung auf eine horizontale Fläche (Bestrahlungsstärke E (λ) [W/m2]) gewichtet mit dem erythemalen Aktionsspektrum ser (λ) über die Wellenlängen (280–400 nm). Dies wird mit der Konstanten ker (40 W/m2) multipliziert. Diese Definition wurde durch die Commission Internationale de l’Eclairage (CIE) im Jahr 1987 festgelegt (Köpke & Staiger 2005).
ſ
400 nm
E (λ) × C(λ) dλ 280 nm Die Faltungsfunktion C (λ) ist das CIE-Aktionsspektrum. Um den UV-Index zu erhalten wird das Ergebnis mit 40 W/m2 multipliziert: ECIE =
UV-Index = 40 W/m2 × ECIE Das genormte Sonnenspektrum ist erst ab 290 nm definiert. Daher liefert das Integral zur Berechnung des UV-Indexes erst ab dieser Wellenlänge einen Beitrag. Der maximale UV-Index ist als höchster mittlerer UV-Index in einem Zeitraum von 30 Minuten an einem Tag definiert.
Tabelle 7.4 Einteilung der UVI-Werte und zugehörige UV-Belastung (Quelle: BfS 2006) UVI-Werte
UV-Belastung
0 bis 1
niedrig: Sonnenbrand unwahrscheinlich, Schutzmaßnahmen nicht erforderlich
2 bis 4
mittel: Sonnenbrand ab 30 Minuten möglich, Schutzmaßnahmen empfehlenswert
5 bis 7
hoch: Sonnenbrand ab 20 Minuten möglich, Schutzmaßnahmen erforderlich
8 und mehr
sehr hoch: Sonnenbrand in weniger als 20 Minuten möglich, Schutzmaßnahmen unbedingt erforderlich
228
7.1.1 Einflussfaktoren auf die auf der Erde auftreffende UV-Strahlung Die UV-Strahlung mit Wellenlängen kleiner als 308 nm wird von der Ozonschicht in der Mesosphäre und Stratosphäre absorbiert. Eine Verringerung des stratosphärischen Ozongehalts bewirkt daher eine erhöhte UV-B-Einstrahlung auf die Erdoberfläche. Außerdem wird UV-B-Strahlung von Stickstoffdioxid (NO2) und Schwefeldioxid (SO2) absorbiert, was in Gebieten geringerer Luftverschmutzung vernachlässigbar ist. Absorption findet außerdem auch in Wolken statt. Bei der Absorption wird die Strahlungsenergie in andere Energieformen umgewandelt (vgl. Plets 2000). Bei der Streuung wird lediglich die Richtung der Strahlung verändert. Sie wird hauptsächlich durch Aerosole und Wolken verursacht und bewirkt eine anteilige Rückstrahlung ins Weltall sowie indirekt auf die Erdoberfläche auftreffende Strahlung. Eine verstärkte Streuung durch höhere Aerosolkonzentrationen oder Bewölkung hat eine Verringerung des UV-Index zur Folge. Beim Vorgang der Reflexion wird die Strahlungsenergie nicht umgewandelt. Die Reflexion findet an Wassertröpfchen und Eiskristallen in Wolken statt. Die Reflexion an Wolken ist schwer zu quantifizieren, da sie ihrerseits von verschiedenen Parametern abhängt, die teilweise nur geschätzt werden können. Diese Parameter sind Zusammensetzung (Tröpfchengröße und Verteilung), Dicke, Höhe und Typ der Wolken. Die Bewölkung hat in der Regel eine Verringerung des UV-Indexes zur Folge, die bis zu 80 % und mehr betragen kann. Die Oberflächenalbedo der UV-Strahlung ist wesentlich geringer als bei der sichtbaren Strahlung und ist stark von der jeweiligen Oberflächenbeschaffenheit abhängig. Bei den meisten Landoberflächen beträgt die Albedo zwischen 2 und 7 %. Sie ist daher für den UV-Index weniger entscheidend. Ausnahmen sind Schneeflächen, aber auch Wasser und helle Sandoberflächen, die je nach Beschaffenheit eine Albedo von 20 bis 100 % aufweisen. Ein weiterer Einflussfaktor ist die zurückgelegte Strecke der solaren Strahlung durch die Atmosphäre. Je größer diese ist, desto höher ist die Extinktion und desto stärker
7 Fallstudie Klima und Gesundheit
verringert sich der UV-Index. Die Wegstrecke ist abhängig vom solaren Einstrahlungswinkel und der jeweiligen Höhenlage (Zunahme des UVI um etwa 6 % pro 1 000 m Höhenunterschied).
7.1.2 Messwerterfassung und UVI-Vorhersage Neben den bereits oben genannten Stationen, die seit 1993 vom BfS und UBA betrieben werden, sind die folgenden Messstationen mittlerweile assoziiert: die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin in Dortmund (BAuA), die Christian-Albrechts-Universität zu Kiel (CAU) mit der Station in Westerland/Sylt, das Meteorologische Observatorium Potsdam des Deutschen Wetterdienstes (DWD), das Bayerische Landesamt für Umwelt mit der Messstation in Kulmbach (LfU Bayern) und das Niedersächsische Landesamt für Ökologie mit den Messstationen in Hannover und auf der Insel Norderney. Alle Messstationen sind mit einer horizontalen Eingangsoptik ausgestattet, die sowohl direkte als auch gestreute UV-Strahlung erfasst. Diese Eingangsoptik ist mittels Lichtwellenleitern mit dem Spektralradiometer verbunden, welches zusammen mit dem Pyranometer, das die Globalstrahlung erfasst, in einem klimatisierten Laborraum untergebracht ist. Außerdem wird ein Hilfsstrahler eingesetzt, der der nächtlichen Systemempfindlichkeitsüberprüfung dient. In regelmäßigen Abständen (alle drei bis sechs Monate) werden die Messsysteme bezüglich ihrer Signalempfindlichkeit und Wellenlänge kalibriert. Im UV-Kalibrierlabor der Messnetzzentrale in Neuherberg bei München werden die Komponenten der Messgeräte ständig überprüft und neuesten technischen Standards angepasst. Im UV-B-Bereich werden die Daten mit einer Genauigkeit von 0,5 nm alle sechs Minuten bestimmt. Im UV-A-Bereich beträgt die Genauigkeit 5 nm. Aus den gemessenen Daten werden zwei Datensätze generiert, von denen ein einfacher für die aktuellen Veröffentlichungen der UV-Indexwerte auf der Internetseite des BfS genutzt wird. Ein zweiter, komplexerer Datensatz wird jeweils am Ende eines Messtags zusam-
7.1 Fallbeispiel: Klimawandel und Hautkrebsgefährdung
mengestellt und auf Plausibilität geprüft. Diese Daten werden in einem Zentralrechner gespeichert, strahlenhygienisch bewertet und für weitere Empfehlungen genutzt. Auf der Grundlage eines UV-Indexvorhersagemodells, welches auf den Ozon-Daten des Global Numerical Weather Prediction Model (GME) und dem jeweiligen lokalen solaren Einstrahlungswinkel beruht, werden UVI-Prognosen erstellt. Das GME wurde vom Deutschen Wetterdienst 1995 bis 1998 entwickelt und 2003 von der WMO als einheitliche Basis für die globalen Ozon-Vorhersagen festgelegt. Das GME ist das weltweit erste operationelle Wettervorhersagemodell, das die Vorhersage auf der Basis eines den Globus vollständig umspannenden Dreiecksgitters berechnet. Gegenüber konventionellen Gitterstrukturen wie dem geographischen Gitter bietet das Dreiecksgitter den Vorteil, dass die Gitterflächengröße keinen größeren Schwankungen unterliegt, da die Meridiankonvergenz mit zunehmender Polnähe hierbei unerheblich ist. Ausgehend von 20 gleichseitigen sphärischen Dreiecken (Seitenlänge 7 054 km) entsteht durch sukzessive Unterteilung (z. B. Halbierung) ein Dreiecksgitter in beliebiger Auflösung. Zurzeit liegt dem GME ein Dreiecksnetz mit einer Maschenweite von 60 km zugrunde. Das GME prognostiziert für die einzelnen Dreiecke die Variablen Bodendruck, horizontale Windkomponenten, Temperatur, Wasserdampf, Wolkenwasser und Wolkeneis vom Boden bis in etwa 31 km Höhe, sowie Temperatur und Wassergehalt in zwei Bodenschichten, Schneemenge und Interzeptionswasser. Zusätzlich wird der großräumige Transport von (stratosphärischem) Ozon vorhergesagt. In die Ableitung für die 3-TagesPrognose der UVI-Werte für Deutschland gehen Daten der UV-Datenbank Neuherberg, der UV-Messstationen für acht Regionen und die Wettervorhersage des DWD ein. Für die zukünftige Abschätzung der Hautkrebsgefährdung durch klimabedingte Strahlungsveränderungen ist der Einfluss eines verringerten Gesamtozongehalts vor allem aus zwei Gründen bedeutsam. Einerseits kann das Ozon durch eigene Beobachtung nicht beurteilt werden, wie dies für Sonnenstand und Bewölkung möglich ist. Andererseits wird die bei festem Sonnenstand und wolkenlosem Himmel als ma-
229
ximal angenommene UV-Bestrahlungsstärke durch eine Verringerung des Gesamtozongehalts signifikant erhöht. Diese Erhöhung ist, wie allgemein bekannt, auf eine höhere UV-Durchlässigkeit im kurzwelligen Bereich zurückzuführen, in dem darüber hinaus die biologische Wirksamkeit besonders hoch ist. Während der bisher beobachtete Ozonverlust mit etwa 2 % pro Jahrzehnt eher niedrig ausfällt (Claude et al. 2005), sind temporäre starke Ozonabnahmen von bis zu 30 % (miniholes) hingegen immer häufiger zu beobachten (DWD 2005). Im Rahmen einer Abschätzung über gesundheitliche Konsequenzen durch den Klimawandel wird zunehmend ein Zusammenhang zwischen Klimawandel und Ozonverringerung diskutiert. Es ist zwischenzeitlich bewiesen, dass eine Erwärmung der Troposphäre zu einer Abkühlung der Stratosphäre führt, was die Regeneration der Ozonschicht über längere Zeit hinauszögern kann. Vor diesem Hintergrund bedeutet die Ermittlung des Gesamtozongehalts aus den UV-Spektren des solaren UV-Monitoring eine Erweiterung der dafür benötigten Datenbasis. Die wichtigste Dokumentation im Bereich UV-Monitoring ist der jährlich erscheinende UV-Jahresbericht. Auf über 20 Seiten werden die gemessenen und bewerteten UV-Daten der Messstationen im Internet veröffentlicht. Im ersten von insgesamt drei Teilen werden neben einer ausführlichen Beschreibung des UVMessnetzes die Grundlagen für eine gesundheitliche Bewertung dargestellt. Der zweite Teil beinhaltet die erythemgewichteten Messergebnisse der Stationen in Form von Säulendiagrammen, Farbflächenplots und Tabellen. Im dritten Teil werden die Messergebnisse vor allem unter dem Gesichtspunkt bewertet, ob aus den bisherigen Datensätzen schon ein Trend abgeleitet werden kann. Um mögliche Trends aufzudecken, muss in Zukunft die UV-Strahlung über die Bestimmung der Ozon- und Wolkendaten mittels regionaler Klimamodelle bestimmt werden. Dabei darf die Modellierung der Ozondaten nicht nur auf der Qualität der Chemie- und Transportmodelle beruhen, sondern muss auch die Szenarien für die zukünftige Emission der ozonschädigenden Gase (Emissionsszenarien, SRES) berücksichtigen.
230
Die für die menschliche Gesundheit relevante solare UV-Strahlung steigt generell von den Polen zum Äquator, da hier niedrige Ozonwerte und hoher Sonnenstand zusammenkommen. Außerdem steigt sie mit der Höhe über dem Meeresspiegel. Dies wird auch bei einem zukünftigen Klimawandel so bleiben. Bei der Ermittlung einer Jahres- oder Lebensdosis müssen deshalb die Zeiten mit einem Aufenthalt des Menschen in Regionen mit hoher UV-Bestrahlung (z. B. im Urlaub) gezielt erfasst werden. Durch die unterschiedlichen meteorologischen Bedingungen unterliegt die UV-Strahlung starken täglichen Variationen, wobei die Effekte der Wolken die der Ozonvariabilität übersteigen. Die Berücksichtigung dieser meteorologischen Effekte kann über Mittelwerte erfolgen oder aber unter Beachtung einer Korrelation des menschlichen Verhaltens mit der Witterung. Generell wird das eigene Verhalten die zukünftige UV-Dosis eines Menschen mindestens so stark beeinflussen wie die Änderung der solaren UV-Strahlung durch Effekte einer Klimaänderung. Eine sehr wichtige Größe, die durch die Änderung der meteorologischen Parameter und nicht durch das menschliche Verhalten beeinflusst wird, ist das relative Verhältnis der UV-B-Strahlung gegenüber der UV-A-Strahlung und gegenüber der Strahlung in Spektralbereichen, die zur Reparatur von Strahlungsschäden beitragen kann. In Mitteleuropa wird die UV-A-Strahlung durch eine mögliche Abnahme der Bewölkung (Grell et al. 2000) relativ zunehmen (Köpke et al. 2003). Dies geschieht auch dann, wenn die UV-B-
7 Fallstudie Klima und Gesundheit
Strahlung durch eine Erholung der Ozonschicht in Zukunft wieder abnehmen sollte. Damit steigt die Bedeutung der UV-A-Strahlung im Hinblick auf Hautkrebserkrankungen und sollte verstärkt Beachtung erhalten. „Abgesehen davon, dass Änderungen des Gesamtozons die Bestrahlungsstärke der biologisch stark wirksamen kurzwelligen UV-Strahlung verändern können, kommt dem Verhalten des Menschen bei Weitem die Hauptbedeutung für die UV-Exposition zu. Den größten Teil der UV-Dosis empfangen die meisten Menschen in Deutschland in ihrer Freizeit und im Urlaub. Die Exposition ist hierbei weniger kontinuierlich, sondern eher intermittierend intensiv. Aus klimaphysiologischer Sicht spielt für das Verhalten des Menschen im Hinblick auf die Sonnenexposition der Wärmehaushalt die entscheidende Rolle. Das Verhalten des Menschen wird sehr wesentlich durch die Erfordernisse zur Aufrechterhaltung einer ausgeglichenen Wärmebilanz sowie zum Erreichen thermischen Komforts motiviert. Klimaänderungen sind deshalb in Hinblick auf ihre Auswirkungen auf die Wärmebilanz zu untersuchen. In der Nomenklatur der Klimaphysiologie ist zu fragen, wie Änderungen im thermisch-hygrischen Wirkungskomplex mit Konsequenzen im aktinischen Wirkungskomplex gekoppelt sind. Zur Untersuchung dieser Fragen ist auf der Grundlage vorhandener Untersuchungen zu klären, wie sich Änderungen der klimatischen Umgebung in verschiedenen Szenarien auf die Wärmebilanz des Menschen und daraus abgeleitet auf sein Verhalten und die UV-Exposition auswirken“ (zitiert nach Carsten Stick in Kappas 2008).
Internationale und nationale Netzwerkbildung zur Thematik Klimawandel und Hautschädigungen Entsprechend der Umsetzung der Agenda 21 initiierte die Weltgesundheitsorganisation (WHO) das INTERSUN-Projekt zusammen mit dem UNUmweltprogramm (UNEP), der Weltmeteorologenorganisation (WMO), der Internationalen Agentur für Krebsforschung (IARC) und Internationalen Kommission zum Schutz vor Nichtionisierender Strahlung (ICNIRP). Da die INTERSUN-Aktivitäten ein breites fächerübergreifendes Wissen erfordern, erfolgt die Umsetzung des Programms mit-
hilfe eines Netzwerks von elf sogenannten WHOKooperationszentren, darunter seit Anfang 2006 auch das BfS. Auf nationaler Ebene hat sich z. B. in Deutschland das Netzwerk CLIMAderm gebildet, welches vor allem einen interdisziplinären Ansatz unter Einbindung naturwissenschaftlicher und sozialwissenschaftlicher Expertise zur Erforschung des Themenkomplexes „Klimawandel und Hautkrebs“ koordiniert (vgl. Kappas 2008).
231
7.2 Fallbeispiel: Klimawandel und die afrikanische Malaria
Das „Fallbeispiel: Klimawandel und Hautkrebsgefährdung“ stellt ein vielfältiges Beziehungsgeflecht mit seinen positiven und negativen Rückkopplungen dar, das sowohl auf naturwissenschaftlichen als auch sozialwissenschaftlichen Prozessen beruht.
7.2 Fallbeispiel: Klimawandel und die afrikanische Malaria Eine Reihe blutsaugender Insekten wie beispielsweise Zecken oder Moskitos sind in der Lage, Krankheitserreger von infizierten Wirten auf andere Organismen zu übertragen und werden deshalb als Vektoren bezeichnet. Sowohl der Übertragungsprozess als auch die Entwicklungszyklen von Krankheitserregern und -überträgern werden durch eine Reihe von Umweltparametern beeinflusst. Von besonderer Bedeutung sind dabei die Klimaelemente Temperatur und Niederschlag, sodass Klimaveränderungen häufig auch Veränderungen in der Übertragungsdynamik vektorinduzierter Erkrankungen bewirken. Einen Überblick über die wichtigen vektorübertragenen Infektionskrankheiten bietet Tabelle 7.4. Malaria, Denguefieber und Westnil-Fieber sind Beispiele für die bedeutende Gruppe der
von Moskitos übertragenen Infektionskrankheiten. Unterschiedliche Moskitogattungen als Vektoren und die Verschiedenheit der Erreger führen allerdings dazu, dass sich ihre Verbreitungsgebiete nur teilweise decken; folglich können Klimaveränderungen selbst innerhalb der Gruppe der moskitoinduzierten Erkrankungen sehr unterschiedliche Auswirkungen haben. Eine Reihe von Vektoren haben sogar noch stärker abweichende Habitatansprüche, so z. B. die Schistosomiasis übertragenden Süßwasserschnecken oder einige Krankheiten übertragende Zeckenarten. Mit jährlich 350 bis 500 Millionen Neuinfektionen ist Malaria die mit Abstand bedeutendste vektorübertragene Infektionskrankheit. Mehr als 3 Milliarden Menschen leben in Malariarisikogebieten, und selbst konservativen Schätzungen zufolge sterben jährlich weit über 1 Million Menschen an Malaria. Ausgelöst wird eine Malariainfektion durch den Befall von roten Blutkörperchen (und gegebenenfalls auch einiger innerer Organe) durch einzellige Parasiten (Plasmodien), die durch Moskitos der Gattung Anopheles übertragen werden. Der afrikanische Kontinent und insbesondere Subsahara-Afrika stellt nicht nur in Hinblick auf die malariaassoziierte Morbidität und Mortalität einen räumlichen Schwerpunkt dar, sondern hat in den vergangenen Jahrzehnten bereits Verschiebungen in der Malariaverbreitung verzeichnet, die vermutlich klimainduziert waren und sich in Zukunft weiter fortsetzen könnten.
Tabelle 7.4 Wichtige von Vektoren übertragene Infektionskrankheiten Krankheit
Erreger
wichtige Vektoren
derzeitige Hotspots
Malaria
Plasmodium spp.
Anopheles spp.
Subsahara-Afrika, Südasien, Südamerika
Denguefieber
Flaviviridae (DENV1 bis DENV4)
Aedes spp.
Süd- und Zentralamerika, Süd- und Südostasien, Subsahara-Afrika
Schistosomiasis
Schistosoma spp.
Bulinus spp., Biomphalaria spp.
Afrika, Asien, Mittlerer Osten
Westnil-Fieber
Flaviviridae
Culex spp.
Nordamerika, Afrika, Westasien
Borreliose
Borrelia spp.
Ixodes spp.
Europa, Nordamerika, Nordasien
232
Eine Reihe von Prozessen, die für die Malariaübertragung wichtig sind, zeigt eine signifikante Temperaturabhängigkeit:
• Die Wassertemperatur beeinflusst die Entwicklungsgeschwindigkeit und Überlebenswahrscheinlichkeit der aquatischen Stadien der Anopheles-Moskitos. Die Metamorphose zu adulten Moskitos erfolgt bei Temperaturen zwischen 16 °C und 34 °C. Die Entwicklungsgeschwindigkeit der Larven ist zwischen 28 °C und 32 °C am höchsten, die Emergenzrate hingegen zwischen 22 °C und 26 °C. • Steigende Temperaturen beschleunigen die Entwicklung der Parasiten im Moskito, den sogenannten sporogonischen Zyklus. Dieser muss durchlaufen werden, bevor bei einem folgenden Blutmahl eine Krankheitsübertragung möglich ist. • Auch die Lebensdauer adulter Moskitos ist temperaturabhängig. Bei Temperaturen von über 30 °C sinkt die Wahrscheinlichkeit, dass die Moskitos den sporogonischen Zyklus überleben. Bei Temperaturen von über 40 °C sinkt die Lebenserwartung von Moskitos auf nur wenige Minuten. • Auch weitere epidemiologisch relevante Faktoren, so z. B. die Dauer des gonotrophischen Zyklus (des Intervalls zwischen zwei Eiablagen) und die damit verbundene Häufigkeit von Blutmahlen sind temperaturabhängig. Zusammenfassend lässt sich die Temperaturabhängigkeit der Krankheitsübertragung mit dem epidemiologischen Potenzial bewerten, das für Malaria bei etwa 31 °C am höchsten ist; höhere wie auch niedrigere Temperaturen führen zu einem Absinken des Infektionsrisikos. Diese Temperaturabhängigkeit ist in erheblichem Maße überträgerund erregerspezifisch, wie der Vergleich von Malaria und Schistosomiasis zeigt (▶ Abbildung 7.4). So können steigende Temperaturen zur Erhöhung des Übertragungsrisikos einer Infektionskrankheit führen, während die Übertragungswahrscheinlichkeit für eine andere Erkrankung sinkt. Eine Konsequenz steigender Temperaturen ist, dass Insekten in größere Höhen vordringen. In
1,2 epidemiologisches Potenzial
7.2.1 Auswirkungen von Temperaturveränderungen auf die Malariaübertragung
7 Fallstudie Klima und Gesundheit
EP Malaria EP Schistosomiasis
1,0 0,8 0,6 0,4 0,2 0 14
16
18
20
22
24 26 28 30 Temperatur (°C)
32
34
36
38
7.4 Temperaturabhängigkeit des epidemiologischen Potenzials von Malaria und Schistosomiasis (Quelle: Karthe 2009).
Hochlandgebieten, in denen die Temperaturen in der Nähe epidemiologisch relevanter Grenzwerte liegen, können bereits geringfügige Temperaturerhöhungen zu massiven Steigerungen der Übertragungswahrscheinlichkeit von Krankheiten wie Malaria führen. Dies ist insbesondere deshalb problematisch, weil die Bewohner solcher Grenzgebiete über keine oder nur eine eingeschränkte Immunität verfügen. In Westkenia ist es beispielsweise in Höhen um die 2 000 m zu Malariaepidemien gekommen, wenn zugleich Monatsniederschläge von mindestens 150 mm und Monatsmitteltemperaturen von mindestens 18 °C erreicht wurden. In den kolumbianischen Anden treten die Vektoren des Denguefiebers sogar schon in Höhen von 2 200 m auf, während man früher eine Höhengrenze von etwa 1 000 m annahm.
7.2.2 Auswirkungen von Niederschlagsveränderungen auf die Malariaübertragung Mit der globalen Erwärmung einher geht eine Erwärmung der oberen Ozeanschichten, was im globalen Mittel infolge der gesteigerten Verdunstung zu einer Zunahme des Wasserdampfgehalts der Atmosphäre um etwa 6 % je 1 K Erwärmung führt. Krankheitsvektoren, deren Lebenszyklus zumindest teilweise in aquatischen Habitaten stattfindet, sind von Veränderungen der Niederschlagsmenge und -verteilung in besonderem
233
7.2 Fallbeispiel: Klimawandel und die afrikanische Malaria
Maße betroffen. Die Dauer der Regenzeiten und der dazwischen liegenden Trockenperioden sind insbesondere in den ariden und semiariden Gebieten von Bedeutung für die Dynamik der Vektorpopulationen. Während hohe Luftfeuchten die metabolischen Prozesse der Vektoren stimulieren, führen geringe Luftfeuchten zu einer Zunahme der Bissfrequenz. Die Häufigkeit und Intensität von Extremwetterereignissen einschließlich Dürreperioden und Starkniederschlägen hat sich in den letzten Jahrzehnten erhöht und in der Folge häufig Ausbrüche von wasser- und vektorinduzierten Erkrankungen ausgelöst. In mehreren Regionen der Welt wurden in El-Niño-Jahren schwere Malaria-Epidemien verzeichnet, so z. B. im Hochland von Uganda sowie in großen Teilen Ostafrikas während des El-Niño-Ereignisses der Jahre 1997/98. Allerdings können außergewöhnlich starke Niederschläge auch dazu führen, dass Moskitolarven aus ihren Brutstätten weggespült werden. Auch eine Häufung von Dürreperioden kann allerdings durch die Anlage von Wasserspeichern zu einer Häufung von moskitoübertragenen Krankheiten führen. Insbesondere in Afrika zeigt sich eine deutliche Parallelität zwischen der Länge der Regenzeiten respektive den Jahresniederschlagssummen und der Länge der Malariaübertragungssaison, N W
Dauer der Übertragungsperiode (Monate) 2 5 8 3 6 9 4 7 10 epidemische Malaria
O S
0 125 250
wie Abbildung 7.5 am Beispiel Westafrikas zeigt. Regional unterschiedliche Zu- oder Abnahmen der Niederschlagssummen würden hier zu erheblichen Veränderungen der räumlichen Übertragungsmuster führen. Auch wenn es derzeit sehr schwierig ist, die Auswirkungen von Klimaveränderungen auf die weltweite Inzidenz von Infektionskrankheiten wie Malaria zu bilanzieren, so ist zumindest davon auszugehen, dass sich die räumlichen Auftrittsmuster verschieben werden und die Übertragungswahrscheinlichkeit in einigen Regionen zunehmen und in anderen abnehmen wird. Neben Veränderungen des Klimas spielen dabei eine Reihe weiterer Faktoren eine wichtige Rolle, und zwar insbesondere Veränderungen in der Bevölkerungsdichte, den Siedlungsstrukturen sowie der Landnutzung (vgl. Kappas & Karthe 2009). So ist beispielsweise in großen Teilen Westafrikas eine Bevölkerungszunahme, zunehmende Urbanisierung wie auch teilweise eine Modernisierung der Landwirtschaft (das heißt insbesondere ein Ausbau der Bewässerungsflächen) zu erkennen. Alle diese Faktoren würden das Übertragungsrisiko von vektorinduzierten Infektionskrankheiten wie Malaria beeinflussen und müssen im Zusammenspiel mit Klimaveränderungen betrachtet werden.
500
750
1000 Kilometer
12
7.5 Dauer der Malariaübertragungsperiode in Westafrika (Kartographie: Karthe 2009) (Quellen: African Data Sampler/World Resource Institute 1995; MARA/ ARMA Project Data 2000; Staatsgrenzen basieren auf ESRI-Daten).
234
7 Fallstudie Klima und Gesundheit
Klimaprojektionen – Voraussetzungen, Möglichkeiten und Restriktionen der Klimamodelle Die Grundlage heutiger Zirkulationsmodelle basiert auf der numerischen Wettervorhersage und den frühen Studien zur allgemeinen Zirkulation der Atmosphäre. Es besteht auch heute noch eine enge Verbindung zwischen der numerischen Wettervorhersage und der modernen Klimamodellierung. Beide Ansätze beinhalten die numerische Lösung ähnlicher Gleichungssysteme unter vorbestimmten Anfangs- und Randbedingungen. Die Entstehung und Weiterentwicklung der Klimamodellierung in den letzten Jahrzehnten hat die Klimaforschung revolutioniert. Klimamodellierungen, die auf dynamischen Gleichungen beruhen, numerische Experimente und Diagnostik ergänzen seitdem die klassische statistische Analyse der in situ-Beobachtungen. Es gibt globale Klimamodelle, die das Klima der gesamten Erdoberfläche simulieren und regionale Klimamodelle, die Berechnungen für bestimmte Gebiete liefern. Globale, also die gesamte Erde abdeckende Klimamodelle können gegenwärtig Daten in einer horizontalen Auflösung von etwa 200 x 200 km zur Verfügung stellen. Da diese Auflösung für viele Fragestellungen jedoch nicht ausreicht, wurden Regionalisierungsverfahren entwickelt. Grundsätzlich kommen dabei zwei verschiedene Methoden zur Anwendung: dynamische und statistische Verfahren. Beispiele hierfür sind die vom Umweltbundesamt (UBA) genutzten Modelle REMO und WETTREG: REMO ist ein dynamisches und WETTREG ein statistisches Verfahren. Mit WETTREG wurden im Auftrag des UBA regionale Klimaprojektionen für Deutschland berechnet. WETTREG arbeitet mit Stationsdaten. Als Eingangsdaten des Modells stehen meteorologische Daten von 282 Klimastationen und 1 695 Niederschlagsstationen in ganz Deutschland zur Verfügung. WETTREG baut dabei auf globalen Klimasimulationen auf, die am Max-PlanckInstitut für Meteorologie in Hamburg mittels des Globalmodells ECHAM5/MPI-OM gerechnet wurden. Für den Zeitraum 2010 bis 2100 wurden Modellberechnungen auf Basis der SRESEmissionsszenarien A1B, A2 und B1 ( Abschnitt 4.3) durchgeführt. Die dynamischen Verfahren modellieren mit einem höher aufgelösten dynamischen Modell REMO (Regionalmodell) Parameter für Teilgebiete des globalen Modellgebiets und verwenden dazu Eingangsdaten aus dem räumlich übergeordneten globalen Modell.
Das dreidimensionale hydrostatische regionale Klimamodell REMO ist ein atmosphärisches Zirkulationsmodell, das die relevanten physikalischen Prozesse dynamisch berechnet. Es wurde am Max-Planck-Institut für Meteorologie (MPI-M) entwickelt (Jacob et al. 2007). Für regionale Analysen über Deutschland wurde das Modell REMO in das globale Klimamodell ECHAM5/MPI-OM (Roeckner et al. 2003) des MPI-M integriert. Das REMO-Modell ist aus dem Europa-Modell des Deutschen Wetterdienstes (DWD) hervorgegangen. Die zu prognostizierenden Variablen des Modells sind horizontale Windkomponenten, Bodendruck, Temperatur, spezifische Feuchte sowie Flüssigwassergehalt. Das Modell kann alternativ mit den physikalischen Parametrisierungen des Europa-Modells des DWD und mit denen des globalen Klimamodells ECHAM-4 (Roeckner et al. 1996) betrieben werden. Das Modell berechnet subskalige physikaliche Prozesse (z. B. Konvektionsbildung), die modellseitig nicht mehr aufgelöst werden können, durch sogenannte physikalische Parametrisierungen. Die statistischen Verfahren setzen voraus, dass die globalen Modelle im großräumigen Maßstab die Muster der atmosphärischen Zirkulation hinreichend beschreiben können. Dabei werden statistische Beziehungen zwischen den großräumigen Mustern (Wetterlagen) und den lokalen Auswirkungen erkannt. Bekannte Korrelationen, die aus der Vergangenheit oder Gegenwart gewonnen werden, können auf die Projektionen der globalen Modelle angewendet werden. Das statistische Modell WETTREG bestimmt die Klimawirkung nicht direkt aus den Szenariorechnungen des globalen Klimamodells, sondern bestimmt sie über die Kausalkette von sich ändernden Häufigkeiten der Wetterlagen in den täglichen Realisierungen des Klimamodells (vgl. Spekat et al. 2006). In der Evolution der Klimamodelle kann man einfache und gekoppelte Modelle unterscheiden. Am Anfang standen die Atmosphärenmodelle (auch General Circulation Model, GCM genannt). Mit der dann folgenden Entwicklung von separaten Atmosphären- und Ozeanmodellen war zu erwarten, dass man in Folge beide Sphärenmodelle in Klimasimulationen miteinander koppeln könne. Das erste gekoppelte Atmosphäre-Ozean-Modell wurde 1969 von Manabe und Bryan entwickelt. Dies war der Anfang für die intensive Entwicklung
7.2 Fallbeispiel: Klimawandel und die afrikanische Malaria
gekoppelter Atmosphäre-Ozean-Modelle in den 1980er- und 1990er-Jahren. In diese Entwicklungsphase fällt auch die erfolgreiche Simulation von Wolkenflüssigwasser und Wolkeneis, der Sulfataerosole sowie zahlreicher Landoberflächenprozesse. Ebenso gehört die Simulation von ENSO, der quasi-zweijährigen Oszillation (QBO) und der Reaktion auf langzeitliche, transiente Kohlendioxydänderungen in diese Entwicklungsphase der Modelle. Eine wesentliche Einschränkung der heutigen Klimamodellierung stellt der Wunsch nach zunehmender räumlicher Auflösung dar, die in direktem Bezug zu der Problematik der Parametrisierung gesehen werden muss. Ein Klimamodell sollte dabei eine Auflösung wählen, bei der eine vernünftige Übereinstimmung der numerischen Lösung auf allen zu betrachtenden Skalen erreicht werden kann. Dieses Kriterium trifft bei den meisten heutigen Klimamodellen allerdings nicht zu, da die Modellauflösung immer noch von der vorhandenen Computerkapazität bestimmt wird. Heute ist die horizontale Auflösung in globalen GCM-Läufen auf einige Hundert Kilometer in der Atmosphäre und auf etwa 10 km im Ozean beschränkt. Da die Computerleistung aber stetig zunimmt, ist eine wesentliche Verbesserung der räumlichen Auflösung bereits in den nächsten Jahren zu erwarten. Heute wendet man häufig die
235
Methode einer höheren Auflösung in bestimmten Regionen (Nesting) an (Giorgi 1990). Eine Herausforderung für die Klimamodellierung der Zukunft ist die Einführung von Erdsystem-Modellen, in denen chemische oder biologische Prozesse interaktiv mit dem heute konventionellen System Atmosphäre – Ozean gekoppelt werden. Hierzu gehören Modellierungen der dynamisch auf das Klima reagierenden Vegetation sowie die Darstellung des interaktiven Kohlenstoffkreislaufs in gekoppelten GCM ( C4MIP-Modelle in Abschnitt 4.1). Diese Erdsystemmodelle werden eine größere Annäherung an die Realität gewährleisten und eine Abschätzung der integrierten Auswirkungen von Klimaänderungen auf Ökosysteme zulassen. Ein dauerhaftes Problem der Klimamodellierung ist die Darstellung von Prozessen, die auf Längen- und Zeitskalen auftreten, die zu klein sind, um von den heutigen Klimamodellen aufgelöst zu werden. Zu diesen Prozessen in der Atmosphäre, die eine Parametrisierung erfordern, gehören die Konvektionsprozesse, die Wolkenbildung sowie turbulente Prozesse in der planetarischen Grenzschicht und vielfältige Landoberflächenprozesse (z. B. Bodenfeuchte, Auftauprozesse). Für die Ozeane stehen insbesondere die Mischungsprozesse für Wärmeaustausch und Salinität zur Parametrisierung an.
8
Was können wir aus dem vierten IPCC-Bericht lernen?
Ausgehend von den in den vergangenen Abschnitten skizzierten Schlüsselthemen und Fallstudien sowie den zugehörigen Forschungsergebnissen stellt sich nun die Frage, wo Wissenslücken und Unsicherheiten hinsichtlich der zukünftigen Klimaentwicklung beziehungsweise Einschätzung des Klimawandels bestehen. Mit dieser Frage eng verknüpft ist auch die zukünftige Ausrichtung der Klimatologie und ihrer Forschungsinhalte sowie deren Stellenwert für Gesellschaft und Politik. Im vorliegenden Kapitel wird deshalb versucht, den zukünftigen Forschungsbedarf im Hinblick auf Anpassungsmaßnahmen an den Klimawandel zu identifizieren. In einem ersten Schritt geht es darum, das wissenschaftliche Verständnis des Klimawandels und die damit verbundenen Auswirkungen und Anpassungsmaßnahmen zu erarbeiten. Es geht in dem vorliegenden Kapitel vor allem um die Sachverhalte, die wir noch nicht kennen, um den zukünftigen Klimawandel regional bewerten zu können. Die zukünftige Klimaforschung sollte deshalb mittelfristig auf folgende Aufgaben ausgerichtet werden:
• Identifikation der Regionen, in denen Gesellschaften die größte Verwundbarkeit durch den Klimawandel erfahren (Klima-Hot-Spots) • Identifikation von Grenzwerten (thresholds), jenseits derer potenzielle Gefahren für die Gesellschaften entstehen (climate tipping points) • Erstellung einer verlässlichen Informationsgrundlage für politische Entscheidungen über Anpassungsmaßnahmen • besseres Verständnis der Eisschilddynamik
• Quantifizierung des von Aerosolen und Wol-
• • • •
ken verursachten Radiative Forcing anhand verbesserter Vergleiche (Modell zu Modell und Modell zu in situ-Daten) verbessertes Verständnis des Wasserkreislaufs, insbesondere der Konvektions- und Niederschlagsprozesse nachhaltige Beobachtung der Ozeane und Prozesse auf den Landoberflächen Sicherstellung der Kontinuität wichtiger Satellitenmissionen zur Erforschung des Klimaund Erdsystems Sicherstellung beziehungsweise Wahrung der Datenanalyse, der Re-Analyse und Wiederaufarbeitung aller Klimadaten insbesondere im Hinblick auf Veränderungen der Messtechnik und Beobachtungssysteme (Sicherstellung langer vertrauenswürdiger Klimadatenzeitreihen)
Die heutigen Unsicherheiten in der Bewertung des Klimawandels bestehen zum einen in zahlreichen Beobachtungslücken und zum anderen in der Schwierigkeit, das vorhandene globale Wissen über den Klimawandel auf Klimawirkungen und geeignete Anpassungsmaßnahmen im regionalen Maßstab abzubilden. Zu den zahlreichen Aspekten, die Unsicherheit bei den Klimawirkungsabschätzungen auslösen, gehört z. B. das bis heute noch geringe Wissen über das Verhalten der großen Eisschilde und deren Auswirkungen auf die Entwicklung des Meeresspiegelanstiegs. Ebenso bestehen erhebliche Wissenslücken im Verständnis des Wasserkreislaufs (global und regional) und der Kohlenstoffkreisläufe an Land und in den Ozeanen. Ebenfalls sollte die Frage der potenziel-
238
len Verwundbarkeit und Widerstandsfähigkeit (Resilience) von Regionen und Gesellschaften bei der Planung neuer Forschungsansätze berücksichtigt werden. Ein wichtiges Arbeitsfeld ist hier die Konzeption und Verbesserung regionaler Klimamodelle, wobei die bessere Verknüpfung von globalen Zirkulationsmodellen und regionalen Modellen zunächst im Vordergrund steht. Die Validierung dieser Modelle mit Beobachtungsdaten der wichtigsten Klimavariablen (▶ Kapitel 2) ist eine weitere wichtige Aufgabe. Im aktuellen vierten IPCC-Bericht wird ausgiebig auf Lücken und Ausführungs- beziehungsweise Bewertungsmängel hinsichtlich der Einschätzung des Phänomens Klimawandel hingewiesen.
8 Was können wir aus dem vierten IPCC-Bericht lernen?
Politik und Wirtschaft. Ein solches Klimainformationssystem sollte folgende Aspekte berücksichtigen:
• Klimabeobachtungen, die idealerweise den
•
• •
8.1 Wissenschaftliches Verständnis des Klimawandels im Hinblick auf Anpassungsmaßnahmen Die Basis zur Bewertung des zukünftigen Klimawandels sind die Aussagen und Einschätzungen der IPCC-Arbeitsgruppen I (The Physical Science Basis) und II (Impacts, Adaptaion and Vulnerability) sowie zahlreicher, nicht im IPCC-Report 2007 erfasster Einzelstudien (IPCC-Report 2007 berücksichtigt wissenschaftliche Ergebnisse bis Sommer 2006). Die Aussagen des IPCC gelten insbesondere für die globalen Abschätzungen der Klimawirkungen. Für den regionalen Maßstab werden diese ergänzt durch viele staatliche Einzelstudien (z. B. die Umweltbundesamt-Studie 2008: Klimaauswirkungen und Anpassung in Deutschland – Phase 1: Erstellung regionaler Klimaszenarien für Deutschland). Denn neben den global skizzierten Klimaprojektionen hat natürlich jede Gesellschaft beziehungsweise jeder Nationalstaat ein Eigeninteresse an den konkreten Auswirkungen des Klimawandels im eigenen Land. In den nächsten Jahrzehnten wird sich das Klima aufgrund des menschlichen Einflusses verändern, sodass weitere Anpassungsmaßnahmen notwendig werden. Ein wichtiger und erster Schritt ist die Bereitstellung eines geeigneten wissenschaftlich fundierten „Klimainformationssystems“ als Werkzeug für Entscheidungsträger in
•
GCOS-Beobachtungsprinzipien entsprechen und sich im Messumfang mindestens an den wichtigsten Klimavariablen (ECV) orientieren allgemeiner Datenzugang, effektives Datenmanagement, Analyse und Re-analyse von Klimadaten sowie Ableitung von Datenprodukten (z. B. Niederschlagskarten, Temperaturverteilungen). Bewertung vergangener Klimate (Paläoklima) und deren Einfluss auf Mensch und Ökosystem Erarbeitung kurzfristiger Klimaprojektionen für die nächsten Jahrzehnte (etwa bis 2050) Erstellung langfristiger Klimaprojektionen über das Jahr 2100 hinaus
Um die für das Klimainformationssystem geforderten kurzfristigen Klimaprojektionen (rund 30 Jahre) zu ermöglichen, müssen die vorhandenen Klimamodelle erweitert und anhand von Stationsbeobachtungen weiter validiert werden. Der vierte IPCC-Report belegt ein mittlerweile gutes Verständnis der Modellierung der Oberflächentemperaturen in Verknüpfung mit den wirklich beobachteten Temperaturen während des 20. Jahrhunderts im globalen und kontinentalen Maßstab. Für andere Variablen, wie z. B. die Niederschlagsverteilung oder die räumliche Ausprägung von Extremereignissen gilt dies allerdings noch nicht. Ein Problem stellt dabei die Vielzahl der unterschiedlichen Modellmetriken unter den Klimamodellen dar. Hier gilt es, in Zukunft eine geeignete und in Forscherkreisen allgemein anerkannte Klimamodellmetrik für dekadische Prognosen zu entwickeln, welche die Vorteile aller andern in sich vereint und von der Mehrzahl der Modellierungsgruppen angenommen wird. Erste Ansätze einer Umsetzung lassen sich im AMIP-Projekt (Atmospheric Model Intercomparison Project) erkennen, welches von den WCRP-Arbeitsgruppen für gekoppelte Modellierung (WGCM) und für numerische Experimente (WGNE) koordiniert wird. Ein weiteres Problem ist das Fehlen ausreichender Messdaten über die Ozeane. Die Rechenläufe der atmosphärischen Zirkulationsmodelle, die mit Oberflächentemperaturen der
8.2 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht?
Ozeane gekoppelt sind, konnten in der Vergangenheit in recht guter Annäherung Klimaanomalien wie die Sahel-Dürre oder den amerikanischen „Dust Bowl“ simulieren. Dies belegt, dass ohne eine Initialisierung der Ozeaneigenschaften und anderer wichtiger Klimaparameter Prognosen im dekadischen Zeitrahmen schwierig sind. Ausgehend von dieser Erfahrung sollte ein globaler beziehungsweise regionaler Datensatz für die Ozeane entwickelt werden, der sowohl auf Satellitendaten als auch in situ-Daten basiert. Dazu sollte das bestehende ARGO-Messnetz erhalten beziehungsweise in seiner Dichte verbessert werden, um für einen Zeitrahmen von > 50 Jahren entsprechende Messreihen zur Validierung von Ozeanmodellen (OGCM) generieren zu können. Zudem gilt es, bestehende Inhomogenitäten zwischen verschiedenen Messtechniken (z. B. XBT und ARGO) auszuschalten. Um ein verbessertes Verständnis des Klimawandels und dessen Auswirkungen für Anpassungsstrategien zu erzielen, sollten zusammengefasst zunächst folgende Aktivitäten initiiert beziehungsweise entsprechende Forderungen berücksichtigt werden:
• Die Entwicklung der Klimamodelle muss
• •
•
•
nachhaltig von der Erfassung hochqualitativer in situ-Klimabeobachtungszeitreihen begleitet werden. Die Metriken der Modelle müssen im Abgleich der Modelle untereinander und mit Beobachtungsdaten getestet werden. Es müssen multiple Klimamodellläufe mit variierenden Auflösungen und Startzeiten (z. B. 1960, 1980, 2005) gerechnet werden, um die Abhängigkeit der Prognose von unterschiedlichen Anfangsbedingungen zu bestimmen. Die Erstellung hochqualitativer Datensätze zur dekadischen Vorhersage sollte für folgende Messparameter mittelfristig mit höchster Priorität durchgeführt werden: – Daten zur Meeresoberflächentemperatur (SST) – Daten zur Salinität der Ozeane insbesondere für höhere geographische Breiten – Bodenfeuchte, Niederschlag und weitere hydrologische Variablen – Daten zu bodennahen Winden Umweltzustände/-indizes sollten als Indikatoren für tropische Stürme (z. B. SST-Gradient) abgeleitet werden.
239
Die eingangs aufgeführten Verständnislücken im IPCC-Report decken noch offene wissenschaftliche Fragen und den daraus resultierenden Handlungsbedarf auf.
8.2 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht? Obwohl unser wissenschaftliches Verständnis des Klimawandels sich vor allem von IPCCReport 3 zu IPCC-Report 4 (TAR 2001 zu AR4 2007) erheblich verbessert hat, existieren immer noch offene Fragen, die zu einer erhöhten Unsicherheit bei der Abschätzung der Klimaauswirkungen auf die Gesellschaften unserer Erde führen. Auf diese Fragen richtet der vorliegende Abschnitt das Augenmerk. Hier sind insbesondere die in der Klimageschichte abrupt auftretenden Klimaänderungen von Interesse, da diese bei erneutem Auftreten unweigerlich den Gesellschaften großen Schaden zufügen würden, da nicht rechtzeitig Anpassungsmaßnahmen eingeleitet werden könnten. Hier können vier sogenannte abrupte Gefährdungsbereiche ausgewiesen werden: 1. rasche Veränderung der Eisschilde mit einhergehendem Meeresspiegelanstieg 2. globale und nachhaltige Veränderungen des Wasserhaushalts 3. abrupte Veränderung der atlantischen Meridionalzirkulation (AMOC) 4. schnelle Freisetzung von Methan in die Atmosphäre, welches zurzeit noch in den Permafrostböden und den kontinentalen Schelfen eingeschlossen ist Aktuelle paläoklimatische Rekonstruktionen belegen, dass das Klimasystem bestimmte Schwellenwerte aufweist, die bei Erreichen beziehungsweise Überschreiten zu abrupten, nichtlinearen Systemveränderungen führen können (tipping points). Heutige Beobachtungen belegen z. B. unerwartet schnelle dynamische Veränderungen der Eisschilde und Eisschelfbereiche, welche zurzeit unser Wissen über die auslösenden Prozesse übersteigen.
240
8.2.1 Handlungsbedarf: Dynamik der Eisschilde der Erde Die großen Eisschilde Grönlands und der westantarktischen Halbinsel zeigen an ihren Rändern erheblichen Eisverlust. Die Beschleunigung dieses Eisverlusts beziehungsweise die hohen Schmelzraten und die Dynamik des Eises sind von keinem Klimamodell prognostiziert worden. Ebenso ist nach wie vor unsicher, in welchen Ausmaßen und Skalenbereichen das Abschmelzen mit dem Anstieg der Luft- und Ozeantemperaturen zusammenhängt. Zukünftig werden diejenigen Gletscher- und Eisschildgebiete sehr sensibel für Veränderungen in ihrem Eisvolumen sein, in denen das geschmolzene Wasser bis zur Basis des Eises einsickert oder wo sich die Eisbasis erheblich unterhalb des Meeresspiegels befindet. Dies gilt für große Teile des westantarktischen Eisschildes und die mächtigen grönländischen Gletscher wie den Jakobshavn Isbrae. Die Dynamik der Eisschilde ist dabei eng verknüpft mit der Entwicklung des Meeresspiegelanstiegs. Größte Unsicherheiten bestehen allerdings in der Abschätzung aller Komponenten, die einen Meeresspiegelanstieg auslösen. Neuere Bewertungen zeigen, dass der Meeresspiegel stärker ansteigen wird als in den zentralen Projektionen des IPCC-Reports (AR4) ausgewiesen. Der Massenverlust der Gletscher beziehungsweise Eisränder durch Einwirkung wärmerer Ozeantemperaturen sowie das Kalben der Eisberge hat in der Antarktis einen Anteil von nahezu 95 % und in Grönland von 40–50 % am Gesamtschmelzaufkommen. Zukünftige Modifikationen der Ozeanzirkulation und Ozeantemperaturen werden den Massenverlust der Eisschilde beschleunigen, jedoch kann das Ausmaß dieses Prozesses von keinem aktuellen Klimamodell zurzeit prognostiziert werden. Es besteht ein fundamentales Verständnisproblem für die physikalischen Prozesse, die einen abrupten Massenverlust verursachen. Eine wichtige Aufgabe ist deshalb die Entwicklung geeigneter Modelle, die das Verhalten der Eisschilde und Gletscher gegenüber Klimaveränderungen prognostizieren. Hier sollten verstärkt Messungen von Satelliten (Radar- und Laseraltimetrie, ENVISAT, ICESat, zukünftig CryoSat-2) und Flugzeugen verwendet werden, um die Oberflächentopographie der Eisschilde und Gletscher mittels Altimetrieverfahren
8 Was können wir aus dem vierten IPCC-Bericht lernen?
genauer zu erfassen. Neben der genauen Beobachtung der Oberflächengestalt der Eismassen und deren Massenbilanzen gilt es, auch deren Fließgeschwindigkeit in Zukunft genauer zu erfassen. Für diese Aufgabe sollte verstärkt die Satelliteninterferrometrie mittels bereits vorhandener Satelliten (InSAR) genutzt werden. Generell gilt es, bereits vorhandene Messwerterfassungssysteme dezidiert in die Forschungsarbeit zu integrieren. Aufgrund der engen Kopplung der Eismassenreaktionen an die Ausprägung der Ozeane ist Messkontinuität beziehungsweise ein Ausbau des ARGO-Systems und anderer ozeanbeobachtender Messnetze wichtig. Eine bessere Verknüpfung der Modellierung des Meeresspiegelanstiegs mit realen Beobachtungen (GPS-basierte Pegelmessinstrumente) ist ebenso zu fordern. Dazu gehören auch die weiter zu führenden Messungen des JasonSatelliten (Nachfolger der TOPEX/Poseidon-Mission, ▶ Abschnitt 1.3.2). Ein detaillierter Bericht zur zukünftigen Ausrichtung der Forschung zum Meeresspiegelanstieg findet sich bei der WMO .
8.2.2 Handlungsbedarf: Veränderungen im Wasserhaushalt der Erde Der Wasserhaushalt der Erde variiert in Zeitskalen von Minuten bis zu Jahrhunderten und ist räumlich sehr heterogen ausgeprägt. Deshalb ist ein besseres Verständnis des Wasserhaushalts in allen seinen zeitlichen und räumlichen Skalen von Bedeutung. Insbesondere ist die hoch frequente Angebotskomponente im hydrologischen Zyklus über Land, die Speicherkomponente des Wassers auf dem Land sowie die niederfrequente Angebotskomponente des Wassers über den Ozeanen von großem Interesse. Der hydrologische Zyklus wird maßgeblich durch den Niederschlag, die Verdunstung und den Abfluss bestimmt. Der Niederschlag als wichtigstes Element ist dabei intermittierend ausgeprägt. Seine Veränderung in Raum und Zeit ist eine kritische Variable für viele anthropogene Belange. Da davon auszugehen ist, dass der Klimawandel die globale Niederschlagsverteilung hinsichtlich Menge und Intensität verändern wird, werden räumlich und zeitlich hoch aufgelöste Datensätze benötigt, um
8.2 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht?
in Zukunft geeignete Anpassungsmaßnahmen einzuleiten. Flächendeckende und übergreifende Datensätze zum Niederschlag sind jedoch nur in unzureichenden Maßstabsbereichen vorhanden. Deshalb sollte ein globaler Niederschlagsdatensatz mit Messwerterfassung im Stundenintervall und einer horizontalen Auflösung von mindestens 100 km bis 1 km (optimaler Zielwert) entwickelt werden. Stündliche Messwerterfassungen erlauben Rückschlüsse auf den Tagesablauf im Niederschlagsgeschehen und lassen verbesserte Aussagen zu Intensität, Frequenz und Einsetzen der Niederschläge zu. Außerdem können diese Größen mit anderen Variablen wie dem Wasserdampfgehalt, der atmosphärischen Stabilität (Schichtung) und der Temperatur gekoppelt werden, um die Dynamik der beteiligten Prozesse besser zu verstehen. Aktuell wird der Niederschlag routinemäßig als 6-Stundenwert kumuliert und der Klimamodellierung zur Verfügung gestellt. Eine Verbesserung der zeitlichen Auflösung auf eine Stunde sollte aber mittelfristig möglich sein, da bereits viele Niederschlagsstationen an Land Daten im Stundenintervall oder besser aufzeichnen. Über den Ozeanen könnte die höhere Auflösung durch den kombinierten Einsatz polar umlaufender und geostationärer Satelliten erreicht werden. Hier könnten in Zukunft koordinierte Satellitenmissionen zur Niederschlagsmessung einen wertvollen Beitrag leisten (wie z. B. die Global Precipitation Mission). Neue Sensoren, z. B. SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Cartography) des ENVISAT-Satelliten, tragen zu den geforderten höheren Auflösungen der Niederschlagserfassung bei, die für die Klimamodellierung genutzt werden können. Der typische Zeittakt der meisten Klimamodelle beträgt 20 Minuten. In Relation zum numerischen Rauschen der Modelle wäre ein Zeitintervall von einer Stunde bei der Niederschlagserfassung noch sinnvoll. Es besteht also dringender Handlungsbedarf, den Klimamodellen Niederschlagszeitreihen mit einer Stunde Auflösung im globalen Maßstab zur Verfügung zu stellen. Aktuelle Modellergebnisse, die auf der Nutzung von Tages- oder Monatswerten beruhen, überschätzen oftmals die Niederschlagsmenge und können nur unzureichende Aussagen zur Intensitätsabschätzung liefern. Die heutigen Modelle weisen aber auch auf fundamentale Defizite bei der Parametrisierung von Prozessen (z. B. der konvektiven Prozesse) hin.
241
Das Klima der Erde kann mit numerischen (Computer-) Modellen des Systems Erde-Atmosphäre simuliert werden. Bei solchen Simulationen gibt es Ungenauigkeiten in den Startbedingungen und in der Umsetzung der physikalischen Gleichungen. Diese Fehler beeinträchtigen die Vorhersagbarkeit des Klimas insbesondere solcher zeitlich und räumlich hoch variabler Klimaelemente. Das europäische ENSEMBLES-Projekt (ENSEMBLE-based Predictions of Climate Changes and their Impacts) ist ein Beispiel für die Generierung von täglichen Niederschlags- und Temperaturwerten mit einer Auflösung von 25 km. In ENSEMBLES werden mit einer Vielzahl (Ensemble) von Modellen einheitliche Szenarien simuliert, um Unsicherheiten in den Simulationen des zukünftigen Klimas quantifizieren zu lernen. Ein Weg in die richtige Richtung. Weiterer Handlungsbedarf besteht bei der Abschätzung der Bodenfeuchte als Teilglied des hydrologischen Zyklus. Datensätze zur Bodenfeuchte, die in Klimamodellen genutzt werden können, sind so gut wie nicht vorhanden. Hier gilt es, in Zukunft neue Ansätze zur Erfassung der Bodenfeuchte via Satellit (z. B. EUMETSAT MetOp-Satellit, Start 2006, mit Advanced Scatterometer, ASCAT) mit in situ-Messungen zu kombinieren, um flächenhafte Datensätze der Oberbodenfeuchte generieren zu können. Neben der Messung der Bodenfeuchte im Oberboden (top-soil-moisture, z. B. durch ASCAT) können Abschätzungen des Grundwassers (full-moisturecontent) mittels GRACE (Gravity Recovery and Climate Experiment, Start 2002) ergänzend herangezogen werden, um den gesamten Wasserspeicher an Land in der Wasserbilanz zu bestimmen. Die Bodenfeuchte sollte als weitere klimatische Schlüsselvariable erkannt und in die ECV-Liste aufgenommen werden, um extreme Niederschlagsereignisse und Dürren mit ihren Auswirkungen auf die Ökosysteme abschätzen zu können.
8.2.3 Handlungsbedarf: Atlantische Meridionalzirkulation im Ozean (AMOC) Der vierte IPCC-Bericht (AR4) geht davon aus, dass sich die Stärke der Atlantischen Meridional-
242
zirkulation im Ozean (AMOC) sehr wahrscheinlich im Laufe des 21. Jahrhunderts verringern wird. Die sogenannte beste Schätzung geht von einer Abschwächung um 25 % aus. Es wird jedoch als sehr unwahrscheinlich angenommen, dass die AMOC einen abrupten Übergang oder sogar einen Zusammenbruch bis zum Ende des 21. Jahrhundert erleiden wird. Dennoch bestehen große
8 Was können wir aus dem vierten IPCC-Bericht lernen?
Unsicherheiten in den Abschätzungen, woraus sich folgender Handlungsbedarf ableiten lässt:
• Aufbau und Unterhaltung eines auf lange Sicht ausgelegten Netzwerks von Messstationen im Ozean zur Erfassung der wichtigsten quantitativen Parameter (Temperatur, Salzgehalt, Strömungsgeschwindigkeit)
Daten zur Beobachtung der Meeresoberflächentemperatur (Sea Surface Temperature, SST) Die Rolle der Ozeane ist für die Entwicklung unseres Klimas sehr bedeutend. Deshalb werden Beobachtungen zur Meeresoberflächentemperatur (SST) und zum Salzgehalt sowie anderer Größen (z. B. Schichtung im Ozean, Strömung) durchgeführt. Der vorliegende Exkurs soll einen Überblick über wichtige Datenquellen und Datenreihen der SST liefern und gleichzeitig auf die Heterogenität von Datensätzen hinweisen. Quellen für SST-Daten: 1. GODAE Pilot Projekt hoch aufgelöster SST-Daten: GODAE (Global Ocean Data Assimilation Experiment) wurde gestartet, um international auf die Möglichkeiten der Entwicklung eines multi-sensoralen, hoch aufgelösten SST-Datenprodukts (6-stündige Auflösung bei 10 km Maschenweite) hinzuweisen . 2. AVHRR Pathfinder SST-Datensatz: Die AVHRR Pathfinder-Daten sind als tägliche, 8-tägige oder monatliche Mittelwerte von 1985 bis heute verfügbar. Die Daten sind als Gitterdaten mit 4 096 x 2 048 Pixel (9 km), 2 048 x 1 024 Pixel (18 km) und 720 x 360 Pixel (54 km) verfügbar . 3. AVHRR Multi-Kanal SST-Datensatz (MCSST): Die AVHRR MCSST-Daten sind als wöchentliche Mittelwerte ab dem 11. November 1981 bis heute unter Beibehaltung eines Bearbeitungsalgorithmus verfügbar. Sie werden in einem Gitter von 2 048 x 1 024 Pixel (18 km Auflösung) bereitgestellt . 4. MODIS-SST-Daten: Die MODIS-SST-Daten stellen einen hoch qualitativen Datensatz dar und sind sehr sensitiv im thermalen Infrarotbereich. Die Daten sind in einer 4-km-Auflösung in täglichen oder wöchentlichen Intervallen im HDF-EOS-Format verfügbar. Der Terra-Satellit ist nicht weiter operationell im Einsatz, sodass die MODIS-Datenreihe in Zukunft nicht weitergeführt werden kann (zurzeit ist nur noch sein Pendant, der Aqua-Satellit, im Orbit) .
NCEP Reynolds SST: Dieses Datenprodukt besteht aus wöchentlichen und monatlichen globalen SST-Daten mit einer Auflösung von 1° x 1°. Zur Produkterstellung werden sowohl in situ-SST-Daten als auch satellitengestützte . Daten vom AVHRR genutzt 5. ATSR (Along Track Scanning Radiometer) SSTDaten: Der ATSR-Sensor auf dem europäischen ERS-Satelliten liefert Infrarotbilder in einer Auflösung von 1 km. Der ERS-1 zeichnet seit 1991 auf (gefolgt von ERS-2). Die Daten liegen in einem Gitter von 512 x 512 Pixel mit 1 km Auflösung vor . 6. Globaler Atlas der Ozeanoberflächentemperaturen (GOSTAplus): Hier handelt es sich um einen multiplen Datensatz, der primär in situ-Daten von Schiffsmeldungen enthält. Der Datensatz ist als CD-ROM erhältlich und beinhaltet SSTDaten, Landoberflächentemperaturen (LandST) sowie Daten zur Eisbedeckung (ICE). Der Datensatz reicht von 1856 bis 1995 und ist im HDF- oder Binärformat erhältlich. 7. COADS (Comprehensive Ocean-Atmosphere Data Set): Der COADS-Datensatz wurde aus Schiffs- und Bojenmeldungen generiert und liefert monatliche SST-Daten in einem Raster von 2° . Es bestehen noch eine Vielzahl andere Quellen für Ozeandaten, wie zum Beispiel die Sammlungen aller in situ-Beobachtungen unter: • NOAA National Oceanographic Data Center : Das weltgrößte Datenzentrum für öffentlich verfügbare Daten über die Ozeane der Erde. • NOAA Pacific Marine Environmental Laboratory : Größte Archiv für in situ-Daten, welches auch die Daten der TOGA/TAO-Bojen enthält. • NOAA National Data Buoy Center : Archiv für Daten von verankerten und driftenden Bojen.
8.2 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht?
• verbesserte Datenanpassung aller ozeanbeobachtenden Systeme • Überprüfung der Auflösung von Ozeanmodellen für globale gekoppelte Modelle • Untersuchung von Mischungsprozessen im Ozean und ihre Parametrisierung für gekoppelte Klimamodelle • Ableitung möglicher Schwellenwerte für Systemänderungen Satellitenbasierte Untersuchungen (Radar- und Mikrowellensensoren) belegen Veränderungen der Niederschlagsverteilung über den Ozeanen. Der Salzgehalt der Ozeane dient dabei als indirekter Regenmesser. Eine Vergleichsprüfung von Niederschlagsverteilung und Salzgehalt im Ozean ergab eine signifikante Übereinstimmung. Nach den AR4-Aussagen ergeben sich großskalige Veränderungen im Salzgehalt der Ozeane. Kohärente Trends ergeben sich in der Zeitphase 1955–1998 für die subpolaren Gebiete der Ozeane. Hier ist allgemein eine Abnahme des Salzgehalts zu beobachten. In den Oberflächengewässern der tropischen und subtropischen Zone hingegen wird eine Zunahme des Salzgehalts verzeichnet. Eine Abnahme des Salzgehalts ist insbesondere im Pazifik zu erkennen, während weite Bereiche des Atlantischen und Indischen Ozeans eine Zunahme erfahren. Diese Trends der Salzanreicherung stimmen mit Veränderungen im Niederschlag über den Ozeanen sowie mit einem größeren Wassertransport vom Atlantik zum Pazifik und in der Atmosphäre von den niederen zu den höheren Breiten überein. Das bestehende ARGO-Messnetz (zurzeit > 3 000 Messinstrumente) sollte qualitativ verbessert und ausgeweitet werden, um präzise Profile des Salzgehalts in den Ozeanen zu erhalten.
8.2.4 Handlungsbedarf: Methanfreisetzung Die Ursachen für die derzeitige Zunahmerate von Methan in der Atmosphäre sind nicht sehr gut verstanden. Dies liegt darin begründet, dass wesentliche biogeochemische Prozesse nicht verstanden oder vielleicht sogar noch nicht bekannt sind. Das IPCC geht davon aus, dass es sehr unwahrscheinlich ist, dass abrupte Freisetzun-
243
gen von Methan aus Methanhydratquellen oder Feuchtgebieten stattfinden. Allerdings zeigen die Rechenläufe der Klimamodelle eine steigende Zunahme (Verdopplung) der Methanemissionen aus Feuchtgebieten für das nächste Jahrhundert an. Dieser Trend könnte sogar erheblich unterschätzt werden, da die Ausdehnung der Feuchtgebiete auf der Nordhemisphäre bei projiziertem Klimawandel derzeit sehr unsicher ist. Daraus ergibt sich folgender Handlungsbedarf in den nächsten Jahren:
• Aufbau von Netzwerken zur Methanerfassung bei gleichzeitiger Datenharmonisierung
• Vermehrte prozessbasierte Studien in Verbindung mit Langzeituntersuchungen; Parametrisierung troposphärischer chemischer Prozesse und Einbindung in biogeochemische Modelle • Kontinuität und Ausbau satellitenbasierter Beobachtungen von Methan und anderer chemischer Stoffe, welche die atmosphärische Methankonzentration mit beeinflussen (geeignet sind insbesondere Missionen wie IASI (Infrared Atmospheric Sounding Interferometer auf EUMETSAT MetOp-Satellit, Start 2006) oder SCIAMACHY sowie deren geplante Nachfolgemissionen)
8.2.5 Handlungsbedarf: Landoberflächenprozesse, Kohlenstoffzyklus und biogeochemische FeedbackMechanismen Die terrestrischen und ozeanischen Ökosysteme sind die Hauptregler im Kohlenstoffkreislauf der Erde. Die Ozeane speichern heute etwa 37 % aller CO2-Emissionen. Es herrscht Übereinstimmung, dass die Kohlendioxidaufnahme der Ozeane in den nächsten Jahrzehnten abnehmen dürfte. Aus der Sicht der Erdsystemmodellierung ist die Parametrisierung der Landoberflächenprozesse bis heute nur schwach entwickelt. Die terrestrischen Ökosysteme sind aber zugleich Heimat für Biosphäre und Mensch. Strahlungs-, Energie-, Wasser- und Kohlenstoffumsatz sind eng an die Lebensprozesse in den terrestrischen Ökosystemen (Fotosynthese und
244
Pflanzenatmung) gebunden. Darüber hinaus wirken in ihnen die vielfältigen anthropogenen Tätigkeiten nach, und auch alle zukünftigen Anpassungsmaßnahmen und Vermeidungsstrategien spielen sich in ihnen ab. Das Verständnis der vielfältigen Feedback-Mechanismen des Kohlenstoffkreislaufs ist daher zu optimieren. Dazu müssen allerdings die Netzwerke nachhaltiger in situ-Beobachtungen der Kohlenstoffaufund -abnahme auf dem Land, im Ozean und in der Atmosphäre erweitert werden. Die C4MIP-Simulationen (Coupled Carbon Cycle Climate Model Intercomparison Project) zeigen große Unsicherheiten in den Modellansätzen zur Bestimmung der Feedback-Mechanismen des Kohlenstoffkreislaufs. Dies bezieht sich für die Landflächen vor allem auf das Verständnis der zukünftigen Reaktion der Kohlenstoffspeicher im Boden sowie auf die Bewertung der Primärproduktion in Abhängigkeit von steigenden Oberflächentemperaturen. Ähnliches gilt für das Verständnis des CO2-Düngeeffekts und dessen Einbindung in bestehende Klimamodelle. Bezogen auf die Ozeane liegen die Unsicherheiten in der Bestimmung der Ozeanschichtung und deren Einfluss auf die Kohlenstoffabgaberate sowie in großskaligen Veränderungsmustern der Ozeanerwärmung und Effekten der Ozeanversauerung. Der Netto-Effekt aller dieser Faktoren auf die biologische Kohlenstoffpumpe ist bis heute unbekannt. Aktuellste Forschungsergebnisse, die vor Erscheinen des AR4 noch nicht verfügbar waren, zeigen heute einen schnelleren Anstieg der atmosphärischen CO2–Konzentration bedingt durch einen gestiegenen Verbrauch fossiler Energieträger und eine mögliche Abnahme der Kohlenstoffaufnahme durch die Ozeane. Um die Effekte der geschilderten Prozesse mit größerer Sicherheit zu prognostizieren, bedarf es zunächst eines besseren Verständnisses des CO2Einflusses auf terrestrische und ozeanische Ökosysteme. Es besteht folgender Handlungsbedarf:
• Klärung der Frage, ob und warum die terrestrische Kohlenstoffsenke bei zunehmenden CO2-Emissionen weiter wächst • genaue Untersuchung der Reaktion der NettoPrimärproduktion (NPP) auf Temperaturveränderungen sowie der Reaktion der Kohlenstoffspeicher im Ökosystem
8 Was können wir aus dem vierten IPCC-Bericht lernen?
• Erklärung des Stickstoffkreislaufs und der Zersetzungsprozesse im Boden in Zusammenhang mit der zur Verfügung stehenden Bodenfeuchte (fundamentale Prozesse) Erste Ansätze eines Beobachtungssystems für die Komponenten der Kohlenstoffflüsse bestehen bereits in Europa, den USA und Japan sowie in Teilen des Atlantischen und Pazifischen Ozeans. Messungen zur Bodenfeuchte liegen in vielen Bereichen der Erde nur temporär vor, während Messungen der sensiblen und latenten Wärmeflüsse an einer begrenzten Anzahl von FLUXNET-Stationen durchgeführt werden (siehe Baldocchi et al. 2001). Es besteht dringender Handlungsbedarf, diese wichtigen FLUXNETDaten einerseits zu harmonisieren und andererseits mit anderen Beobachtungen (insbesondere durch Satelliten) zu verbinden. Eine Spezifizierung wichtiger Schlüsselvariablen (z. B. FAPAR, Albedo, pCO2) zur systematischen Beobachtung des Kohlenstoffkreislaufs finden sich im Integrierten globalen Kohlenstoffbeobachtungsreport (IGCO) und im Umsetzungsplan für das Globale Beobachtungssystem des Klimas zur Unterstützung der UNFCCC .
8.2.6 Handlungsbedarf: Aerosol-Wolken-Interaktion und Radiative Forcing Es besteht ein dringender Bedarf nach einem besseren Verständnis der Aerosol-Wolken-Effekte. Der aktuelle IPCC-Bericht lässt in vielen der verwendeten Klimamodelle die Aerosol-WolkenInteraktionen unberücksichtigt. Der indirekte Strahlungsantrieb durch Aerosole wird vernachlässigt. Der Bericht geht davon aus, dass der Nettostrahlungseffekt der Aerosole global gemittelt negativ ist und zu einer Abkühlung der Oberfläche beiträgt. Die Aerosol-Wolken-Interaktion gehört vom wissenschaftlichen Kenntnisstand her zu den unsichersten anthropogenen Strahlungsantrieben. Die Trennung der direkten und indirekten Aerosoleffekte in der Modellierung der Prozesse ist äußerst schwierig, da der Schwellenwert, ab dem verstärkt Tropfenwachstum eintritt (Maß
8.2 Offene wissenschaftliche Fragen – welcher Handlungsbedarf besteht?
der relativen Umgebungsfeuchte), unbekannt ist. Die Erforschung des Aerosoltransports, der konvektiven Prozesse, der Wolkenbildung und Energieumwandlung in Wolken sowie deren Einbindung in Klimamodelle ist daher von großer Relevanz. Wichtige Ansätze sind hier das internationale Satellitenprojekt zur Wolkenklimatologie (International Satellite Cloud Climatology Project, ISCCP) sowie die Entwicklung von Strahlungstransfermodellen für die Sensoren HIRS (High-Resolution Infrared Radiation Sounder, NOAA) und SEVIRI (Spinning Enhanced Visible and Infrared Imager, EUMETSAT, Satellit: Meteosat-8).
8.2.7 Handlungsbedarf: Regionalisierung der Modellprojektionen – Downscaling Für die Zukunft werden zusätzliche Szenarien und Projektionen gefordert, die geeignet sind, mögliche Klimaauswirkungen im regionalen und lokalen Maßstab zu bewerten. Diese lokalen und regionalen Modellprojektionen sind die eigentliche Grundlage zur Planung zukünftiger Anpassungsmaßnahmen und Vermeidungsstrategien. Hier besteht ein großer Handlungsbedarf für zukünftige Politikberatung zur Unterstützung von Entscheidungsprozessen. Globale Modelle sagen wenig über Klimaänderungen in einzelnen Staaten und deren Regionen aus. Zur Abschätzung von Klimaauswirkungen (impacts) wie etwa der Veränderung der Vegetationsdecke oder der Zunahme von Überschwemmungen infolge höherer regionaler Starkniederschläge sind regionale und lokale Klimaprognosen zu fordern. Auch die neuesten globalen gekoppelten Atmosphäre-Ozean-Modelle haben immer noch eine zu große Maschenweite (> 100 km). Da allein eine Verdopplung der horizontalen Auflösung eine achtfache Steigerung des erforderlichen Rechenaufwands bedeutet, sind hier aus Sicht der Computerleistung Grenzen gesetzt. Die Modellentwickler reagieren auf dieses Problem mit der sogenannten Downscaling-Methode. Beim Downscaling lassen sich zwei Typen unterscheiden: das dynamische und das statistische Downscaling. Statistische Downscaling-
245
Modelle hängen fundamental von der Qualität der regional erhobenen Daten ab. Beim dynamischen Downscaling werden hoch auflösende Modelle (z. B. REMO mit 10 km Auflösung) für bestimmte Regionen in ein gröberes globales Modell eingepasst. So wird beispielsweise ein Regional-Modell mit 110 km Gitterabstand (T106) in ein globales T42-Modell mit einer Maschenweite von rund 250 km für eine bestimmte Region eingebettet. Das regionale Modell nutzt die Daten des globalen Modells als Randbedingungen. In das Regional-Modell kann dann nach dem gleichen Prinzip noch ein lokales Modell (z. B. mit 50 km oder 10 km Maschenweite) eingefügt werden (Abbildung 8.1). 8.1 Charakteristische Auflösung von Klimamodellen, die für die Anfertigung der IPCC-Berichte genutzt wurden: FAR (IPCC 1990), SAR (IPCC 1995), TAR (IPCC 2001) und AR4 (IPCC 2007) (Quelle: IPCC-Report 2007). ( Farbtafel)
Beim statistischen Downscaling wird eine statistische Beziehung (Korrelation) zwischen regionalen Klimavariablen (z. B. Temperatur und Niederschlag) und großräumigen Bedingungen (Wetterlage) aus der Beobachtung abgeleitet. Dann werden diese Korrelationen auf die Ergebnisse der global gekoppelten Modelle angewandt, um regionale Klimaeigenschaften abzuleiten. Hier besteht ein dringender Handlungsbedarf die Schnittstellen von regionalen und globalen Modellen zu verbessern.
8.2.8 Handlungsbedarf: Entwicklung von Schnittstellen zwischen Politik und Wissenschaft Eine der wichtigsten Aussagen des vierten IPCCBerichts ist, dass die in den Berichten der Arbeitsgruppen (WG1 bis WG3) aufgezeigten Unsicherheiten bezüglich Klimafolgenabschätzung kommuniziert werden müssen. Alle drei IPCCArbeitsgruppen betonen ausdrücklich mögliche Unsicherheiten in den Klimaprognosen und geben zusätzlich Hinweise zu ihrer Handhabung. Die wissenschaftliche Komplexität des Klimawandels und die gleichzeitige Erfordernis von
246
Informationen zur Ableitung einer geeigneten Klimapolitik stellen Wissenschaftler und Politiker gleichermaßen vor eine große Herausforderung. Es stellt sich die Frage, wie man diese Unsicherheiten handhabt. Im Hinblick auf zukünftige Entscheidungsprozesse stehen typischerweise zwei Optionen zur Verfügung: 1. die Unsicherheiten weiter eingrenzen 2. die Effekte reduzieren beziehungsweise managen, die Unsicherheit auslösen Die erste Option versucht, die Unsicherheit durch weitere Datensammlungen, Forschung, Modellierung und Simulationstechniken einzugrenzen. Dies entspricht „normaler“ wissenschaftlicher Arbeit. Die Zielvorstellung ist dabei, die Unsicherheit zu bewältigen oder anders ausgedrückt das noch Unbekannte (was Unsicherheit auslöst) wissenschaftlich abgesichert bekannt zu machen. Die Komplexität des globalen Umweltwandels
8 Was können wir aus dem vierten IPCC-Bericht lernen?
und der inhärenten Unsicherheiten in Verbindung mit der Tatsache, dass Entscheidungen oftmals getroffen werden müssen, bevor die Unsicherheiten wissenschaftlich geklärt sind, lassen die erste Option nur als langfristiges Ziel erscheinen. Dies führt in den meisten politischen Entscheidungen dazu, die Unsicherheiten eher zu managen als sie zu meistern. Dies entspricht eher der zweiten Option und integriert den Umgang mit den Unsicherheiten in den politischen Entscheidungsprozess. Man spricht in diesem Falle auch von Risikomanagement. Die Quellen für Unsicherheiten in der Klimaforschung sind dabei vielseitig, wie die Anmerkungen zu den Aussagen des vierten IPCC-Berichts belegen. Dringender Handlungsbedarf besteht also darin, die Schnittstellen zwischen Wissenschaft und Politik zu verbessern und die bestehenden wissenschaftlichen Unsicherheiten entscheidungsorientiert für die Politik zu kommunizieren.
Teil III Wechselwirkungen: Klima – Mensch, Gesellschaft und Politik 9 Klima und Mensch 10 Klima und Gesellschaft 11 Klima und Politik 12 Klimawandel: eine andauernde Kontroverse und Herausforderung für Natur- und Sozialwissenschaft
Ausgehend von den in Teil II skizzierten globalen Klima- und Umweltveränderungen wird im dritten Teil des Buches auf die vielfältigen Wechselwirkungen zwischen Klima und Mensch (Kapitel 9), Klima und Gesellschaft (Kapitel 10) sowie Klima und Politik (Kapitel 11) eingegangen. Zunächst betrachten wir ausgehend von den Ursprüngen der ersten Primaten den Stammbaum des Menschen mit seinen evolutionären Linien, um dann die Entwicklung zur heutigen globalisierten Menschheit (Stichwort Zivilisationsdynamik) nachzuvollziehen. Das Kapitel 11 schließlich stellt im Spiegel historischer Klimaund Umweltpolitik aktuelle und zukünftige Ansätze für das „Erdmanagement“ einer globalisierten Welt vor.
Die globalen Veränderungen der Umwelt, die auf Mensch und Gesellschaft einwirken, sind solche, die den Charakter des Erdsystems zum Teil irreversibel modifizieren und deshalb direkt oder indirekt die natürlichen Lebensgrundlagen für einen Großteil der Menschheit spürbar beeinflussen. Diese globalen Veränderungen der Umwelt können, wie wir in Kapitel 3 gesehen haben, sowohl durch natürliche (Erdbahnparameter, Sonnenaktivität) als auch anthropogene Ursachen (zusätzliche Spurengase, Landnutzungsveränderungen) bestimmt werden. Um diesen Gesamtzusammenhang zu kennzeichnen, wurde im zweiten Teil des Buches der Begriff des Global Change erläutert und der Leser in das Systemdenken mit seinen Feedback-Mechanismen
248
Teil III Wechselwirkungen: Klima – Mensch, Gesellschaft und Politik
eingeführt. Der Klimawandel wurde dabei als Teilbereich des Globalen Wandels verstanden. Die Umwelt selbst wird als die Gesamtheit aller Prozesse und Räume definiert, in denen sich die Wechselwirkung zwischen Natur und Zivilisation abspielt. Der Begriff Umwelt ist daher weiter gefasst und schließt alle natürlichen Faktoren ein, welche von Menschen beeinflusst werden beziehungsweise diese selbst beeinflussen. Auf der Grundlage der Kenntnis natürlicher Umweltveränderungen (Paläoklimaforschung) konzentrierte sich ▶ Teil II des Buches auf die anthropogen beeinflussten globalen Umweltveränderungen. Diese sind oft durch ihre – im Vergleich zu natürlichen Veränderungen – hohe Geschwindigkeit charakterisiert. Sie überfordern dadurch die Anpassungsfähigkeit und die Reparaturmechanismen des Systems Erde. So könnte man heute fragen, ob wir es in Zukunft eher mit Problemklimaten oder Problemgesellschaften zu tun haben. Der Mensch als zurzeit wichtigster Klimafaktor ist zugleich Verursacher und Betroffener der beschriebenen globalen Veränderungen. In einer weiteren Rolle kann er aber auch aktiv reagieren, indem er sich an eingetretene Schäden anpasst (Adaptation), oder vorsorglich handelt, um Schäden zu vermeiden (Mitigation). Anpassungs- oder Vermeidungsstrategien des Menschen sind je nach Region und Kulturraum unterschiedlich ausgeprägt. Entsprechende Unterschiede zwischen Industrie-, Schwellen- und Entwicklungsländern werden beispielhaft in Kapitel 9 und 11 erörtert. Da Menschen dazu tendieren, eher lokal zu denken und zu handeln, besteht eine der größten Aufgaben darin, das Verständnis für globale Wechselbeziehungen zu vermitteln, damit es in angemessenes Handeln umgesetzt werden kann. Das Erkennen der globalen und generationenübergreifenden Tragweite des Umgangs mit der Umwelt muss zur Grundlage einer allgemeinen Ethik (Küng 1997) werden. Die globalen Umweltveränderungen werden in vielen Fällen durch lokales Handeln verursacht und wirken über globale Zusammenhänge auf die lokale Ebene zurück. Probleme, die auf ökologischen, ökonomischen, sozialen und technischen Ursachen beruhen, können nur mithilfe transdisziplinärer, problemorientierter Forschungsansätze gelöst werden. Solche Forschungsansätze sollten natur-
und sozialwissenschaftliche sowie universitäre und außeruniversitäre Forschungsbereiche miteinander verknüpfen. Die Betrachtungen von „Klima und Mensch“ und „Klima und Gesellschaft“ sind unweigerlich mit der Ausrichtung der heutigen und zukünftigen Klimapolitik verknüpft, welche die ökonomischen und ökologischen Rahmenbedingungen für die zukünftige Entwicklung der menschlichen Gesellschaft vorgibt. Die Klimapolitik steht dabei vor der großen Herausforderung, eine möglichst hohe Reduktion an Treibhausgasemissionen kosteneffizient und für die beteiligten Gesellschaftssysteme sozial verträglich zu erreichen. Ziel ist es, geeignete politische Strategien zu entwickeln, die zu einer Stabilisierung der Treibhausgase in der Atmosphäre führen und die Kosten der Emissionsreduzierung gerecht zwischen Industrie- und Entwicklungsländern verteilen. Dabei gilt es, die Komplexität und Langfristigkeit des Klimawandels zu beachten. Aufgrund der langen Verweilzeit und der Trägheit des Klimasystems sind Managementinstrumente erforderlich, die Zeithorizonte von über 100 Jahren berücksichtigen. Der globale Charakter des Umweltproblems macht außerdem eine globale Politik (global governance) und damit verbunden globale Übereinkommen wie z.B. die Klimarahmenkonvention der Vereinten Nationen notwendig. Um die postulierten Klimawirkungen mit der Klimapolitik zu verbinden, müssen daher geeignete ökonomische Instrumente entwickelt werden. Die obigen Ausführungen verdeutlichen, dass die Klimapolitik als sequenzieller Entscheidungs- und Lernprozess verstanden werden muss, der sich eines Maßnahmenkontingents bedient, das sowohl Anpassungs- als auch Minderungsstrategien beinhaltet. Anpassung und Minderung (Adaptation und Mitigation) lauten daher die Schlüsselworte, die nicht unabhängig voneinander betrachtet werden dürfen. Zuvor beschäftigen wir uns aber mit dem Verhältnis „Klima und Mensch“ und seiner Entwicklung hin zu unterschiedlichen Gesellschaftsformen und deren Einfluss auf die zukünftige Klimaentwicklung.
9
Klima und Mensch
Der zeitliche Ursprung der Primaten, zu denen sämtliche Affen und der Mensch gehören, liegt nach Modellen, die zur Rückberechnung evolutionärer Abläufe herangezogen werden, bei ca. 80–90 Millionen Jahren vor Heute (Oberkreidezeit). Fossilfunde, die den Euprimaten zugeordnet werden, sind auf rund 55 Millionen Jahre datiert (Eozän). Das Eozän ist eine chronostratigraphische Serie innerhalb des Paläogens (früher des Tertiärs) und begann vor etwa 55,8 Millionen Jahren und endete vor etwa 33,9 Millionen Jahren. Es wird an der Basis durch eine ausgeprägte Änderung im KohlenstoffIsotopen-Verhältnis (Carbon Isotope Escursion) definiert. Das Ende des Eozäns (Übergang zum Oligozän) wird zudem durch das Aussterben der Foraminiferen-Gattung Hantkenina markiert. Wichtiges Evolutionsereignis im Eozän ist insbesondere die sprunghafte Weiterentwicklung der Säugetiere, die sich in zahlreichen Fossilfundstellen in Deutschland dokumentieren lässt, z. B. die Grube Messel bei Darmstadt (Hessen), das Geiseltal bei Halle/Saale (Sachsen-Anhalt) und das Eckfelder Maar bei Manderscheid (Rheinland-Pfalz). Stratigraphie (lat. stratum = Schicht) oder Schichtenkunde beinhaltet die Analyse von Schichtungen und ihre zeitliche Zuordnung. Stratigraphische Untersuchungen werden insbesondere in den Fachbereichen Geowissenschaften (Lithostratigraphie), Bodenkunde (Bodenhorizonte) sowie der Archäologie, Anthropologie und Paläobiologie angewandt. Kernaufgabe der Stratigraphie ist die Einbettung der Fundabfolge an Fundorten. Die Untersuchungsmethoden der einzelnen Fachdisziplinen können sich dabei erheblich unterscheiden. Allgemein generieren aber alle stratigraphischen Methoden aus der räumlichen Abfolge eine Chronologie. Somit ist die Stratigraphie immer eine Methode der Datierung.
9.1 Klimaentwicklung und Evolution des Menschen Viele Studien zeigen, dass der Prozess der Menschwerdung (Hominisation) von zahlreichen Klimaschwankungen (trockene/feuchte – kühle/ wärmere Phasen) begleitet war. Vieles spricht dafür, dass die klimatische Entwicklung im Oligozän wesentlich zur Aufspaltung in die kleineren, geschwänzten Altweltaffen (auch wegen ihrer hundeartigen Schnauze Hundsaffen genannt) und die größeren schwanzlosen, menschenähnlichen Affen (Menschenähnliche, Hominoidea) beigetragen hat. War es zu Beginn des Oligozäns zu einer plötzlichen, starken Abkühlung mit Vereisung der Antarktis gekommen, so kam es im Übergang von Oligozän und Miozän (vor 25 Millionen Jahren) zu einem ebenso plötzlichen, erheblichen Temperaturanstieg mit der Folge, dass die Eisschilde der Antarktis teilweise wieder abschmolzen. Bis heute ist dieser plötzliche Klimawandel an der Grenze Oligozän/Miozän nicht vollends verstanden. Der Hauptgrund wird aber in plattentektonischen Vorgängen gesehen (Kontinentalverschiebung: Westdrift Nord- und Südamerikas, Norddrift Afrikas, Indiens und Australiens und zunehmender Druck auf die Eurasische Platte bis vor ca. 5,3 Millionen Jahren). Da es an Plattengrenzen zur Subduktion, Orogenese (Gebirgsbildung) und Meeresbodenspreizung kommt, wird Magma an die Oberfläche gefördert, und es kommt verstärkt zu Vulkanismus. Das Miozän war die Epoche der Erdneuzeit mit der größten vulkanischen Tätigkeit. Durch den Vulkanismus gelangten große Mengen an Treibhausgasen (Wasserdampf, Kohlendioxid, Methan) in die Atmosphäre, sodass die globale Durchschnittstemperatur wieder der gegen Ende des Eozäns entsprach. Die Auswirkungen der Orogenese äußerten sich anfänglich aber nicht nur in einer gesteigerten Vulkanismus-
250
tätigkeit, sondern zugleich auch in der Erosion der neu gebildeten Gebirge. Durch zunehmende Karbonat- und Silikatverwitterung wurde der Atmosphäre mehr und mehr Kohlendioxid entzogen und in den Sedimenten der Ozeane gespeichert. Diese Prozesse waren ursächlich für eine erneute zunehmende Abkühlung verantwortlich. Dieses Wechselspiel von Kalt- und Warmzeiten begann vor 15 Millionen Jahren und hielt fast ohne größere Unterbrechungen bis heute an. Vor 7 bis 8 Millionen Jahren begann die nördliche Hemisphäre teilweise zu vereisen (insbesondere Grönland und einige Hochgebirgsregio-
9 Klima und Mensch
nen). Dadurch wurde den Ozeanen zunehmend Wasser entzogen, sodass der Meersspiegel sank und große Flächen trocken fielen. Die Verbindung zwischen Atlantik und Mittelmeer (heutige Straße von Gibraltar) schloss sich vor 6 Millionen Jahren und führte zur Austrocknung des TethysMeeres und zu gewaltigen Ablagerungen von Salzen auf dem ehemaligen Meeresboden. Eine wichtige Folge dieser Klimaentwicklung im Miozän war auch das Verschwinden eines Großteils der Regenwälder. Im hohen Norden breitete sich die Tundra aus und in der Mitte der Kontinente, insbesondere im Inneren Asiens und
Der Carbonat-Silikat-Kreislauf Das Klima wird umso wärmer, je höher der Kohlendioxidanteil in der Atmosphäre ist. In einem wärmeren Klima wird es folglich feuchter und es kommt zu mehr Niederschlag. Durch höhere Temperaturen und höhere Niederschläge nimmt aber auch die Erosion des Gesteins zu, da sowohl die Carbonat- als auch die Silikatverwitterung ansteigen. Carbonatverwitterung Bei der Carbonatverwitterung wird Calcium (Ca2+) aus dem Kalkgestein gelöst. Die Verwitterung geschieht durch Kohlensäure (H2CO3), die sich im Regenwasser (H2O) durch Aufnahme von CO2 bildet. Das gelöste Calcium gelangt über die Flüsse wieder in die Ozeane und wird dort als Kalk (Calciumcarbonat, CaCO3) ausgefällt. CaCO3 wird von Organismen zum Bau von Kalkschalen und Kalkskeletten aufgenommen. Bei diesem Prozess wird das bei der Verwitterung aus der Luft aufgenommene CO2 wieder freigesetzt und dem Kohlenstoffkreislauf zwischen Atmosphäre und Ozean zugesetzt. Die Reaktionsbilanz lautet: CaCO3 + CO2 + H2O → Ca2+ + 2HCO3- → CaCO3 + CO2 + H2O
pflanzliches Plankton (Phytoplankton). Schalen bildendes Plankton transportiert den Kohlenstoff der Zellen nach Absterben in die Sedimente. Das schalenlose Plankton gibt seinen Kohlenstoff über die Nahrungskette wieder ins Wasser und somit in die Atmosphäre ab. Das schalenlose Phytoplankton ist Bestandteil des Kohlenstoffkreislaufs, wie er durch die Cyanobakterien vor über 3,5 Milliarden Jahren in Gang gesetzt worden ist. Der größte Teil des Phytoplanktons wird aber nicht von Kalkalgen, sondern Kieselalgen (Diatomea) gebildet. Mit dem Auftreten der einzelligen Kieselalgen (ab dem Unteren Jura, etwa 180 Millionen Jahre vor Heute) wurde ein weiterer für die Produktion von Biomasse entscheidender Prozess gestartet, nämlich der Carbonat-SilikatKreislauf. Dieser Prozess ist von entscheidender Bedeutung für den globalen Kohlenstoffkreislauf. Silikatverwitterung Bei der Silikatverwitterung werden der Atmosphäre zwei Kohlendioxid-Moleküle entzogen. Nur eins dieser Moleküle wird am Ende der Reaktion wieder frei. Das andere wird in Form von Calciumcarbonat in die Sedimente transportiert und dem Kohlenstoffkreislauf längerfristig entzogen. Die Reaktionsbilanz lautet:
Weil Kalk sich jedoch bei hohem Druck und tiefen Temperaturen im Wasser löst, existieren kalkhaltige Sedimente nur bis zu einer Tiefe von 4 000 Metern (Lysokline, Carbonat-Kompensationstiefe). Das Plankton in den Ozeanen hat dabei eine wichtige Funktion. Man unterscheidet Kalkschalen bildendes Plankton (Zooplankton) und
CaSiO3 + 2CO2 + 2H2O → Ca2+ + 2HCO3- + 2H+ + SiO22+ → CaCO3 + SiO2·H2O + CO2 + H2O Carbonat- und Silikatverwitterung entziehen der Atmosphäre jährlich etwa 0,15 Gt C, welcher in Sedimenten abgelagert wird.
251
9.1 Klimaentwicklung und Evolution des Menschen
Afrikas, bildeten sich offene, mit Büschen und Bäumen bewachsene Graslandschaften, die sogenannten Savannen. Für die bis dahin noch als Baumbewohner geltenden, menschenähnlichen Arten (Hominoidea) bestand zunächst noch kein Anpassungsgrund (Selektionsdruck) an trockenere Lebensräume. Dies änderte sich aber in der
Millionen Jahre vor heute 0
zweiten Hälfte des Miozäns, als sich die menschenartigen Lebensformen (Hominidae) entwickelten. Als entscheidendes Merkmal unserer Familie der Hominiden gilt der für ein Leben in der Savanne vorteilhafte aufrechte Gang mitsamt seinen anatomischen Umkonstruktionen.
H. floresiensis
H. neanderthalensis
H. sapiens H. heidelbergensis
H.erectus
1
P. boisei
H. ergaster H. habilis P. robustus
P. aethiopicus
2
A. africanus A. garhi
Homo
A. afarensis Paranthropus
3
A. anamensis
?
Kenyanthropus platyops
4
Ardipithecus Australopithecus 5
6
Orrorin tugenensis Sahelanthropus tschadensis
7 frühe Hominiden
9.1 Evolutionsstammbaum der Hominiden. Blaue Linien: Altersspektrum der Hominiden, dünne schwarze Linien: mutmaßliche Verwandtschaftsbeziehungen zwischen den Hominiden, dicke schwarze Linien: Verwandtschaftbeziehungen zwischen den Hauptgruppen der Hominiden.
252
Der von der Abkühlung im Miozän hervorgerufene Florenwandel verstärkte sich im Pliozän und wirkte sich auch unmittelbar auf die Evolution der marinen und terrestrischen Faunen aus. Die zunehmende Trockenheit eröffnete zum Beispiel der Familie der Gräser neue Lebensräume. Gleichzeitig wurden die an ein Leben im Wald angepassten Lebensformen gezwungen, sich auf die neuen Umweltbedingungen einzustellen. Grundsätzlich gab es dabei zwei Möglichkeiten, sich diesem Evolutionsdruck zu stellen: erstens durch Spezialisierung und zweitens durch Entwicklung von Fähigkeiten, die es der jeweiligen Spezies ermöglichte, unter den unterschiedlichsten Umweltbedingungen zu überleben. Viele Anpassungsmechanismen können hier genannt werden. Zum Beispiel entwickelten sich die Pferde bereits im mittleren Miozän von Laub- zu Grasfressern, die sich mit ihren härteren Zähnen von den zunehmend siliziumhaltigen Gräsern ernähren konnten. Wiederkäuer wie Antilopen und Rinder spezialisierten sich auf die Verdauung nährstoffarmer Gräser. Der Mensch allerdings gilt als erfolgreichstes Beispiel für die Evolution eines ökologischen Generalisten (Abbildung 9.1). Am 19. Juli 2001 wurde im Norden der zentralafrikanischen Republik Tschad (Fundort Toros-Menalla-Steinbruch in der westlichen Djurab-Wüste) ein menschenartiger Schädel entdeckt, dessen Alter auf 7 Millionen Jahre datiert wurde. Dieser bis jetzt älteste Hominiden-Schädel (Sahelanthropus tchadensis) wird als „Ursprungsmensch“ angesehen. Diese Entdeckung und ähnliche Funde im Jahre 2000 nordwestlich der kenianischen Hauptstadt Nairobi im ostafrikanischen Graben, wie die Form des Orrorin tugenensis (auf 6 Millionen Jahre datiert), belegen, dass der wesentliche Schritt zur Hominisation bereits im Oberen Miozän vollzogen war. Möglicherweise war das Klima innerhalb des ostafrikanischen Grabenbruchs sogar niederschlagsreicher und bot den frühen Hominiden im Laufe des Pliozäns, in dem es immer trockener wurde, bessere Lebensbedingungen. Was auch immer die Ursachen für die globale Abkühlung und die Trockenheit in Ostafrika waren, fest steht, dass nirgendwo sonst auf der Erde so viele fossile Hominiden, welche die Übergangsform vom Affen zum Menschen dokumentieren, gefunden wurden wie im Ostafrikanischen Grabensystem.
9 Klima und Mensch
Übergangsformen vom Affen zum Menschen im Ostafrikanischen Grabensystem Ardipithecus ramidus kadabba: ältester Vorfahr, lebte vor 5,8–5,2 Millionen Jahren Ardipithecus ramidus: lebte vor 4,4 Millionen Jahren Australopithecus: mit mindestens 7 Arten, die vor 4,5 bis 1,1 Millionen Jahren im gesamten ostafrikanischen Raum bis hinunter nach Südafrika lebten Homo habilis: der „geschickte Mensch“, lebte vor 2,5 bis 1,44 Millionen Jahren und gilt als der erste wirkliche Vertreter der Gattung Mensch
9.1.1 Gattung Homo – Werkzeuge, Mobilität und Intelligenz Am Ende des Pliozäns im Übergang zum Eiszeitalter (Pleistozän) hatte die Evolution des Menschen mit dem Homo habilis eine Entwicklung erreicht, die ihm eine Sonderstellung unter allen anderen Lebewesen verschaffte. Durch seinen aufrechten Gang sparte der Homo habilis nicht nur Energie, sondern er konnte seine vorderen Extremitäten nicht mehr nur zur Fortbewegung, sondern auch zur Herstellung von Werkzeugen einsetzen. Diese Neuerung setzte aber einen Prozess voraus, den wir heute als Denken bezeichnen. Im frühen Pleistozän (Altpleistozän: älteste afrikanische Funde von 1,8 bis 1,5 Millionen Jahre) begann dann ein neuer Abschnitt der Menschwerdung mit dem Auftreten des Homo erectus, des ersten völlig aufrecht gehenden Menschen. In dieser Zeit verließen diese frühen Menschen das erste Mal ihren Ursprungskontinent Afrika. Vertreter des Homo erectus tauchten bereits vor 1,75 Millionen Jahren in Israel und Georgien auf. Auch im Osten bis China und Indonesien sind Spuren von Vertretern dieser Gruppe zu finden. Wie lange es Homo erectus gab, ist allerdings ungewiss. Die Zeitangabe für sein Aussterben schwankt zwischen 200 000 Jahren und 27 000
9.1 Klimaentwicklung und Evolution des Menschen
Tabelle 9.1 Erdzeitalter, in denen sich die Menschwerdung (Hominisation) vollzog Erdzeit
System
Serie/ Stufe
≈ Alter (Mill. Jahre)
Känozoikum
Quartär
Holozän
heute–0,011784
Pleistozän
0,011784–1,8
Neogen
Paläogen
Pliozän
1,8–5,3
Miozän
5,3–23
Oligozän
23–33,9
Eozän
33,9–55,8
Paläozän
55,8–65,5
Das Pleistozän (früher auch Diluvium oder auch Eiszeitalter genannt) kennzeichnet die erdgeschichtliche Abfolge von vor etwa 1,8 Millionen Jahren bis vor 11 500 Jahren. Es ist die vorletzte Serie des Känozoikums (Erdneuzeit), dem jüngsten Erdzeitalter. Charakteristisch ist vor allem der Wechsel von Kalt- und Warmzeiten. Nach Elbe- (Günz), Elster- (Mindel) und Saaleeiszeit (Riss) wird es am Ende der letzten Kaltzeit, der Weichsel-Kaltzeit (Norddeutschland), bzw. WürmKaltzeit (Alpenraum) vom Holozän, der jüngsten Serie des Känozoikums, in der wir heute leben, abglöst. Das Pleistozän ist die untere Serie des Quartärs.
Jahren vor heute. Fest steht, dass sich Homo erectus im Altpleistozän über große Bereiche Eurasiens ausgebreitet hatte. Als Generalist hatte Homo erectus anscheinend eine bis dahin völlig beispiellose Mobilität mit der Fähigkeit entwickelt, unterschiedliche geographische Räume zu besiedeln und sich verschiedenen Klima- und Vegetationszonen anzupassen. Ob tropischer Regenwald, Hochgebirge, Savanne oder Wüste, Homo erectus erwies sich als erfolgreich und überlebensfähig. Eine wesentliche Anpassung war der Verlust seines Körperhaarkleides bei gleichzeitiger Entwicklung von Schweißdrüsen. So konnte der Mensch durch die Absonderung von Schweiß am ganzen Körper Verdunstungskälte erzeugen und sich auf diese
253
Weise vor Überhitzung in zu warmen Regionen schützen. Homo blieb selbst bei großer Hitze und körperlicher Belastung leistungsfähig und war somit den Säugetieren, die ihre Körpertemperatur über die Atmung regulieren und mit ihrem Körperfell einem Wärmeverlust entgegenwirken, in warmen Regionen überlegen. In kälteren Regionen war demgegenüber seine „Nacktheit“ von Nachteil. Um auch in diesen Regionen überleben zu können, musste er als Ersatz für sein verlorenes Körperfell wärmende Kleidung erfinden. Auch hierfür erforderte es wiederum eines vorausschauenden Denkens. Seit wenigen Jahrzehnten können wir aufgrund neuerer wissenschaftlicher Methoden, neben genaueren Datierungen auch neue Erkenntnisse über Lebensweise, Ernährung, Abstammung (DNA-Analyse) und Wanderungsbewegungen der frühen Menschen sowie über deren Umweltbedingungen (Klima, Vegetationsumfeld) ableiten. Seit der Zeit des Homo habilis nutzten die Menschen Steinwerkzeuge, die im Laufe der Zeit immer perfekter und ihren vielfältigen Funktionen (Faustkeile, Äxte, Schaber) angepasst wurden. Bis zum Ende der letzten Eiszeit, am Ausgang des Paläolithikums (Altsteinzeit) verfügte der Mensch in der Evolutionslinie Homo habilis, Homeo erectus, Homo neanderthalensis bis hin zum Homo sapiens über eine breite Palette von Werkzeugen (in der späten Altsteinzeit sind etwa über 20 Werkzeugtypen bekannt). Die Werkzeuge bildeten die Voraussetzung dafür, dass die Menschen der Altsteinzeit in Regionen vordringen konnten, an deren klimatische Bedingungen sie nicht angepasst waren. Mit den Werkzeugen konnten die frühen Menschen sowohl Beutetiere zerlegen und deren Fleisch und Fett als Energiequelle nutzen als auch die Pelze der Tiere als wärmende Kleidung herrichten. Neben der Entwicklung von Werkzeugen war der Gebrauch des Feuers ein entscheidender Schritt bei der kulturellen Evolution des Menschen: Feuer als Energiequelle, die Schutz gegen Kälte und Feuchtigkeit gewährte und darüber hinaus als Brennstoff zum Garen von Nahrung zur Verfügung stand. Die ältesten, heute bekannten Belege des Feuergebrauchs durch Menschen befinden sich in Südafrika (Swartkrans) und Kenia (Koobi Fora) und werden auf ein Alter von etwa 1,8 beziehungsweise 1,6 Millionen Jahre datiert. Der kontrollierte Umgang mit Feuer wurde zu einer Schlüsseltechnik der weiteren Zivilisa-
254
tionsdynamik, die es dem Menschen erlaubte, selbst in den folgenden Kaltzeiten lebensfeindliches Gebiet zu besiedeln. Über die körperexterne Energiequelle hinaus besaß das Feuer aber auch eine bedeutende Schutzwirkung gegenüber wilden Tieren und förderte dadurch an diesen Feuerplätzen auch das Zusammenkommen der frühen Menschen. Die Feuerstellen dürften daher auch eine wichtige Funktion für das Zusammenwachsen einer Gemeinschaft und der parallel verlaufenden Entwicklung der Sprache gewesen sein. Die Feuerstellen entwickelten sich somit zum Brennpunkt des sozialen Lebens. Die weitere Evolution des Menschen erbrachte eine wesentliche Erweiterung des Gehirnvolumens. War das Volumen des Gehirns beim Homo erectus noch bei 750–1250 cm3, so wuchs es über den Neandertaler bis zum Homo sapiens auf bis zu 1450 cm3 an. Hatte man dem Neandertaler noch bis vor Mitte der 1970er-Jahre keine besonderen geistigen Fähigkeiten zugemessen, so änderte sich dies durch den Fund einer Gesichtsmaske, die man 1975 zwischen Tours und Saumur (Loire, Frankreich) fand. Diese auf mindestens 32 000 Jahre datierte Maske gilt als ein wesentliches Ur-Zeugnis paläolithischer Kunst. Etwa zur gleichen Zeit als der Neandertaler seine Maske an der Loire schuf, gestalteten Cro-Magnon-Menschen, die ersten Vertreter des Homo sapiens in Europa eine Höhle in Südfrankreich (Höhle Chauvet-Pont-d’Arc, entdeckt von Jean-Marie Chauvet 1994) mit großflächigen Wandmalereien aus. Diese bisher ältesten Höhlenmalereien zeigen vielfältige Tierdarstellungen, wie Wollnashörner, Mammuts, Büffel, Auerochsen und andere, und zeugen von einem hohen Abstraktionsvermögen. Die eiszeitlichen Menschen, die als Jäger und Sammler nicht nur unter schwierigsten Bedingungen überleben mussten, können heute als Wegbereiter einer beginnenden Kultur und Zivilisation angesehen werden. Da eine Spanne von 10 000 Jahren für die Evolution des Menschen viel zu kurz ist, um sich in dieser Zeit physisch und psychisch grundlegend zu verändern, dürfte uns der Homo sapiens des späten Pleistozäns (10 000 bis 12 000 Jahre vor Heute) in nichts nachgestanden haben. Obwohl sich die Gattung Homo bereits vor rund 2,5 bis 2 Millionen Jahren entwickelte und unterschiedliche Arten gleichzeitig lebten (z. B. Homo sapiens und Homo neanderthalensis) blieb
9 Klima und Mensch
als einziger Überlebender der moderne Mensch (Homo sapiens sapiens) übrig, der vor etwa 40 000 Jahren in Europa auftauchte. Die Begründungen dafür, dass Homo sapiens als einzige Spezies der Gattung Homo überdauerte, sind heute noch umstritten. Insbesondere das Aussterben des Neandertalers vor rund 35 000 Jahren ist ein großes Rätsel geblieben. War der Neandertaler gegenüber dem Homo sapiens körperlich robuster und prinzipiell den Herausforderungen eiszeitlicher Lebensumstände gewachsen, so vermutet man heute vielfältige Faktoren für sein Aussterben. Unter diesen Faktoren finden sich auch klimatische, wie die extreme Kältephase vor rund 28 000 Jahren, die den Lebensraum der Menschen durch Vergletscherung einengte. Während dieser Kältephase der Weichsel-Eiszeit in Norddeutschland (analog die Würm-Eiszeit in Süddeutschland) lag der Meeresspiegel etwa 130 m tiefer als heute. Dies führte in den folgenden Jahrtausenden zu umfangreichen Wanderungsbewegungen asiatisch-mongolischer Stämme über die trocken gefallene Beringstraße nach Alaska und von dort aus weiter nach Nord- und Südamerika. Der Mensch hatte sich damit – mit Ausnahme der vollständig vereisten Antarktis – über die ganze Welt ausgebreitet. Nachdem vor etwa 18 000 Jahren mit einer Mitteltemperatur von rund 11 °C der niedrigste Wert der Weichsel-Eiszeit erreicht war, begann der Übergang in die heutige Warmzeit mit einer Mitteltemperatur von 15 °C. Der Wechsel in die Warmzeit erfolgte dabei nicht gleichmäßig, sondern wurde zwischen 12 700 bis 10 500 Jahren vor heute von einem Kälteeinbruch unterbrochen. Dieser markante Kälteeinbruch, der auch jüngere Dryas-Zeit (nach der Charakterpflanze der arktischen Tundra – Silberwurz oder Dryas) genannt wird, verursachte ein zwischenzeitliches Absinken der Temperatur auf bis zu 10 °C. Es wird davon ausgegangen, dass dieser Temperaturrückgang mit einer erheblichen Schwächung des damaligen Nordatlantikstromes durch Einfütterung gewaltiger Schmelzwässer aus Nordamerika in Verbindung stand. Durch die Abschwächung der thermohalinen Zirkulation, deren Absinkzone vermutlich wesentlich weiter südlich lag als heute, entwickelten sich in West- und Nordeuropa die eiszeitlichen Verhältnisse zurück. Diese Abkühlung hielt so lange an, bis die Eismassen Nordamerikas abgeschmolzen waren und die Tiefenwasserzirkulation im Nord-
255
9.1 Klimaentwicklung und Evolution des Menschen
atlantik mit ihrem Warmwassertransport nach Norden wieder einsetzte. Heutige Analysen grönländischer Eisbohrkerne deuten auf mehrere, teilweise abrupte Klimawechsel mit einer Erwär-
mung von 5 °C bis 10 °C hin. Allein im Laufe der letzten Eiszeit wurden über 20 Klimawechsel nachgewiesen, die sogenannten DansgaardOeschger-Ereignisse.
Dansgaard-Oeschger- und Heinrich-Ereignisse DO-Ereignisse sind schnelle Klimaschwankungen während der letzten Eiszeit, wobei 23 solcher Ereignisse zwischen 110 000 und 23 000 vor heute gefunden wurden. Sie sind nach dem dänischen Paläoklimatologen Willi Dansgaard und dem Schweizer Klimaforscher Hans Oeschger (1927–1998) benannt. In der Nordhemisphäre stellen sich DO-Ereignisse als Perioden schneller Erwärmung gefolgt von einer langsamen Abkühlung dar. Der Vorgang spielt sich dann über einen längeren Zeitraum ab, der typischerweise auf Skalen von Jahrhunderten basiert. Zum Beispiel erwärmte sich vor 11 500 Jahren die Jahresdurchschnittstemperatur über dem Grönlandeisschelf in einem Zeitraum von 40 Jahren in drei Etappen um ungefähr 8 °C. Der zugrundeliegende Prozess für das Auftreten und die Frequenz des Ereignisses ist bis heute nicht eindeutig geklärt. In der Südhemisphäre sind die Ereignisse mit langsamerer Erwärmung und viel kleineren Temperaturfluktuationen deutlich anders ausgeprägt. Die Existenz der DO-Ereignisse wurde erst durch die grönländischen Eisbohrprojekte GRIP und das Greenland Ice Sheet Project (GISP) anerkannt. DO-Ereignisse stehen in Verbindung zu Heinrich-Ereignissen (benannt nach dem deutschen Meeresgeologen und Klimatologen Hartmut Heinrich), welche eine Unterbrechung der thermohalinen Zirkulation beschreiben, die eine Abkühlung in der nördlichen Hemisphäre verursachen. Ein kühleres Klima hat eine Vergrößerung der Eisflächen sowie der Albedo zur Folge, was die Abkühlung noch verstärkt (positive Rückkoppelung). Es gibt Hinweise, dass DO-Ereignisse global synchronisiert auftreten. Heinrich-Ereignisse sind globale Klimaschwankungen, die mit dem Zerfall des Eisschelfs der Nordhemisphäre zusammenfallen und in der Folge eine große Menge an Meereis und Eisberge freisetzen. Die Ereignisse verlaufen sehr schnell, dauern etwa 750 Jahre und können binnen weniger Jahre einsetzen. Heinrich-Ereignisse sind meist durch folgende Veränderungen gekennzeichnet:
• Abnehmender δ18O-Gehalt in den Nordmee-
• •
• • • •
• • •
ren und in ostasiatischen Stalaktiten, die ein Absinken der globalen Durchschnittstemperatur (bzw. einen Anstieg des Eisvolumens) nahelegen Durch den Zustrom von Süßwasser bedingter, abnehmender Salzgehalt des Ozeans Hinweise auf abnehmende Temperaturen des oberflächennahen Meerwassers westlich der Afrikanischen Küste, nachgewiesen über Alkenon-Biomarker (Ketone (Alkenone) werden von bestimmten marinen Algen produziert, langkettige n-Alkane (mit mehr als 25 Kohlenstoffatomen) werden z. B. in den Blattwachsen höherer Pflanzen synthetisiert). Veränderungen in der Sedimentvermischung (Bioturbation), die durch grabende Tiere verursacht wird Verschiebungen in der Isotopenzusammensetzung von Plankton (Änderungen im δ13CAnteil, abnehmendes δ18O-Signal) Pollen weisen auf Kälte liebende Bäume (Pinie) hin, die Eichen auf dem nordamerikanischen Festland ersetzten Abnehmende Vielfalt an Foraminiferen, die auf den verringerten Salzgehalt zurückgeführt wird (Foraminiferen sind nicht nur ökologische Anzeiger im Ozean, sondern liefern über die Analyse ihrer Schalen auch Daten zu den Isotopenverhältnissen während ihrer Lebenszeit, sog. Biomarker) Vergrößerte Korngröße des durch Winde transportierten Löss in China, was auf stärkere Winde hindeutet Veränderungen der Geschwindigkeit ozeanischer Strömungen (nachgewiesen durch Schwankungen in der relativen 230Th-Häufigkeit) Erhöhte Ablagerungsraten im nördlichen Atlantik, was sich anhand eines Anstiegs an steinigen Sedimenten kontinentalen Ursprungs im Vergleich zur Hintergrundsedimentation zeigt
Alle diese Spuren der Heinrich-Ereignisse sind global nachweisbar und deuten auf die immense Wirkung dieser Ereignisse hin.
256
Die thermohaline Zirkulation, auch globales Förderband genannt (engl. ocean conveyer belt), ist ein ozeanographischer Begriff für ein Zusammenwirken von Meeresströmungen, die vier der fünf Ozeane miteinander verbinden und sich dabei zu einem globalen Kreislauf vereinen. Der Motor für diesen umfangreichen Wassermassen- und Wärmeaustausch ist thermohalinen Ursprungs, das heißt, der Antrieb erfolgt aufgrund von Temperatur- und Salzkonzentrationsunterschieden innerhalb der Ozeane, welche beide die unterschiedliche Dichte des Wassers verursachen. Ausgelöst wird der Temperaturunterschied wiederum durch die Breitengradabhängigkeit der Sonneneinstrahlung.
Mit dem Ende der Jüngeren Dryas-Zeit kam es zu Beginn des Holozäns vor etwa 10 500 Jahren zu einem markanten Temperaturanstieg, wobei die Temperatur sogar 2–2,5 °C über der heutigen globalen Mitteltemperatur (etwa 15 °C) lag. Das sogenannte holozäne Optimum begann und hielt rund 5 000 Jahre an. Es war die bisher wärmste Klimaperiode seit der letzten Eiszeit mit erheblichen Auswirkungen auf die Verteilung der Klima- und Vegetationszonen der Erde. Das wärmere und feuchtere Klima ließ die Flächenanteile der in Kaltzeiten ausgedehnten Wüstengebiete in Afrika, Asien und der Arabischen Halbinsel schrumpfen. Große Bereiche der Sahara wurden zur Savanne, und die Waldgrenze wanderte um bis zu 400 km nach Norden. Der tropische
9 Klima und Mensch
Regenwald breitete sich wieder stärker aus, die asiatischen Steppen verkleinerten sich. Parallel führte ein Abschmelzen der Gletscher zum Anstieg des Meeresspiegels, was die Reduktion von Landflächen nach sich zog. Die sogenannte Flandrische Transgression machte England und Irland in Westeuropa wieder zu Inseln. Mit dem Rückgang der Steppenvegetation und dem Verschwinden der für die Frühmenschen wichtigen Säugetiere wie Mammuts, Wollnashörner und Mastodons wurde gleichzeitig das Ende der altsteinzeitlichen Epoche der Jäger und Sammler eingeleitet. Durch den Verlust dieser wichtigen Nahrungsquellen waren die Menschen immer stärker auf die Nutzung von Tieren und Pflanzen angewiesen. Im Laufe des frühen Holozän, in dem die Erwärmung auch zu erhöhten Niederschlägen führte, entwickelten sich die Menschen von ehemals nomadisierenden Jägern und Sammlern zu sesshaften Viehzüchtern und Ackerbauern. Schon bald trug die Entwicklung landwirtschaftlicher Geräte und Bewässerungstechniken zur Steigerung der Erträge bei. Dieser Entwicklungsprozess wird als neolithische (jungsteinzeitliche) Revolution bezeichnet: Pflanzen wurden angebaut (Kulturpflanzen) und Tiere domestiziert, die Bauern wurden sesshaft. Der Wandel zu einer Agrargesellschaft begann. Hierzu benötigte man die systematische Zusammenarbeit vieler Menschen. Ein derartiges organisatorisches Problem konnte nicht von relativ kleinen
Biomarker sind messbare organische Produkte, die als Indikatoren für Umweltbelastungen herangezogen werden können. Z. B. organische Substanzen, die in Sedimenten enthalten sind, und Hinweise auf deren (biologischen) Ursprung geben. Wenn Umwelteinflüsse (z. B. Sonnenstrahlung, Wassermangel) auf ein biologisches System wirken, können sie den Metabolismus (Stoffwechsel) im System verändern. Diese Änderung wird anhand der Aktivitätsänderung charakteristischer Substanzen, wie Proteine, Kohlenhydrate, Hormone oder Stoffwechselprodukte messbar. Man unterscheidet integrale und spezifische Biomarker. Integrale Biomarker weisen auf eine Vielzahl
von möglichen Abweichungen hin. Spezifische Biomarker sind hingegen enge Indikatoren für eine konkrete Stoffwechselveränderung. Als Beispiel können aus Sedimenten gewonnene Biomarker dazu benutzt werden, Aussagen über Organismenvergesellschaftungen oder Klimaveränderungen abzuleiten. Häufig wird auch das Verhältnis der stabilen Isotope z. B. von Kohlenstoff und Wasserstoff an diesen Biomarkern gemessen. Die Kohlenstoffisotopie kann Hinweise auf biologische Prozesse (z. B. Photosynthese), die Wasserstoffisotopie auf klimatische Einflüsse (z. B. Feuchte oder Trockenheit) zur Zeit der Entstehung der Substanzen ergeben.
257
9.1 Klimaentwicklung und Evolution des Menschen
und unüberschaubaren Horden geleistet werden. Es entwickelte sich somit eine erste regionale Zivilisation oder, anders ausgedrückt, in der neolithischen Revolution wurde der Schritt von der „Horde“ oder vom „Stamm“ zur „Gesellschaft“ vollzogen. Auch wenn zu Beginn der neolithischen Revolution der Einfluss menschlicher Aktivitäten gering gewesen sein dürfte, weil die Zahl der Menschen auf der Erde noch sehr klein war, so tritt mit der landwirtschaftlichen Produktion ein entscheidender Wendepunkt in der Evolution des Menschen ein. Der Mensch verursachte durch sein Handeln nun Veränderungen in der Umwelt und wurde dadurch selbst erstmalig zum Klimafaktor. Älteste Zeugnisse der beginnenden Sesshaftwerdung sind heute für das Gebiet des sogenannten „Fruchtbaren Halbmondes“, der sich von Ägypten über Palästina (Natuf-Kultur) und Syrien bis an den Persischen Golf spannt, belegt. Der kurze Abriss der Hominidenevolution verdeutlicht, dass für sogenannte Revolutionen oder gesellschaftliche Entwicklungssprünge mit ihren Bifurkationen drei wesentliche, in Wechselbeziehung zueinander stehende Faktoren ausgewiesen werden können:
• Ressourcen • technische und gesellschaftliche Leitbilder (Werte, Normen, Wissen, Wissenschaft)
• Institutionen (Rahmenbedingungen, Rechts-
Dreiperiodensystem nach Thomsen Christian Jürgensen Thomsen (1788–1865) erkannte, dass sich Gebrauchsgegenstände und Waffen aus Stein, Bronze und Eisen historisch gliedern lassen und dass diese Einteilung chronologisch zu erklären ist. Damit begründete er das sogenannte Dreiperiodensystem, die Einteilung der Vor- und Frühgeschichte in Steinzeit, Bronzezeit und Eisenzeit. Das System wurde danach von der Archäologie in ganz Europa übernommen und gilt in seinen Grundzügen für Europa und Eurasien bis heute. Holozän Historische Zeit Eisenzeit Späte Bronzezeit Mittlere Bronzezeit Frühe Bronzezeit Bronzezeit Kupfersteinzeit Jungsteinzeit Mittelsteinzeit/Epipaläolithikum Pleistozän Jungpaläolithikum Mittelpaläolithikum Altpaläolithikum Altsteinzeit Steinzeit
system, Infrastruktur)
Marine Transgression bezeichnet das Vordringen des Meeres über größere Gebiete des Festlandes. Eine Transgression kann durch tektonische Absenkungsprozesse kontinentaler Platten der durch einen globalen Anstieg des Meeresspiegels (eustatische Meeresspiegelschwankung) verursacht werden. Bedeutende Beispiele von Transgressionen sind:
• das Zechsteinmeer vor rund 258 Millionen Jahren
• das Muschelkalkmeer vor rund 240 Millionen Jahren
• das Schwarze Meer vor rund 9 000 Jahren • die Flandrische Transgression in der Nordsee vor 9000 Jahren.
Die Flandrische Transgression ereignete sich zwischen 9000 v. Chr. und ca. 5000 v. Chr und veränderte insbesondere den Küstenverlauf der Nordsee. Mit Beginn des Holozäns nach dem Abklingen der Weichseleiszeit führte die Erwärmung des Klimas vor ungefähr 11 000 Jahren zum verstärkten Abschmelzen der Gletscher. Die Klimastufe Atlantikum im Mittelholozän (6.–3. Jahrt. v. Chr.) stellt das Klimaoptimum des Holozäns dar. Mithilfe der Pollenanalyse (Palynologie) und C14-Datierungen konnte nachgewiesen werden, dass der Meeresspiegel zwischen 6600 v. Chr. und 5100 v. Chr. von -45 m auf -15 m anstieg.
258
Die Entwicklungsphasen der Menschheit lassen sich an Materialien und Ressourcen wie zum Beispiel in der Steinzeit, Bronzezeit oder Eisenzeit festmachen. Heute werden Energieressourcen sowie Bildungs-/Wissensressourcen als Indikatoren zur Kennzeichnung gesellschaftlicher und technischer Entwicklung herangezogen.
9 Klima und Mensch
Die Entwicklung von der neolithischen Revolution vor rund 10 000 Jahren, über die industrielle Revolution vor rund 300 Jahren bis hin zur wissenschaftlichen Revolution und zum digitalen Zeitalter führt uns zum Kapitel 10 „Klima und Gesellschaft“.
10
Klima und Gesellschaft
Der Wechsel von wärmeren (Optimum) und kälteren (Pessimum) Klimaphasen sowie niederschlagsärmeren und niederschlagsreicheren Zeiten hat einen erheblichen Einfluss auf die Entwicklung von Gesellschaften und Zivilisationen. Die komplexen Beziehungen zwischen Klima (insbesondere Temperatureinwirkung) und Kulturentwicklung sind dabei differenziert darzustellen, da die Temperaturerhöhung in den verschiedenen Regionen der Erde nicht nur regional unterschiedlich ausgeprägt ist, sondern auch deutlich unterschiedliche Auswirkungen hervorruft. In den letzten 5 000 Jahren der Zivilisationsdynamik gab es in Europa längere „Optimum“- und „Pessimum“-Phasen, die auf die Entwicklung der Zivilisationen und Gesellschaftssysteme gewirkt haben. Hierzu gehören folgende Epochen:
• das „Pessimum der Bronzezeit“ zwischen 3 500 und 2 000 v. Chr.
• das „Römische Optimum“ zwischen 400 v. Chr. und 200 n. Chr.
• das „Pessimum der Völkerwanderungszeit“ zwischen 300 und 600 n. Chr.
• das „Mittelalterliche Optimum“ zwischen 800 und 1 400 n.Chr.
• die „Kleine Eiszeit“ zwischen 1500 und 1850 n.Chr.
• das „Moderne Optimum“ seit etwa 1850 Berücksichtigt man, dass während der Optima die globale Jahresmitteltemperatur nur bis 1,5 °C wärmer beziehungsweise in den Pessima um 1,5 °C kälter war, so wird die beachtliche Stabilität des Klimas in der gesamten gegenwärtigen
10.1 Rekonstruktion des Temperaturverlaufs der Erde während der letzten 12 000 Jahre (Holozän). ( Farbtafel)
holozänen Warmzeit deutlich (Abbildung 10.1). Andererseits ist an den genannten Epochen zu erkennen, wie tiefgreifend selbst geringe Klimaschwankungen von 1 bis 2 °C auf die Lebensbedingungen der Menschen einwirken und ganze Kulturen verändern können. Schauen wir uns zunächst das Klima und die Geschichte der jüngsten geologischen Epoche, des Holozäns, an.
10.1 Klima und Gesellschaft im Holozän Das Holozän wird in der Paläoklimatologie auch als Neo-Warmzeit bezeichnet. Die globale Stratigraphie, welche die Sauerstoff-Isotopenkurve zur Datierung nutzt, weist das Holozän als Serie/ Stufe 1 aus. Die Zählung der Jahresschichtung in grönländischen Eisbohrkernen sowie jahreszeitlich geschichteter Seesedimente z. B. in den Maaren der Eifel geben Aufschluss über das Alter dieser Epoche, das auf 11 784 Jahre (bezogen auf das Jahr 2 000 mit einer Genauigkeit von 69 Jahren) bestimmt wurde (Tabelle 10.1). Das Atlantikum (Mittleres Holozän oder auch Klimaoptimum des Holozän) kennzeichnet eine Warmzeit zwischen 6 000 und 3 000 v. Chr. In dieser Phase entstanden durch das Abtauen der Gletscher zahlreiche große Seen in ehemaligen Senkengebieten, z. B. der Ladogasee in Nordeuropa oder der Agassizsee in Nordamerika. Aber auch die Ostsee und das Schwarze Meer waren zunächst Eisstauseen. Ein Großteil des Wassers floss jedoch in die Ozeane und erhöhte den Meeresspiegel um über 120 Meter (im Vergleich zur Weichsel-Eiszeit). Dadurch wurden die Küstenräume in mehreren Phasen überflutet (Flandrische Transgression, Dünkirchener Transgression) und die heute vorherrschende
260
10 Klima und Gesellschaft
Tabelle 10.1 Gliederung des Holozäns System
Serie
Stufe
Alter in Millionen Jahre
Holozän
Holozän
Heute–0,011784
Oberes
0,011784–0,126
Quartär Pleistozän
Mittleres
0,126–0,781
Unteres
0,781–1,806
Küstenform und Küstenlinie bildete sich aus. Mehrere Eisstauseen wurden vom Meereswasser überspült und zu Nebenmeeren (z. B. die Hudson Bay zwischen 6 000 und 5 500 v. Chr.). Die Dänischen und Britischen Inseln wurden in dieser Zeit vom europäischen Festland getrennt. Durch die Erwärmung wandelte sich in Mitteleuropa und Nordamerika die eiszeitliche Tundrenvegetation zunehmend in eine Waldvegetation. Zuerst stellten sich Birken und Kiefern ein, später bei weiterer Erwärmung folgten Eichen, Buchen, Erlen und andere Baumarten. Die Tundra hingegen dehnte sich nach Norden in die bis dahin unwirtlichen Gebiete der polaren Kältewüste aus. Das Atlantikum wurde allerdings durch eine etwa 1 500 Jahre andauernde Kälteperiode (4 000 bis 2 500 v. Chr.) unterbrochen, da in dieser Zeit der Laurentische Eisschild verschwand und Europa nochmals „leichte Kälte“ bescherte. Man unterteilt das Atlantikum deshalb auch in ein Hauptoptimum I (5 500 bis 4 100 v. Chr.) und ein Hauptoptimum II (2 500 bis 1 800 v. Chr.). Während der Optima lagen die Jahresmitteltemperaturen etwa um 2 bis 3 °C höher als heute. Die Baumgrenze in den Alpen lag dementsprechend um 200 bis 300 m höher. In Sibirien und Nordamerika erstreckte sich die Waldgrenze bis zu 300 km weiter nach Norden. Ein wesentlicher Unterschied des Optimums I zu den heutigen Klimaverhältnissen war ein deutlich feuchteres Klima in den Trockengebieten. Es gibt Hinweise für ganzjährig fließende Flüsse in der Sahara und weiteren heutigen Wüsten. Der Tschadsee hatte zu dieser Zeit etwa die Ausdehnung des Kaspischen Meeres. Etliche Felszeichnungen aus der Sahara (z. B. im Gebirge Tibesti) belegen, dass es zahlreiche Tiere wie Giraffen, Elefanten, Nashörner und Flusspferde gab. Eine Besiedlung dieser Gebiete mit einher-
gehender Viehhaltung war den Menschen also damals möglich. Im Laufe des Klimapessimums von 4 000 bis 2 500 v. Chr. sank die Durchschnittstemperatur wieder, und es kam zu einem abrupten Rückzug der Savannenvegetation. In der Zeitspanne von 3 200 bis 3 000 v. Chr. wurde das Klima in den Wüstengebieten so trocken, dass sich die Bewohner der Sahara und anderer entstehender Wüstengebiete aus diesen Gebieten zurückzogen und sich in den großen Flusstälern des Nils, Nigers, Huang-Hos und des Indus sowie in Mesopotamien an Euphrat und Tigris sammelten. In den meisten dieser Gebiete blühten bedingt durch die Notwendigkeit einer staatlichen Organisation sowie dringliche Neugestaltung der Lebensräume erste Hochkulturen auf. Im Verlauf des Klimaoptimums II verstetigten sich diese Entwicklungen. Die großen Flusstalkulturen in Mesopotamien, Ägypten und am Indus erlebten ihre Blütezeit. Die Menschen hatten inzwischen die Verarbeitung von Kupfererz zu Kupfer und die Herstellung von Bronze entdeckt. Aufgrund der Nutzung von Metallen zur Herstellung von Werkzeugen und Waffen war neben dem Klima ein weiterer Faktor für die Ansiedlung der Menschen wichtig geworden – das Vorkommen von Erzen.
Klimapessimum der Bronzezeit Um 1 200 v. Chr. begann eine ausgeprägte Kältephase, das sogenannte Klimapessimum der Bronzezeit. Die Jahresmitteltemperatur war um 1–2 °C kälter als heute. Es kam zu erheblichen klimatischen Auswirkungen: Der Grundwasserspiegel sank um mehrere Meter, wichtige Quellgebiete versiegten, Flüsse fielen trocken und die globalen Trockengürtel der Erde breiteten sich aus. In Mittel- und Nordeuropa aber wurde es nach der großen Hitze des Optimums II klimatisch rauer. Die Gletscher wuchsen wieder an und der Meeresspiegel sank ab. Nördlich der Alpen wurde es nie wieder so warm wie vor 3 200 Jahren. Die Kältephase vor 3 200 bis 2 500 Jahren in Verbindung mit Naturkatastrophen verschlechterte die Lebensbedingungen der Menschen in Nordeuropa so sehr, dass ein großer Teil der Bevölkerung nicht mehr genug Nahrung fand und in Richtung Mittelmeerraum auswanderte.
261
10.1 Klima und Gesellschaft im Holozän
Das Optimum der Römerzeit Nach der Kältephase folgte zwischen 300 v. Chr. und 400 n. Chr. eine erneute Erwärmung des Klimas, die auch als das „Optimum der Römerzeit“ bezeichnet wird. Die erfolgreiche Ausdehnung des Römischen Reiches hängt unmittelbar mit den günstigen klimatischen Bedingungen zusammen. Die Erwärmung dieser Phase, einhergehend mit niederschlagsreicher Witterung, ermöglichte in den Alpen Bergbau in Höhenlagen, wo heute Dauerfrost herrscht. Die Alpenpässe waren durchgehend passierbar, was auch den Zug des Hannibal mit seinen Elefanten über die Alpen im Punischen Krieg 218 v. Chr. erst ermöglichte. Die Römer führten nach der Eroberung Britanniens im Jahr 54 v. Chr. den Weinanbau in Südengland ein – ebenfalls ein deutlicher Beleg für ein wärmeres Klima in Britannien. Der Handel zwischen Nord und Süd blühte, ebenso wie der West-OstHandel über die Seidenstraße bis 400 n. Chr.
ten physischen und sozialen Krise der damaligen Gesellschaften liegen.
Mittelalterliches Klimaoptimum Das Mittelalterliche Klimaoptimum ist für die Zeit von etwa 900 bis 1 250 n. Chr. datiert. In einer warmen Phase wurden Island (874) und Grönland (999) durch die Wikinger besiedelt. Ein Auslöser hierfür war der über mehrere Jahrhunderte hinweg eisfreie Ostgrönlandstrom. Im Mittelalterlichen Klimaoptimum konnte auf Island Getreide angebaut werden. Die Baumgrenze und landwirtschaftliche Anbaugrenze kletterte in den europäischen Hochgebirgen (in den Alpen, den schottischen Highlands und dem Skandinavischen Gebirge) um 100 bis 150 Meter bzw. 200 Meter. Wein konnte in Preußen, Pommern und in Südschottland kultiviert werden.
Die Kleine Eiszeit Das Pessimum der Völkerwanderungen Eine erneute Klimaverschlechterung stellte sich zwischen 400 und 500 n. Chr. in Nordeuropa ein. Bereits vorher müssen die Temperaturen im Norden Europas deutlich gesunken sein, wie die Wanderung der Goten von der Mündung der Weichsel an das Schwarze Meer vermuten lässt. Bemerkenswert ist erneut der Zusammenhang zwischen einer Klimaverschlechterung und dem Niedergang einer Hochkultur, dieses Mal dem des Römischen Reichs. Die Epoche der Völkerwanderung beginnt mit dem Vorstoß der Hunnen, welcher durch eine Trockenperiode in deren zentralasiatischen Heimat mit verursacht wurde. In Nord- und Nordwesteuropa kommt es aufgrund niedrigerer Temperaturen und Trockenheit zu Ernteausfällen, die große Versorgungsprobleme bei der Bevölkerung hervorrufen. Eine starke Dürreperiode in Zentralasien im 4. Jahrhundert bringt schließlich den Handel auf der Seidenstraße zum Erliegen. Die große Völkerwanderung in Europa wurde sowohl durch den Ansturm der Hunnen und der Goten als auch durch die Flucht anderer Stämme vor der Kälte ausgelöst. Der Grund der Völkerwanderung könnte somit in einer klimatisch begründe-
Die sogenannte Kleine Eiszeit, eine etwa 600 Jahre dauernde Periode ungünstiger Klimaverhältnisse, ist vermutlich durch eine veränderte Sonnenaktivität und verstärkten Vulkanismus hervorgerufen worden. Deshalb ist auch keine durchgehende Abkühlung, sondern ein Auf- und Abschwingen der Temperatur in diesem Zeitraum zu verzeichnen. Etwa ab 1250 liegen die Jahresmittel der Temperatur um ca. 1 °C niedriger als heute. Es ereignen sich besonders strenge Winter und das globale Klima in Europa unterliegt starken Schwankungen, sowohl regional als auch zeitlich. Das (arktische) Meereis, das Inlandeis, die Dauerfrostgebiete auf Grönland sowie Seen und Marschen breiteten sich aus. Die Gletscher in Island, Norwegen und den Alpen stießen vor, und die Baumgrenze in den Alpen und den Rocky Mountains sank ab. Viele Seen und Flüsse in Nord-, West- und Zentraleuropa froren häufiger zu, oftmals dokumentiert durch zeitgenössische Malerei. Darüber hinaus liegen Hinweise auf zunehmende Sturmstärken und daraus resultierende Sturmfluten in Breiten von 50 bis 60° vor. Diese Stürme traten vermehrt im 13. Jahrhundert, zwischen 1400 und 1450 und zwischen 1530 und 1700 auf. Die Klimaänderung führte zu Missernten und steigenden Brotpreisen, Hungersnöten, Krankheiten und Siedlungswüstungen. An-
262
10 Klima und Gesellschaft
weitere Verschlechterung des Klimas: Vor allem vom 16. bis in die Mitte des 19. Jahrhunderts lassen sich kräftige Gletschervorstöße in den Alpen verzeichnen. Die Waldgrenze sinkt wieder deutlich ab. Der Höhepunkt der Entwicklung wird in Mitteleuropa zu Kriegszeiten um 1640 erreicht. Vor allem Süd- und Südwestdeutschland leidet unter häufigen Missernten durch nasskalte Sommer und extreme Jahreszeitenausprägungen. Das Getreide reift nicht mehr aus, die Ernte verfault, Mehltau- oder anderer Pilzbefall beeinträchtigt das Ernteaufkommen. Eine unmittelbare Folge der Agrarkrise sind Wüstungen in Mittelgebirgen: Die Höhenlandwirtschaft wird aufgegeben. Mit der Abwanderung der Bevölkerung in die Städte verschärft sich dort, wie auch auf dem Lande, die Versorgungslage. Mangelernährung und Hygieneprobleme herrschen vor und bestimmen das Leben vieler Menschen. Getreide wird sehr knapp und damit teuer. Mitteleuropa erlebt einen weiteren drastischen Bevölkerungsrückgang um 30–40 % und starke Auswanderungswellen in die „Neue Welt“. Im nördlichen Europa erreicht die Kleine Eiszeit ihren absoluten Höhepunkt um 1680–1700 mit schlechten Getreideernten in Schottland, Irland, Skandinavien und dem Baltikum. Im Nordatlantik nimmt die saisonale Eisbedeckung wieder zu. Grönland wird vom Mutterland abgeschnitten, die Inuits verdrängen die Wikinger und übernehmen deren Siedlungen. Die Kleine Eiszeit endet nach einer Trockenperiode um das Jahr 1850 und geht über in die Phase des „Modernen Optimums“.
hand der starken Temperaturschwankungen, die in der Kleinen Eiszeit auftraten, lässt sich diese in vier Abschnitte einteilen:
• Wolf-Minimum (1280–1340): nach Johann Rodolf Wolf benannt, der anhand von Sonnenangaben und Bezeichnungen von Sonnenflecken aus dem Zeitraum vom 17. bis 19. Jahrhundert die Periodizität der Sonnenflecken über das Jahr 1826 bis zu Galilei zurückrechnete. Wolf rekonstruierte dadurch die statistische Entwicklung der Sonnenaktivität von dem Jahre 1749 an (Züricher Zeitreihe genannt). Das Wolf-Minimum beschreibt ein insgesamt kühleres Erdklima. • Spörer-Minimum (1420–1570): nach Gustav Spörer, ist eine Periode besonders geringer Sonnenaktivität im Zeitraum zwischen 1420 und 1570 mit einem Schwerpunkt zwischen 1420 und 1550. Da der Zeitraum vor der Beobachtung von Sonnenflecken liegt, lässt sich das Minimum nur indirekt durch den C13Gehalt in Baumringen dieser Periode belegen. Die Periode hatte ein besonders kühles Erdklima zu verzeichnen. • Maunder-Minimum (1645–1715): nach Edward Walter Maunder wird eine Periode stark verringerter Sonnenfleckenaktivität bezeichnet. Das Maunder-Minimum fiel mit den kältesten Jahren der Kleinen Eiszeit zusammen, während der in Europa, Nordamerika und China sehr viele kalte Winter auftraten (kälteste Periode). • Dalton-Minimum (1790–1830): nach John Dalton, beschreibt eine kühle Phase des Erdklimas. Gründe des Abkühlungstrends werden in einer geringen Sonnenaktivität und einem verstärkten Vulkanismus auf der Erde vermutet.
Modernes Optimum
Im Dreißigjährigen Krieg (1618–1648) sind es nicht nur die Kriegshandlungen, die der Bevölkerung das Leben erschweren, sondern auch eine
Das Moderne Optimum stellt – im Vergleich zum Gesamtklimatrend der letzten 12 000 Jahre
–30
–10 14C
10.2 Sonnenfleckenaktivität und 14C-Minima der letzten 1100 Jahre. Maxima von Sonnenflecken führen zu Minima der 14C-Entstehung und sind nach 20 bis 60 Jahren mithilfe der Radiokohlenstoffmethode nachweisbar.
mittelalterliches Maximum
modernes Maximum
–20
MaunderMinimum
SpörerMinimum
0
OortMinimum WolfMinimum
10 20 0
100
200
300
400
500
600
700
Jahre in BP (before present)
800
900
1000 1100
263
10.1 Klima und Gesellschaft im Holozän
betrachtet – eine Phase globaler Erwärmung dar. Es begann etwa 1850 und dauert gegenwärtig an. In den letzten 100 Jahren erhöhte sich die globale Durchschnittstemperatur um etwa 0,7–0,8 °C. Die Temperaturerhöhung ist dabei nicht nur in Mitteleuropa, sondern weltweit zu verzeichnen. Das erste Maximum der Lufttemperatur war um 1940 gemessen worden. Die Erwärmung hat sich dann in den letzten 40 Jahren noch erheblich verstärkt. Bereits seit 1970 spricht man angesichts der globalen Erwärmung mit ihren Folgeerscheinungen von einem einsetzenden Klimawandel. So wurden die zehn wärmsten Jahre seit Beginn regelmäßiger Temperaturmessungen nach 1990 registriert. Eine Folge der Erhöhung der Durchschnittstemperatur ist z. B. die Rückschmelztendenz der alpinen Gletscher. Die Temperaturen in Südgrönland sind in den letzten Jahrzehnten um etwa 2,5 °C angestiegen, und von 2004 bis 2006 ist mehr als doppelt so viel Inlandeis in
Klimaoptimum des Holozän
Temperatur
17
römisches Klimaoptimum
Grönland geschmolzen als noch zwei Jahre zuvor. Die globale Erwärmung führte auch zu einer Verlängerung der Vegetationsperiode um bis zu 12 Tage, obwohl das Moderne Optimum bisher relativ trocken war. Bei der Betrachtung und Analyse der globalen Erwärmung sollte aber stets in Erinnerung behalten werden, dass die Temperaturen bis etwa 1300 um 2–3 °C höher lagen als heute. Damals verlief der Temperaturanstieg jedoch nicht so rasant. Für alle Klimaschwankungen bis zum Ende des 19. Jahrhunderts waren ausschließlich natürliche Ursachen verantwortlich (Sonnenstrahlung, Vulkanismus), aber seit Beginn des 20. Jahrhunderts lässt sich eine Entwicklung erkennen, die teilweise auf anthropogene Einflüsse zurückzuführen sein muss. Seit dem Jahr 1940 ist die Sonnenstrahlung so hoch wie niemals zuvor im letzten Jahrtausend. Sie liegt um das rund 2,5-fache über dem lang-
mittelalterliche Wärmeperiode
17
15
15
13
Völkerwanderungspessimum 13 6 4 2 Kleine 0 Jahrtausende vor heute Eiszeit
10 11
8
Ende der letzten Kaltzeit
10.3 Klimaschwankungen im Holozän. Bodennahe nordhemisphärische Mitteltemperaturen der letzten 11 000 Jahre (verändert nach Dansgaard et al. 1969 und Schönwiese 1995).
Radiokohlenstoffmethode Die Radiokohlenstoffdatierung (auch C14-Datierung genannt) ist eine Methode zur radiometrischen Datierung von kohlenstoffhaltigen, vor allem organischen Materialien bis zu einem Alter von etwa 50 000 Jahren. Sie basiert auf dem radioaktiven Zerfall des Kohlenstoffisotops 14C und wird insbesondere in der Archäobotanik und Quartärforschung angewandt. Kohlenstoff kommt in der Natur in drei Isotopen vor: 12C, 13C und 14C. Der in der Atmosphäre erzeugte Radiokohlenstoff verbindet sich mit vorhandenem Sauerstoff zu Kohlendioxid. Durch die Photosynthese der Pflanzen gelangt 14C anschließend in die Biosphäre. Da alle Lebewesen durch Stoffwechsel ständig Kohlen-
stoff mit der Atmosphäre austauschen, stellt sich in lebenden Organismen dasselbe Verteilungsverhältnis der drei Kohlenstoffisotope ein, wie es in der Atmosphäre vorliegt. Wird Kohlenstoff aus diesem Kreislauf herausgenommen (Organismus stirbt ab und wird fossil), dann ändert sich das Verhältnis zwischen 14C und 12C, weil die zerfallenden 14C-Kerne nicht durch neue ersetzt werden. Das Verhältnis zwischen 14C und 12C eines organischen Materials ist somit ein Maß für die Zeit, die seit dem Tod eines Lebewesens vergangen ist. Die Entwicklung der Radiokohlenstoffmethode im Jahr 1946 geht zurück auf Willard Frank Libby (1908–1980, Nobelpreis für Chemie).
264
10 Klima und Gesellschaft
fristigen Mittelwert. Wie schon erwähnt, weist der zeitliche Verlauf der Sonnenaktivität eine Ähnlichkeit mit der Entwicklung der mittleren Temperatur auf der Erde auf. Auch bewegten sich die Sonnenhelligkeit und die Erwärmung in den ersten 120 Jahren des Modernen Optimums einigermaßen in Einklang. Aber seit den letzten 40 Jahren kann man feststellen, dass die Temperatur zu schnell anstieg, um den Verlauf der Sonnenaktivität als alleinige Ursache für die Klimaerwärmung heranzuziehen, denn die Variabilität der Sonnenstrahlung weist einen Klimaeffekt von nur knapp 0,3 °C auf. Wie wir in den vorangegangenen Abschnitten gesehen haben, wurde der Mensch, der seine Menschwerdung dem aufrechten Gang und damit letztendlich dem Klimawandel in Afrika während des Pliozäns verdankt, im Laufe des Holozäns selbst zu einem entscheidenden Klimafaktor.
10.2 Klima und Gesellschaft seit der industriellen Revolution Den Nachweis zu führen, ob und in welchem Maße Menschen das Klima bereits vor der Mitte des 19. Jahrhunderts verändert haben, ist äußerst schwierig. Ging man noch vor kurzem davon aus, dass der anthropogene Einfluss vor Beginn der industriellen Revolution eher gering war, so schätzen Wissenschaftler heute, dass sich die menschlichen Aktivitäten schon sehr viel früher auf das Klima ausgewirkt haben müssen. Wichtiger Anzeiger einer sehr frühen Einflussnahme des Menschen ist die Analyse der Me-
thankonzentration in der Atmosphäre. Gasblasen, eingeschlossen in bis zu 2 000 Jahre alten Eisbohrkernen der Antarktis, zeigen als Ergebnis der Analyse, dass der Mensch schon vor über 1 000 Jahren zur Erhöhung der Methankonzentration in der Atmosphäre beigetragen hat. Der Methananteil erhöhte sich in den ersten 1 000 Jahren nach Christi Geburt um 2 % und sank in den folgenden 700 Jahren wieder um den gleichen Wert. Ab Mitte des 18. Jahrhunderts bis zum Ende des 20. Jahrhunderts stieg die Methankonzentration der Atmosphäre von 800 ppb (Abkürzung für parts per billion) auf mehr als 1 750 ppb an. In der vorindustriellen Zeit konnte Methan auf zwei Arten in die Atmosphäre gelangen: erstens durch anaerobe Prozesse, wobei unter Luftabschluss aus der bakteriellen Zersetzung organischer Substanzen in Sumpfgebieten, Reisfeldern, Rindermägen oder Termitenbauten Methan freigesetzt wurde, und zweitens durch die menschliche Tätigkeit der Brandrodung. Anhand der Analyse der Kohlenstoffisotope lässt sich nachweisen, aus welcher Quelle Methan stammt. Es zeigte sich, dass die Zunahme des Methans im Wesentlichen durch Brandrodung von Wäldern und Grasländern verursacht worden war. Daher geht die Erhöhung der Methankonzentration während der ersten 1 000 Jahre nach Christi Geburt vermutlich zum größten Teil auf Brandrodungen in Nord- und Südamerika zurück (die Wälder Europas und Asiens waren bereits vor der Zeitenwende weitgehend gerodet). Der erhebliche Rückgang der Methankonzentration im 16. Jahrhundert ist wiederum darauf zurückzuführen, dass große Bevölkerungsteile in der Neuen Welt durch von europäischen Einwanderern eingeschleppte Krankheiten starben und der Bedarf an weiteren Flächen für die Landwirtschaft sank.
Tabelle 10.1 Bevölkerungswachstum der Erde Jahr
Bevölkerung in Milliarden
Wachstumsrate (v.H. pro Jahr)
Zuwachs (Millionen pro Jahr)
1970
3,69
1,93
71
1980
4,43
1,70
75
1990
5,25
1,49
78
2000
6,06
1,23
75
2010
6,80?
?
?
10.2 Klima und Gesellschaft seit der industriellen Revolution
Im Europa des 18. und 19. Jahrhunderts kam es nach und nach zur Verbesserung der medizinischen Versorgung, welche die Sterblichkeit senkte und allein zwischen 1750 und 1850 zu einer Weltbevölkerungsexplosion von 800 Millionen auf 1,3 Milliarden Menschen führte. Infektionskrankheiten konnten erstmals vor allem mithilfe systematischer Schutzimpfungen bekämpft werden. Um 1900 kletterte die Weltbevölkerung auf 1,65 Milliarden und 1950 auf 2,5 Milliarden Menschen. Im Jahr 2007 zählte die Weltbevölkerung laut UN 6,671 Milliarden Menschen. Wachstumsraten und Verdopplungszeitraum für die Weltbevölkerung Das Wachstum der Bevölkerung wird als Wachstumsrate in Prozent (meist bezogen auf ein Jahr) ausgedrückt. Bei einem Wachstum von 1,14 Prozent pro Jahr – entsprechend der geschätzten globalen Wachstumsrate im Jahr 2006 – dauert es etwa 61 Jahre, bis sich die Bevölkerung verdoppelt hat (konstantes Wachstum während der ganzen Phase vorausgesetzt). Bei einer jährlichen Wachstumsrate von 2%, verkürzt sich die Verdoppelungszeit auf 35 Jahre. Bei einer Rate von 3,5%, die in einigen Ländern (meist Entwicklungsländer) erreicht wird, zählt die Verdoppelungszeit nur noch 20 Jahre.
265
Die aufgezeigte demographische Entwicklung führte zu einer starken Erhöhung der Nahrungsmittelproduktion und damit zur Intensivierung der Landwirtschaft, welche auch den Anstieg der Methankonzentration nach sich zog. Darüber hinaus veränderte der Mensch durch die Urbarmachung weiterer Landflächen nachhaltig die Beschaffenheit der Erdoberfläche, was ebenfalls zu der frühen anthropogenen Beeinflussung des Klimas beitrug. Insbesondere die Zerstörung der natürlichen Wälder durch Einschlag für Brenn- und Bauholz in Verbindung mit der Intensivierung von Ackerbau- und Weidewirtschaft führten zur Abnahme des Naturraumpotenzials und zur schleichenden Zerstörung ganzer Landschaftszonen. Die Folgen waren ein umfassender Vegetationswechsel (von Wäldern zu anthropogenen Ersatzgesellschaften) sowie bei anhaltender Übernutzung der dramatische Verlust der Böden durch Erosion. Der Vegetationswechsel lässt sich heute sehr gut mithilfe der Pollenanalyse dokumentieren. Ein immer wieder angeführtes Beispiel ist der Mittelmeerraum, in dem seit Beginn der Seefahrt für den Schiffsbau ganze Regionen abgeholzt wurden, die in Folge Erosionsprozessen durch Wind und Wasser ausgesetzt waren und heute weitgehend verkarstete mediterrane Landstriche darstellen. Dieser vorindustrielle Einfluss
Bevölkerungswachstum – Historische Entwicklung und Wachstumsraten Um Christi Geburt lebten etwa 300 Millionen Menschen auf der Welt. Bis zum Jahr 1650 waren es rund eine halbe Milliarde Menschen. Das Wachstum betrug in dieser Zeit 0,3 %, was einer Verdoppelungszeit von etwa 240 Jahren entspricht. Während der Industriellen Revolution entwickelte sich die Bevölkerungszahl bis zum Jahr 1900 auf 1,6 Milliarden, was bereits einer Verdreifachung entspricht. Die Wachstumsraten lagen dabei jährlich bei 0,7 bis 0,8 %, was einer Verdoppelungszeit von etwa 100 Jahren entspricht. Die Verdoppelung war jedoch bereits im Jahr 1965 mehr als erreicht (Bevölkerung: 3,3 Milliarden, Wachstumsrate: 2 %, Verdoppelungszeitraum: 35 Jahre). Die Bevölkerungsentwicklung verlief in dieser Phase nicht nur exponentiell, sondern, dadurch, dass sich die Wachstumsrate
stark erhöhte, superexponentiell. Ursächlich ist dies im starken Sinken der Sterberate bei einem nur langsamen Sinken der Geburtenrate zu erklären. Ermöglicht wurde diese Entwicklung primär durch den großindustriellen Einsatz von Stickstoffdünger seit dem Zweiten Weltkrieg sowie weitere medizinische und hygienische Verbesserungen. Seit 1965 bis zum Jahr 2000 stieg die Bevölkerungszahl von 3,3 Milliarden auf 6 Milliarden weiter an. Seit den 1950er-Jahren ist ein starkes Abfallen der Geburtenrate festzustellen (in den 1950er-Jahren gebar eine Frau im Schnitt noch 5 Kinder, in den 1990er-Jahren waren es nur noch 2,7). Die Wachstumsrate der Weltbevölkerung sank dadurch von 2,0 % auf 1,2 %. Der absolute Zuwachs der Weltbevölkerung blieb jedoch seit den 1970er-Jahren annähernd konstant.
266
des Menschen dürfte zumindest regional zu Klimaänderungen geführt haben. Nach Jahrhunderten mit enormen Verlusten an Menschenleben durch unkontrollierbare bakterielle und virale Infektionskrankheiten kam es im 18. Jahrhundert zum Durchbruch in der Bekämpfung dieser Krankheiten. Systematische Schutzimpfungen und Erweiterungen der Präventivmedizin führten zum Rückdrängen der Krankheiten bei gleichzeitiger stürmischer Entwicklung der Bevölkerung. Die rasante Entwicklung der Bevölkerung erforderte eine stetige Steigerung der landwirtschaftlichen Produktion. Daher wurde die seit dem Mittelalter praktizierte Dreifelderwirtschaft im Laufe des 18. Jahrhunderts zugunsten der Fruchtwechselwirtschaft ersetzt. Auf den ehemaligen temporären Brachflächen des Dreifelderwirtschaftssystems wurden jetzt Futterpflanzen und Kartoffeln angebaut. Der gesteigerte Ertrag war enorm, sodass selbst im Sommer eine zusätzliche Stallfütterung der Tiere möglich war und daraus wiederum zusätzlich Gülle und Mist zur Düngung der Felder zur Verfügung stand. Diese erste Agrarrevolution erzielte anfangs erhebliche Erfolge in der Erhöhung der Ernteerträge, was wiederum zur Verbesserung des allgemeinen Lebensstandards und folglich zum weiteren Anstieg der Bevölkerungszahl führte. Die neue Wirtschaftsform führte aber nach einigen Jahrzehnten zur Degradation der intensiv genutzten Böden, denn ihnen wurden ohne eingeschaltete Brachezeit mehr und mehr die für das Wachstum der Kulturpflanzen bedeutenden Mineralien entzogen. Dies schwächte das agrarische Standortpotenzial so sehr, dass es am Ende der Kleinen Eiszeit, in der ersten Hälfte des 19. Jahrhunderts, zu zahlreichen Missernten durch ungünstige Witterungsverhältnisse kam. Diese führten in weiten Teilen Europas zu Hungersnöten. In dieser Endphase der ersten Agrarrevolution herrschte sogar die Befürchtung, dass die ständig wachsende Bevölkerung nicht mehr länger ausreichend ernährt werden könnte. Genau in dieser Zeit gelang es Justus von Liebig (1803–1873) eine Methode zu entwickeln, den ausgelaugten Böden ihre Mineral- und Nährstoffe wieder zurückzugeben. Liebig war der Erfinder des Kunstdüngers und somit der Wegbereiter einer zweiten Agrarrevolution. Ab 1860 wurden immer mehr chemische Fabriken
10 Klima und Gesellschaft
gebaut, um den Bedarf an Kunstdünger zu decken. Die Hungersnöte in Europa fanden ein Ende und die Bevölkerung konnte sich weiterhin rasant entwickeln. Trotz breiter Einführung des Kunstdüngers konnte die dadurch erzielte Ertragssteigerung aber nicht mit dem Bevölkerungswachstum mithalten. Es mussten parallel neue Produktionsmethoden wie die Massentierhaltung eingeführt werden, die im großen Umfang zusätzlichen Naturdünger lieferte. Neue Maschinen und Techniken zum Säen, Pflügen, Düngen und Ernten wurden erfunden. Es kam zu einem tiefgreifenden Strukturwandel in der Landwirtschaft, der die ehemaligen kleinbäuerlichen Betriebe ablöste und in landwirtschaftliche Großbetriebe überführte. Ab Mitte des 20. Jahrhunderts kann man von einer dritten Agrarrevolution sprechen. Denn neben der Weiterentwicklung von Kunstdüngern kam es zur Anwendung chemischer Schädlingsbekämpfungsmittel sowie enormen Fortschritten in der wissenschaftlichen Tier- und Pflanzenzucht. Diese Faktoren führten zusammen mit einer fortschreitenden Mechanisierung der Landwirtschaft und nachgeschalteten Veredelungsbetrieben zu weiteren enormen Steigerungen der Flächenerträge. Der eingeleitete Strukturwandel in der Landwirtschaft sowie die sich daraus ergebenden wirtschaftlichen und sozialen Folgen stellten die wichtigsten Voraussetzungen für die sich anschließende industrielle Revolution dar. Eine wesentliche Folge der Agrarrevolutionen war die Landflucht der Menschen. In den Städten wurden nun die Konsum- und Investitionsgüter hergestellt, die für die Deckung des Bedarfs einer ständig wachsenden Bevölkerung benötigt wurden. Es kam zu einem ausgedehnten Städtewachstum. Der Umwälzungsprozess der industriellen Revolution war neben enormen Entwicklungsfortschritten in Technologie, Produktivität und Wissenschaften, einer Verbesserung der materiellen Verhältnisse breiter Bevölkerungsschichten auch von sozialen Missständen gekennzeichnet, die in Pauperismus, Ausbeutung und Massenelend zum Ausdruck kamen. Daraus entstand aus der industriellen Revolution nicht zuletzt die „soziale Frage“. In den Industrieländern ist es jedoch langfristig zu einer erheblichen Verbesserung der materiellen Verhältnisse breiter Bevölkerungsschichten
10.2 Klima und Gesellschaft seit der industriellen Revolution
gekommen, die sich bis heute in einem steigenden Wohlstand aller Bevölkerungsgruppen äußert. Die Bedeutung der industriellen Revolution wird, aus der Erdperspektive betrachtet, dem Übergang vom Nomadentum zur Sesshaftigkeit in der neolithischen Revolution gleichgestellt, die einen vergleichbar tiefgreifenden Wandel mit sich brachte. Bezüglich der Industriellen Revolution bildeten sich mit der Zeit zwei Begriffsebenen heraus: Die eine meint die mit der Entstehung der Großindustrie verbundene Epochenbezeichnung und ist mit den technischen Erfindungen (Webstuhl, Dampfmaschine, Verbrennungskraftmaschine) verbunden, während die andere auf einen unabgeschlossenen Prozess fortlaufenden Gesellschaftswandels hinweist.
Energie- und Gesellschaftsformen im Übergang Die Klimawirksamkeit der gesellschaftlichen Transformationsprozesse lässt sich vor allem an der Nutzung und Umwandlung der unterschiedlichen Energieformen festmachen. In den vorindustriellen Wirtschafts- und Gesellschaftsformen stand dem Menschen Energie nur in eingeschränktem Maße zur Verfügung. Am Ende des 18. Jahrhunderts stammten noch rund 40 % der gesamten Nutzenergie von der Muskelkraft der Zugtiere, 12 % aus der Wasserkraft (Wassermühlen), 3 % aus menschlicher Arbeitskraft und weniger als 1 % aus Windkraft (Windmühlen). Der überwiegende Energiebedarf wurde durch Holz gedeckt (> 40 %). Steinkohle, bereits seit dem 13. Jahrhundert abgebaut, spielte zunächst eine untergeordnete Rolle. Das Holz der Wälder lieferte fast die gesamte Wärmeenergie in der vorindustriellen Zeit. Die erste verwendbare Dampfmaschine wurde 1712 von Thomas Newcomen (1663–1729) konstruiert und später von James Watt (1736–1819) im Wirkungsgrad verbessert, wofür er 1769 ein Patent erhielt. Mit dieser technischen Innovation war der Grundstock für die industrielle Revolution gelegt. Die Dampfmaschine wurde als erste Wärmekraftmaschine mit fossilen Brennstoffen in Form von Steinkohle betrieben. In den folgenden 100 Jahren stellte sich die Produktionsweise von einer fast ausschließlich auf menschlicher und
267
tierischer Arbeitskraft beruhenden Wirtschaftsform auf eine Wirtschaftsform um, die ihre Primärenergie aus fossilen Brennstoffen bezog. Das Ende des „hölzernen Zeitalters“ war eingeleitet und das Zeitalter der „fossilen Energieträger“ begann. Anfang des 19. Jahrhunderts änderte sich dieser Prozess abermals fast schlagartig aufgrund der vielseitigen Einsatzmöglichkeiten der Steinkohle. Mit der geförderten Steinkohle konnten wiederum Dampfmaschinen betrieben werden, die in den Kohlebergwerken selbst zur Steigerung der Fördermengen eingesetzt wurden. Nun erst war Eisenverhüttung im großen Umfang möglich, und die Stahlerzeugung erblühte. Der Einsatz von fossilen Energieträgern in Kraftmaschinen wurde zum Motor einer wirtschaftlich und politisch stärker und stärker werdenden globalisierten Gesellschaft, die im Kolonialzeitalter des 19. Jahrhundert erstmals eine energiewirtschaftliche Basis fand. Im 20. Jahrhundert wurde die Kohle dann langsam durch Öl und Erdgas ersetzt, welche vor allem kostengünstiger zu transportieren und zu lagern sind. Dieser Ablauf vollzog sich in allen Industriegesellschaften und verstetigte unsere Abhängigkeit von der Energie, speziell von den nicht-erneuerbaren Energieformen, sodass unsere heutige Zivilisation stark auf eine ausreichende Energieversorgung angewiesen ist. Die Geschichte der Menschheit ist, wie wir gesehen haben, unausweichlich mit der Bereitstellung, Verfügbarkeit und Nutzung von Energie verbunden. Am Anfang der Menschwerdung waren das Feuer und die menschliche Arbeitskraft wesentliche Energiequellen. In der neolithischen Revolution wurde als weitere Energiequelle die Nutzung tierischer Arbeit sowie Holz und Abfälle aus der Landwirtschaft als Brennmaterial erschlossen. Im Mittelalter kam die Nutzung von Wind- und Wasserenergie in Form von Mühlen hinzu. Diese erneuerbaren bzw. regenerativen Energiequellen wie Holz, Wind und Wasser, stellten vor Beginn der industriellen Revolution die wichtigsten Energielieferanten dar. Der Motor beziehungsweise Antrieb der regenerativen Energiequellen liegt in der Sonnenenergie. Das Zeitalter der industriellen Revolution wurde durch die Nutzung von Kohle und Stahl eingeläutet. Der auf Eisen und Stahl basierende Maschinenbau wuchs zum wichtigsten Wirtschaftsfaktor heran.
268
Seit den letzten 100 Jahren nutzen die Menschen überwiegend drei fossile Energieträger (Kohle, Erdöl, Erdgas), um ihren Bedarf an Primärenergie (Anteil heute bei etwa 90 %) zu decken.
10 Klima und Gesellschaft
ren Bedeutung für mögliche klimatische Veränderungen zusammengestellt werden.
Der demographische Übergang Primärenergieverbrauch, die vom Verbraucher genutzte Endenergie zuzüglich aller Verluste, die bei der Erzeugung von Endenergie aus Primärenergie entstehen. Um Doppelanrechnung zu vermeiden, wird der vom Endverbraucher genutzte Strom nicht direkt mit eingerechnet, sondern es wird die Energie bilanziert, die für die Stromerzeugung im Kraftwerk verbraucht wird. Der Primärenergieverbrauch beinhaltet somit den Energieverbrauch für Heizung und Transport, den Stromverbrauch sowie die Verluste, die bei Stromerzeugung, -transport und -verteilung entstehen.
Einhergehend mit dem Übergang der Energiesysteme (Holz → Kohle → Erdöl und Erdgas) verbesserte sich zwar der Zustand der Waldbedeckung in vielen Industrieländern, gleichzeitig stieg aber der bei der Verbrennung fossiler Brennstoffe freiwerdende Anteil von Kohlendioxid in der Atmosphäre. Die Folgen der industriellen Revolution liegen also in der Rückkehr des einst der Luft durch Fotosynthese entzogenen Kohlenstoffs in die Atmosphäre. Dass dieses Entweichen des vormals langfristig gespeicherten Kohlenstoffs zu einer Erwärmung der Atmosphäre führen müsste, wurde bereits von dem schwedischen Physikochemiker Svante August Arrhenius (1859–1927) angemahnt. Eine intensive wissenschaftliche Aufarbeitung der Problematik einer möglichen anthropogenen Klimabeeinflussung begann aber erst Mitte der 1960erJahre. Auf der ersten Welt-Umweltkonferenz 1972 in Stockholm beschäftigten sich dann auch die Vereinten Nationen mit diesem Thema. Hauptergebnis dieser Konferenz waren die Gründung des UN-Umweltprogramms (United Nations Environment Programme, UNEP) sowie des Globalen Umweltüberwachungssystem (GEMES). Einer der Kernpunkte aller Programme ist, Einflüsse von Energiegewinnung und Energieverbrauch durch Emissionen von Kohlendioxid und anderen Treibhausgasen auf das Klima hin zu überwachen. Bevor wir uns in Kapitel 11 mit den wichtigsten Schritten zum Klimaschutz beschäftigen, sollen im folgenden Abschnitt die wichtigsten Auswirkungen der Zivilisationsdynamik und de-
Unter demographischer Übergang werden in der Bevölkerungsforschung Ansätze zur Erklärung von Veränderungen in der Bevölkerungsentwicklung von Staaten beziehungsweise Gesellschaften verstanden. Das Modell des demographischen Übergangs ist im wissenschaftlichen Sinn keine Theorie, sondern eine modellhafte Beschreibung des Übergangs von hohen zu niedrigen Sterbeund Geburtenraten und dem daraus resultierenden veränderten natürlichen Bevölkerungswachstum. Ursprünglich geht das Modell auf erste Ansätze von Warren S. Thompson (1929) und Frank W. Notestein (1945) zurück. Es wurde später von unterschiedlichen Autoren aufgegriffen und verfeinert (4-Phasen-, 5-Phasen- beziehungsweise variables Modell). Das Modell dient folgenden Forschungszwecken:
• idealtypische Beschreibung der Veränderungen von Mortalität und Fertilität in den westlichen Industrieländern • Typisierung verschiedener Länder hinsichtlich ihres Standes in der Bevölkerungsentwicklung • Aufdeckung der Ursachen von Transformationsprozessen Seit den 1970er-Jahren wird überwiegend ein 5-Phasen-Modell zur Beschreibung der Transformationsprozesse in Gesellschaften genutzt:
• Phase I: Prätransformative- oder Vorbereitungsphase: – hohe, kaum voneinander abweichende Geburten- und Sterberaten – Sterberate kann größere Schwankungen aufweisen und zeitweilig (durch Krankheiten, Seuchen, Hungersnöte, Kriege) die Geburtenrate übertreffen – sehr geringes Bevölkerungswachstum • Phase II: Frühtransformative Phase: – die Geburtenrate bleibt konstant hoch, kann sogar aufgrund des verbesserten Gesundheitszustandes der Frauen leicht ansteigen – langsames, meist nicht gleichmäßiges Absinken der Sterberate – die Bevölkerungsschere öffnet sich
10.3 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch
• Phase III: Mitteltransformative Phase: – aufgrund besserer medizinischer Versorgung und verbesserter Hygiene fällt die Sterberate auf ein sehr niedriges Niveau; die Geburtenrate geht aufgrund des veränderten „generativen Verhaltens“ langsam zurück; das Bevölkerungswachstum erreicht seinen höchsten Stand – in dieser Phase „öffnet“ sich häufig das „demographische Fenster“, das bedeutet, dass der Großteil der Bevölkerung im Alter von ca. 15–65 ist, also im arbeitsfähigen Alter; dieser Anteil ist größer als der Jugendsockel (Bevölkerung im Alter von ca. 0–15) und der Rentensockel (Bevölkerung im Alter ab ca. 65); Somit gibt es mehr Menschen, die etwas erwirtschaften, als Menschen, die versorgt werden müssen; als Folge erlebt das Land meist einen wirtschaftlichen Aufschwung • Phase IV: Spättransformative Phase: – die Sterberate sinkt kaum noch; die Geburtenrate nimmt dagegen sehr stark ab (durch bekannte Methoden und Mittel der Empfängnisverhütung) – das Bevölkerungswachstum geht zurück, die Bevölkerungsschere schließt sich • Phase V: Posttransformative Phase: – Geburten- und Sterberate sind stabil und niedrig – das Bevölkerungswachstum ist gering und unterliegt kaum noch Schwankungen Der heutige demographische Wandel in den Industrieländern beschreibt die Unterschreitung der Sterberate durch die Geburtenrate seit Mitte des 20. Jahrhunderts. Staaten, Länder und Kommunen verlieren dadurch stetig an Bevölkerung.
Sterberate
Geburtenrate
Zuwachsrate Phase 1
Phase 2
Phase 3
Phase 4
Phase 5
10.4 5-Phasenmodell des demographischen Übergangs.
269
Jüngere Tendenzen dieses Prozesses sind insbesondere die natürliche Schrumpfung der Bevölkerung bei relativ starker demographischer Alterung. Kein Bereich des täglichen Lebens wird von diesem demographischen Wandel unberührt bleiben. Schrumpfung und Alterung beziehungsweise die Altersstrukturverschiebung der Bevölkerung werden uns als Herausforderung, aber auch als Chance in den nächsten Jahrzehnten begleiten. Gleichwohl wird die Weltbevölkerung noch einige Zeit anwachsen, weil das Bevölkerungswachstum eine gewisse Eigendynamik aufweist. Auch wenn die Geburtenrate auf das einfache Reproduktionsniveau von 2,1 Kindern pro Frau absinkt, gibt es in der gesamten Erdbevölkerung mehr junge als alte Menschen. In dieser Eigendynamik liegt zurzeit noch die Hauptursache für das zukünftige Bevölkerungswachstum der Erde. Insgesamt ist in den nächsten 50 Jahren mit einer Zunahme der Weltbevölkerung von 3,3 Milliarden Menschen zu rechnen. Neuere Langzeitprognosen gehen davon aus, dass 2025 etwa 8 Milliarden Menschen auf der Erde leben und 2050 etwa 9,3 Milliarden. Heute registrieren wir eine jährliche Zuwachsrate von ungefähr 76 Millionen Menschen (Wachstumsrate von 1,26 %). Diese soll bis 2050 auf 43 Millionen Menschen pro Jahr absinken, was zu einer Stabilisierung der Bevölkerung auf etwa 11 Milliarden im Jahr 2100 führen könnte.
10.3 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch Die im vorhergehenden Abschnitt analysierten Veränderungen des Erdsystems im Laufe der Menschwerdung wurden im Wesentlichen durch menschliche Aktivitäten oder „Nicht Handeln“ verursacht. Anthropogene Umwelteinflüsse basieren auf der Produktion und dem Verbrauch von Ressourcen und Dienstleistungen und lassen sich wie folgt charakterisieren:
• Verbrauch von nicht erneuerbaren Ressourcen wie Bodenschätzen und fossilen Brenn-
270
stoffen (Kohle, Erdöl, Erdgas): Hier liegen die Probleme in der Erfassung und Bewertung langfristig zu nutzender Vorräte, ihrer sparsamen Bewirtschaftung sowie der Bereitstellung geeigneter Substitutionsmöglichkeiten. • Nutzung von erneuerbaren Ressourcen wie Land, Wasser, Luft etwa zur Nahrungsmittelproduktion oder als alternative Energiequellen: Hier liegen die Hauptprobleme im Erhalt und Ausbau der Produktionsbasis (Verhinderung von Bodendegradation, Wasserverschmutzung). Kernproblem ist bei steigender Bevölkerungszahl eine umweltverträgliche Steigerung der Ertrags- und Leistungsfähigkeit von Standorten. • Emissionen: Hier liegen die Probleme in den historischen beziehungsweise zukünftigen Belastungen der Umweltbereiche Atmosphäre, Wasser und Böden. Mögliche Folge ist die Verringerung des Potenzials erneuerbarer Ressourcen. • Abfall: Kernproblem ist die Verwertung und Entsorgung des steigenden anthropogenen Abfalls. Diese Prozesse führen ihrerseits wiederum zu Ressourcenverbrauch, Emissionen und Abfall. Nur die Vermeidung beziehungsweise Reduzierung von Abfall sowie dessen Wiederverwertung (Recycling) bietet gleichzeitig auch die Chance, den Ressourcenverbrauch zu senken. Global betrachtet hängen die Quantität und Qualität der Umweltauswirkungen ab von:
• der Menge an Gütern und Dienstleistungen, die weltweit produziert, verteilt und verbraucht wird • wie Produktion, Verteilung und Verbrauch in Zukunft durchgeführt und organisiert werden (technologischer Entwicklungsstand) Die Abschätzung dieser Entwicklungen hängt dabei entscheidend von folgenden Determinanten ab:
• Bevölkerungsentwicklung • Veränderung des weltweiten Pro-Kopf-Verbrauchs (Konsum)
• Veränderung des Technologieeffekts (sowohl Technologiewandel an sich als auch Einführung von bereits bestehenden Technologien in technologisch gering entwickelten Ländern)
10 Klima und Gesellschaft
Unsere Handlungs- und Einwirkungsmöglichkeiten bei den genannten Determinanten sind aber eingeschränkt, Was im Folgenden erläutert wird.
Die Weltbevölkerung Die Weltbevölkerung wird bis zur Mitte des nächsten Jahrhunderts erheblich wachsen und stellt eine Hauptdeterminante für unseren Handlungsspielraum dar. Diese Problematik verschärft sich durch umweltbedingte Wanderungen (Migrationen), den zunehmenden Verstädterungsprozess (Urbanisierung) und die bereits angesprochene Eigendynamik und ungleiche Verteilung des Bevölkerungswachstums. Das Wachstum der Erdbevölkerung ist zudem regional sehr ungleichmäßig ausgeprägt. Langfristig gesehen ist die menschliche Reproduktion sogar das Kernproblem. Da jeder Mensch einen Anspruch auf Erfüllung seiner Daseinsgrundbedürfnisse hat, dürfte dies unter Beibehaltung der bisherigen Produktionstechnologien sowie der Gebrauchsgewohnheiten mit einem erheblichen zusätzlichen Verbrauch endlicher und erneuerbarer Ressourcen verbunden sein. Zurzeit erlebt der Planet Erde das höchste und dynamischste Bevölkerungswachstum der Menschheitsgeschichte. Die Entwicklung der Geburten- und Sterberaten ist dabei von vielen Faktoren abhängig und lässt sich nur sehr schwer einschätzen. Trotz der bestehenden Projektionsunsicherheiten muss davon ausgegangen werden, dass die Zahl der Menschen weltweit auch bei weiter sinkenden Geburtenraten zumindest bis zum Jahr 2050 stetig zunehmen und dann 9,3 Milliarden Menschen erreichen wird (derzeitige jährliche Wachstumsrate: 1,26 %). Gut 60 % des Bevölkerungswachstums konzentrieren sich auf nur zwölf Länder in Asien, Afrika und Lateinamerika. An der Spitze stehen Indien (Zuwachs von 563 Millionen Menschen in den nächsten 50 Jahren), Pakistan (203 Millionen) und China (187 Millionen). Eine sehr starke Bevölkerungsdynamik zeigen weiterhin Nigeria und Äthiopien. Demgegenüber geht der Anteil der Industrieländer an der Weltbevölkerung immer weiter zurück. Lag er im Jahr 1950 noch bei 32 %, so sank er bis heute auf etwa 20 % ab und wird im Jahr 2050 nur noch bei 13 % liegen. Allein in Europa leben mittlerweile nur noch 13 % der Weltbevölkerung.
10.3 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch
Allerdings wäre es verfehlt, aus der räumlichen Polarisierung der Bevölkerungsverteilung den Schluss zu ziehen, es würde sich um ein regional beziehungsweise kontinental begrenztes Problem handeln. Das Ausmaß des Bevölkerungswachstums sowie die ungleichmäßige räumliche Verteilung der Menschheit werden Umweltveränderungen und massive Wanderungsprozesse auslösen. Mit zunehmender Tendenz werden intra- und interregionale Bevölkerungsmigrationen aus ökonomischen und ökologischen Gründen stattfinden. Schätzungen zufolge ziehen weltweit, vor allem in den Entwicklungsländern, jährlich ca. 40 Millionen Menschen aus den ländlichen Gebieten in die Städte (intranationale Wanderung). Auch Wanderungsbewegungen über nationale Grenzen hinaus werden immer mehr zu einem globalen Problem. Nicht weniger als 70 Millionen Menschen, überwiegend aus Entwicklungsländern, arbeiten legal oder illegal in anderen Ländern. Häufigstes Ziel für internationale Wanderungen sind ebenfalls die städtischen Agglomerationen. Im Jahr 2007 lebten zum ersten Mal in der Menschheitsgeschichte mehr Menschen in Städten als auf dem Land. Heute gibt es offiziell bereits 19 Megastädte, deren Anzahl bis 2015 bereits auf 23 ansteigen wird. Tokio und Mumbai werden 2015 den Prognosen zufolge die Spitze mit 26,4 beziehungsweise 26,1 Millionen Einwohnern bilden. Neunzehn dieser 23 Megastädte werden dann in unterentwickelten Regionen der Erde liegen. Die ländlichen Regionen weisen aber weiterhin den weitaus größten Anteil an der weltweiten Armut auf, sodass die Schlussfolgerung zulässig erscheint, dass die Städte weiter wachsen, weil sie im Mittel größere soziale und wirtschaftliche Vorteile bieten als die ländlichen Regionen. Durch den rasanten Ausbau der Städte entstehen hohe soziale Kosten und Umweltschäden. Beides kann schon heute von den Städten und Metropolen der Erde nicht mehr in der Geschwindigkeit kompensiert werden, wie diese wachsen. Die Trinkwasserqualität und Höhe des Anteils der an die Kanalisation angeschlossenen Haushalte sind mittlerweile wichtige Indikatoren für den Entwicklungsstand und den Belastungsgrad der Umwelt (Karthe 2006 und Stähle 2007). Ohne Steuerung der Stadtsysteme und Beschränkung des städtischen Bevölkerungswachstums werden die Städte in ihren wesentlichen Funktio-
271
nen kollabieren und das Stadtklima wird – atmosphärisch wie sozioökonomisch – dem menschlichen Leben die Grundlagen entziehen. Die Polarisierung der Menschheit zum Beispiel in Stadt und Landbevölkerung, arm und reich, medizinisch versorgt oder unterversorgt, gebildet oder ungebildet wird durch die zunehmende Urbanisierung verstärkt. Das Bevölkerungswachstum gekoppelt an die angesprochenen Konzentrationseffekte der Urbanisierung wird sich zu einem am stärksten die Umwelt belastenden Faktor auf globaler Ebene entwickeln. Als wesentliche Ursache für das schnelle Wachstum der Städte ist in der ersten Phase der Urbanisierung die Landflucht anzuführen, auf deren Ursachen im vorhergehenden Abschnitt eingegangen wurde. Da die Altersgruppen zwischen 15 und 35 Jahren überproportional an der Landflucht beteiligt sind, steigt in den Städten auch der Anteil der Frauen im gebärfähigen Alter. Hintergrund der Landflucht ist die im Gegensatz zu den Städten unzureichende Entwicklung des ländlichen Raumes, gekennzeichnet durch einen Mangel an angemessener Versorgung mit sozialer und technischer Infrastruktur. Diese im Herkunftsraum abstoßenden Faktoren (Push-Faktoren) begünstigen den Wanderungsentschluss. Die in den Städten anzutreffenden „angemessenen Versorgungsstrukturen“ sind anziehende Kräfte (Pull-Faktoren), die auf die Migrationsentscheidung einwirken. Zusammenfassend ergeben sich aus dem weltweiten Bevölkerungswachstum folgende Problemfelder:
• Das Bevölkerungswachstum ist entscheidend für die Freisetzung von Treibhausgasen verantwortlich. In Afrika sind beispielsweise 68 % des CO2-Anstiegs auf das Bevölkerungswachstum zurückzuführen; in Brasilien sind es sogar 76 %. • Das Bevölkerungswachstum ist darüber hinaus für rund 70 % des Zuwachses an Viehbeständen verantwortlich. Die damit verbundene Erhöhung des Methangasausstoßes führt zu einer weiteren globalen Erwärmung und zu einem verstärkten Ozonabbau. • Das Bevölkerungswachstum steigert den Wasserverbrauch in der Landwirtschaft, in der Industrie- und Energieproduktion sowie im privaten Verbrauch.
272
Bei der Frage nach konkreten Handlungsmöglichkeiten erkennt man schnell, dass eine nachhaltige Stabilisierung der Weltbevölkerung, eine Abnahme der Migration sowie eine Vermeidung unkontrollierter Verstädterungsprozesse nur erreicht werden können, wenn entscheidende Entwicklungsdefizite (z. B. Armut, unzureichende Bildung) und Umweltprobleme (z. B. Wasserund Luftverschmutzung) angegangen werden. Dieser Lösungsweg wird auch bereits von einigen Wissenschaftlern im Vergleich zum Kostenaufwand geplanter CO2-Einsparungen kritisch diskutiert und angemahnt (Kopenhagener Konsens 2004). Die Kernfrage, die sich angesichts einer globalen Prioritätenliste für den Einsatz zusätzlicher Ressourcen in einer sich weiter erwärmenden Welt stellt, ist: Gibt es bessere Methoden, den Menschen zu helfen, als die Reduzierung des CO2-Ausstoßes? Diese Frage wird uns später noch in der Diskussion geeigneter Instrumente zur CO2-Reduktion beschäftigen. Zunächst soll aber die ökonomische Dimension und deren Verknüpfung mit dem Klimawandel betrachtet werden.
Der Kopenhagener Konsens 2004 Der Kopenhagener Konsens ist ein dänisches Projekt mit dem Ziel, Prioritäten zu setzen für die wichtigsten Herausforderungen der Menschheit, wie Unterernährung, AIDS, Wasserversorgung, Zugang zu sanitären Einrichtungen, Handelsbeschränkungen und globaler Klimawandel. Das Projekt nutzt dabei ökonomische Kosten-Nutzen-Analysen und Methoden der Wohlfahrtsökonomie. Die Ideen hierzu werden vom Institute for Environmental Assessment, einer Stiftung der dänischen Regierung, eingebracht. Alle Teilnehmer sind Ökonomen, welche die Betonung auf eine Prioritätenliste legen, die auf einer rationalen Basis fußt – nämlich der ökonomischen Analyse. Die Thesen des Kopenhagener Konsens` führten aber auch weltweit zu Kritik, da sie sich sehr stark von den anerkannten Emissionsminderungszielen des Weltklimarats (IPCC) entfernen beziehungsweise diese in Frage stellen.
10 Klima und Gesellschaft
Die Veränderung des weltweiten Pro-Kopf-Verbrauchs (Konsum) Wirtschaftliches Wachstum und wirtschaftliche Entwicklung sind mehrdeutige Begriffe, die zunächst der Klärung bedürfen. Die seit Jahren anhaltende Diskussion über „Die Grenzen des Wachstums“ (Dennis L. Meadows berühmter Bericht an den Club of Rome, 1972) basiert auf unterschiedlichen Definitionen des Wachstumsund Entwicklungsbegriffs. Wirtschaftswachstum wird als laufende Vergrößerung der volkswirtschaftlichen Güterproduktion bei konstanten Strukturen definiert. Unter Struktur werden hierbei das sektorale, regionale und betriebsgrößenmäßige Erscheinungsbild einer Volkswirtschaft sowie die Gesamtheit aller Produktionsverfahren verstanden, die sich z. B. über die Ressourcenintensität oder die Emissionskoeffizienten einer Volkswirtschaft definieren. Es ist jedoch wichtig, den Wandel von Wirtschaftsstrukturen in die Wachstumsbetrachtung mit einzubeziehen. Durch veränderte Wirtschaftsstrukturen können durch die Bildung neuer relativer Preise die Nachfragepräferenzen im Wirtschaftssystem entscheidend beeinflusst werden. Auch weitere Rahmenbedingungen wie die Herausbildung von Wirtschaftsräumen (z. B. EU, ASEAN, NAFTA) über eine politisch gewollte Integration oder institutionell vorbestimmte Weltwirtschaftsordnung (z. B. G8, G77) verändern das äußere Erscheinungsbild der Wirtschaft und ihrer Struktur laufend. Die globalen Umweltveränderungen sind somit nicht nur Folge des jeweils erreichten Produktionsniveaus, sondern auch das Ergebnis der vorherrschenden Wirtschaftsstruktur. Diese Strukturverläufe und Strukturänderungen können teilweise die Umwelt entlasten, müssen dies aber keineswegs. Der seit Jahren zu beobachtende Trend zur Globalisierung der Absatz- und Beschaffungsmärkte geht einher mit der räumlichen Ausweitung und Intensivierung von internationalen Handelsbeziehungen. Dies führt allgemein zu einer Internationalisierung und Tertiärisierung der Produktion sowie verstärkter zwischenbetrieblicher Arbeitsteilung (z. B. lean production, just-in-time production). Diese globalisierte Wirtschaftsstruktur wirkt sich besonders negativ auf den Energieverbrauch und
10.3 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch
273
Grenzen des Wachstum (Bericht an den Club of Rome 1972) Anhand einer rechnergestützten Simulation (World-3 kybernetisches Modell) ermittelten Dennis L. und Donella Meadows in der vom Club of Rome beauftragten Studie Die Grenzen des Wachstums (1972) das Systemverhalten der Erde als Wirtschaftsraum bis zum Jahr 2100. Das benutzte kybernetische World-3Modell berücksichtigte eine Vielzahl bekannter Zusammenhänge der Kenngrößen und zeitliche Verzögerungen zwischen Ursachen und Wirkungen. Ergebnis war, dass dem Wirtschafts- und Bevölkerungswachstum durch Nahrungsmittelknappheit, Umweltverschmutzung und Rohstoffknappheit Grenzen gesetzt sind. Nur durch
die Emissionen im Verkehrsbereich aus, die wiederum zwei wichtige Kausalfaktoren für globale Umweltveränderungen darstellen. Betrachtet man über einen längeren Zeitraum hinweg den Anteil der einzelnen Sektoren (primärer, sekundärer, tertiärer Sektor) an der volkswirtschaftlichen Wertschöpfung, so sind deutliche Verschiebungen in deren Anteilen zu erkennen. Nach der klassischen Dreisektorenhypothese (Fisher 1939; Clark 1960; Fourastié 1971) entwickeln sich Volkswirtschaften wie die Bundesrepublik Deutschland im Laufe ihres wirtschaftlichen Entwicklungsprozesses zu Dienstleistungsgesellschaften, in denen schließlich der Anteil des sekundären Sektors zugunsten des tertiären Sektors zurückgeht. Man spricht auch von einer nachindustriellen Gesellschaftsentwicklung (Phase V in Abbildung 10.4). Dieser Strukturwandel weg von der Industrie- hin zur Dienstleistungsgesellschaft wird oftmals mit einer Entlastung der Umwelt assoziiert. Der durch einen Strukturwandel bedingte Entlastungseffekt für die Umwelt ist allerdings wissenschaftlich keineswegs gesichert oder bereits nachgewiesen. Die aufgezeigten Transformationsprozesse im äußeren Erscheinungsbild der Wirtschaft umschreibt man heute auch mit dem Begriff der wirtschaftlichen Entwicklung. Der formulierte Entwicklungsbegriff enthält nicht nur die Begründung für die statistisch beobachteten und theoretisch erklärten Strukturänderungen auf sektoraler, regionaler oder betrieblicher Betrach-
massive Anstrengungen insbesondere bei der Geburtenkontrolle und im Umweltschutz sowie durch sparsame Rohstoffkreisläufe könne eine langfristige Stabilität der Weltwirtschaft erreicht werden. Das World-3/03-Modell wurde zuletzt 2004 erweitert und für den Bericht Limits to Growth: The 30-Year Update von Meadows et al. genutzt. Es besteht aus mehreren interagierenden Teilen. Die Hauptbestandteile sind das Nahrungsmittelproduktionssystem, das industrielle System, das Bevölkerungssystem, das System der nicht erneuerbaren Rohstoffe und das Umweltverschmutzungssystem.
tungsebene, sondern weist auch auf weitere Inhalte hin (Pearce et al. 1990). Zum Begriff der wirtschaftlichen Entwicklung gehören inhaltlich:
• Erhöhung des realen Pro-Kopf-Einkommens • Verbesserung des Gesundheitszustandes und • • • •
der Ernährungssituation Verbesserung des Bildungsstandes Zugang zu Ressourcen „faire“ Einkommensverteilung (sozialer Friede) Verwirklichung der Grundrechte
Diese Betrachtung des wirtschaftenden Menschen geht weit über die reine Betrachtung des ProKopf-Verbrauchs (Konsums) hinaus und setzt sich stärker mit Inhalten einer nachhaltigen Entwicklung (sustainable development) auseinander. In den aktuellen Berichten des Weltentwicklungsprogramms UNDP (Human Development Report) wurde bereits ein vorgeschlagener, jährlich erscheinender, Human Development Index (HDI) weiterentwickelt und um einen Political Freedom Index (PFI) ergänzt. Klima- und Umweltbelange sollten dringend Bestandteil der Entwicklungsbetrachtung werden, um eine zielführende Klima- und Umweltschutzdebatte führen zu können. Der Begriff „nachhaltige Entwicklung“ sollte dabei nicht weiter global verbal missbraucht, sondern eher als Leitbegriff für ein ökonomisches Handeln zum Überleben der Menschheit in der Zukunft angesehen werden. Gleichzeitig gilt es auch, die sozialen und ökonomischen Belange (Sozial- und
274
Ökonomieverträglichkeit einer Entwicklung) zu berücksichtigen. Für die globalen Umweltveränderungen sind auch jene Kausalitäten bedeutsam, die sich aus der Wechselwirkung sektoraler und regionaler Entwicklungstrends der einzelnen Länder ergeben. Die Wirtschaftsstruktur einer Region wird in ganz entscheidender Weise nicht nur von der Region selbst, sondern überwiegend von der Art und Entwicklung der interregionalen beziehungsweise internationalen Arbeitsteilung geprägt. Die sich international herausbildende Arbeitsteilung wird ihrerseits von ökonomischen und politischen Machtkonstellationen sowie institutionellen Rahmenbedingungen (z. B. Handelsabkommen) beeinflusst. Globale Umweltprobleme können insbesondere dann auftreten, wenn es als Folge des Strukturwandels der hochentwickelten Länder zu einem Export „schmutziger Industrien“ in die wenig entwickelten Länder kommt. Dies kann über eine direkte Standortverlagerung einer Produktionsstätte oder über gezielte Investitionen in den Entwicklungsländern geschehen. Auch der Welthandel und seine Rahmenbedingungen können auf die globalen Umweltgegebenheiten einwirken. Die empirische sowie theoretisch-analytische Bearbeitung dieses komplexen Wirkungsgefüges steht jedoch erst am Anfang und kann an dieser Stelle nicht ausführlich behandelt werden. Die Frage, wie die internationale Arbeitsteilung unter dem Aspekt der globalen Umweltveränderungen zu bewerten ist, rückt aber immer stärker in den Vordergrund. Erste empirische Untersuchungen betreffen etwa die Exportbelastung umweltsensibler Güter. Die Verlagerung umweltproblematischer Produkti-
10 Klima und Gesellschaft
onsbereiche in die geringer entwickelten Länder wäre ein fataler Rückschritt für das Ziel, globale Umweltveränderungen zu vermeiden. Eine Entkopplung von Energieverbrauch und Wirtschaftswachstum erscheint zum gegenwärtigen Zeitpunkt kaum realistisch. Dies bedeutet, dass die Emissionen weiter zunehmen werden. Durch das weltweite Bevölkerungswachstum verbunden mit einem deutlichen Energiemehrbedarf reicht die technisch absehbare Steigerung der Energieeffizienz möglicherweise nicht aus, den CO2-Eintrag in ausreichendem Maße zu begrenzen. Deshalb wird vielfach für eine Politik der Wachstumsbegrenzung in Verbindung mit einer Ausschöpfung aller Möglichkeiten zur Steigerung der Energieeffizienz und des Energiesparens plädiert. Globale Umweltveränderungen sind vielschichtige Prozesse, die in ihrer Wechselwirkung zwischen Natur und Anthroposphäre zu interpretieren sind. Weder in den Naturwissenschaften noch in den Gesellschaftswissenschaften können sie aus der Einzelperspektive und auf den theoretischen und methodischen Grundlagen nur einer einzigen wissenschaftlichen Disziplin analysiert werden. Die sozial- und verhaltenswissenschaftliche Forschung zu globalen Umweltveränderungen steht noch am Anfang. Es fehlen multidisziplinäre und multinationale Forschungsansätze. Eine Zusammenarbeit zwischen Sozial- und Naturwissenschaften findet noch zu wenig statt. Für beide Disziplinen bestehen enorme Herausforderungen. Auf Basis der menschlichen Dimensionen globaler Umweltveränderungen verabschiedete das
Sozial-ökologische Forschung – zukünftiger Baustein der Politikberatung Die sozial-ökologische Forschung wurde in Deutschland zur Stärkung einer transdisziplinär orientierten Umwelt- und Nachhaltigkeitsforschung im Rahmen des Programms „Forschung für die Umwelt“ des Bundesforschungsministeriums (BMBF) eingerichtet. Der neue Förderschwerpunkt „Sozial-ökologische Forschung“ trägt der Erkenntnis Rechnung, dass ökologi-
sche, ökonomische, soziale und technische Problemlagen miteinander vernetzt und zu ihrer Lösung transdisziplinäre, problemorientierte Forschungsansätze gefragt sind. Solche Ansätze, die natur- und sozialwissenschaftliche, universitäre und außeruniversitäre Forschung miteinander verzahnen, werden im Rahmen des neuen BMBFFörderschwerpunkts gezielt gefördert.
10.3 Umweltauswirkungen der Zivilisationsdynamik – der wirtschaftende Mensch
International Social Science Council (ISSC) 1990 das Human Dimensions of Global Environmental Change Programme (HDGEC, heute IHDP, International Human Dimension Program). Ziel des IHDP ist die Förderung sozial- und verhaltenswissenschaftlicher Forschung zu globalen Umweltveränderungen. Das Programm des ISSC konzentriert sich im Wesentlichen auf sieben inhaltliche Bereiche: 1. Soziale Dimensionen der Ressourcennutzung 2. Wahrnehmung und Bewertung globaler Umweltbedingungen und -veränderungen
275
3. Einflüsse lokaler, nationaler und internationaler sozioökonomischer und politischer Strukturen und Institutionen 4. Landnutzung 5. Energieproduktion und -verbrauch 6. Industrielles Wachstum 7. Umweltpolitische Sicherheitsfragen und nachhaltige Entwicklung Die aufgezählten Bereiche nach IHDP zeigen aber auch die enorme Verflechtung von Handlungsräumen für eine zukünftige Umwelt- und Klimapolitik auf.
11
Klima und Politik
Unter dem Begriff Klimapolitik werden Strategien und konkrete Maßnahmen auf internationaler, nationaler und lokaler Ebene verstanden, die zum Ziel haben, den Auswirkungen des Klimawandels entgegenzuwirken. Klimapolitik kann in zwei Hauptströmungen unterteilt werden: Anpassung an den unvermeidlichen Klimawandel (adaptation) und Abmilderung (Abschwächung, Minderung) des Klimawandels (mitigation). Der Klimawandel kann zum einen durch Verringerung der Treibhausgasemissionen und zum anderen durch Erhalt und Schutz vorhandener Kohlenstoffsenken (z. B. Wälder und Ozeane) abgeschwächt werden. Mit Anpassung sind Maßnahmen gemeint, die es Gesellschaften
ermöglichen, sich auf die Folgen des Klimawandels einzustellen und die Widerstandsfähigkeit der Gesellschaft (resilience) gegenüber den Auswirkungen des Klimawandels zu erhöhen. Die Klimapolitik steht daher vor der Herausforderung, eine möglichst hohe Reduzierung der Treibhausgasemissionen kosteneffizient und sozial verträglich zu erreichen. Dies erfordert die Entwicklung geeigneter Strategien, die zu einer Stabilisierung der Treibhausgase in der Atmosphäre führen und die Kosten der Emissionsreduzierung gerecht zwischen Industrie- und Entwicklungsländern verteilen. Den ökonomischen Instrumenten kommt in diesem Zusammenhang eine entscheidende Rolle zu.
Klimarahmenkonvention als multilaterales Umweltschutzabkommen Die 1992 im Rahmen der UN-Konferenz für Umwelt und Entwicklung (UNCED) in Rio de Janeiro ins Leben gerufene Klimarahmenkonvention ist ein internationales, multilaterales Umweltschutzabkommen. Im Rahmen dieses Abkommens zielen die heutigen Vertragsstaaten sowohl auf eine Minderung der anthropogenen Einflüsse auf das Klima als auch auf eine Verlangsamung der globalen Erwärmung und eine Abschwächung der Klimafolgen. Diese Absichtserklärung galt zunächst nur für Industrieländer, die 36 sogenannten „Annex-I-Staaten“. Zu diesen gehören als Hauptproduzenten der klimaschädlichen Treibhausgase vor allem die OECD-Staaten und die Mitgliedsländer der Europäischen Union. Entwicklungsländer wurden von einer Reduktion ihrer Emissionen zunächst freigestellt. Als Ziel der Klimarahmenkonvention wurde festgelegt: „Das Endziel dieses Übereinkommens (...) ist es, (...) die Stabilisierung der Treibhausgaskonzentrationen in der Atmosphäre auf einem Niveau zu erreichen, auf dem eine gefährliche anthropogene [d. h. vom Menschen verursachte] Störung des Klimasystems verhindert wird.“ (Artikel (2) [Ziele])
Was genau eine „gefährliche“ Störung des Klimasystems bedeutet, lässt die Konvention offen. Die Europäische Union hat sich in ihrem Umweltaktionsprogramm 2002 zum Ziel gesetzt, die globale Erwärmung auf maximal + 2 °C gegenüber vorindustriellen Zeiten zu begrenzen, da ansonsten nicht tolerierbare Umweltschäden zu erwarten seien. Um das Ziel der Klimarahmenkonvention zu erreichen, haben sich alle Unterzeichner verpflichtet, Klimaschutzmaßnahmen einzuleiten: „Jede der Vertragsparteien beschließt regionale Politiken und ergreift entsprechende Maßnahmen zur Abschwächung der Klimaänderungen, indem sie ihre anthropogenen Emissionen von Treibhausgasen begrenzt und ihre Treibhausgassenken und -speicher schützt und erweitert. Diese Politiken und Maßnahmen werden zeigen, dass die entwickelten Länder bei der Änderung der längerfristigen Trends bei anthropogenen Emissionen in Übereinstimmung mit dem Ziel des Übereinkommens die Führung übernehmen ...“ (Artikel 4(2)a [Verpflichtungen])
278
Zudem ist es notwendig, die Komplexität und Langfristigkeit des Klimawandels zu beachten. Zur Abschätzung der Treibhausgaswirkung sind nicht nur die jährlichen Emissionen, sondern vor allem die Einflüsse derzeitiger, vergangener und zukünftiger Schadstoffkonzentrationen von besonderer Bedeutung. Aufgrund der langen Verweilzeit und der Trägheit des klimatischen Systems erfordert das Management eines potenziellen Klimawandels die Berücksichtigung von Zeithorizonten von über 100 Jahren. Der globale Charakter des Umweltproblems erfordert außerdem eine globale Politik und ein globales Management. Klimapolitik sollte deshalb als sequenzieller Entscheidungs-, Lern- und Entwicklungsprozess verstanden werden, in dem die klimapolitischen Maßnahmen sowohl Anpassungs- als auch Minderungsstrategien umfassen. Dabei sind Minderungsmaßnahmen eher mit einer globalen Ausrichtung behaftet, während sich Anpassungsmaßnahmen auf die lokale und regionale Ebene beziehen. Um die ökonomischen Auswirkungen des Klimawandels abschätzen zu können, müssen alle anfallenden Kosten und Nutzen bestmöglich berücksichtigt werden. Als Kosten des Klimawandels bezeichnet man Schäden, die durch höhere Lufttemperaturen, Meeresspiegelanstieg sowie häufiger auftretende extreme Klimaereignisse (Stürme, Hurrikane) verursacht wurden, und ihre Auswirkungen auf natürliche und anthropogene Systeme. Die Kosten umfassen neben Verlust von Leben und Ökosystemen sowie Artensterben auch höhere Risiken und Unsicherheiten.
11 Klima und Politik
Der Klimaschutz ist deshalb in einen übergeordneten Umweltschutz einzubetten. Da sich der Klimawandel bereits vollzieht und weiter entwickeln wird, sind Anpassungsmaßnahmen unumgänglich, die ebenfalls mit Kosten verbunden sind. Die Anpassungskosten lassen sich jedoch durch Antizipation und Planung reduzieren. Die Stärken der politischen beziehungsweise gesellschaftlichen Antizipation liegen allgemein in der Voraussicht oder Vorwegnahme von Ereignissen, Entwicklungen oder Handlungen. Die Nettokosten des Klimawandels werden errechnet, indem vom Gesamtnutzen der Anpassung die Anpassungskosten subtrahiert und die durch Anpassung nicht vermeidbaren Klimaschäden addiert werden. Minderungsmaßnahmen weisen ebenfalls volkswirtschaftlichen Nutzen und Kosten auf. Neben dem direkten Nutzen der jeweiligen Minderungsmaßnahme (unmittelbare Vermeidung zukünftiger Kosten durch Klimawandel) können auch positive Nebeneffekte entstehen, z. B. durch die Reduktion nicht-klimawirksamer Luftverschmutzung, welche wiederum auf die Gesundheit der Menschen positiv zurückwirkt. Minderungskosten sind die Kosten, welche der Gesellschaft in Form von Produktionseinbußen und gleichzeitigem Konsumverzicht infolge der Emissionsreduktionsvorgaben entstehen. Die Höhe der Kosten hängt entscheidend von der Struktur des Energieangebots und der Energienachfrage sowie der Verfügbarkeit von kohlenstoffarmen Alternativen (z. B. Windkraft, Solarenergie) ab. Modellprojektionen zeigen, dass das langfristige Wirtschaftswachstum nicht stark durch
Bruttoinlandsprodukt (BIP) / Gross Domestic Product (GDP) Das Bruttoinlandsprodukt (BIP) gibt den Output an Gütern und Dienstleistungen an, die von einer Volkswirtschaft in einer bestimmten Zeitspanne hergestellt beziehungsweise zur Verfügung gestellt werden, bewertet nach Marktpreisen. Brutto bedeutet, dass der Wiederbeschaffungswert von Kapitalgütern nicht in Betracht gezogen wird. Es gibt verschiedene Methoden, das BIP zu berechnen. Das „aktuelle“ dollarbasierte BIP wird auf Grundlage des aktuellen Dollarkurses berechnet, wobei die Inflationseffekte Vergleiche
zwischen verschiedenen Zeitperioden erschweren. Das „konstante“ dollarbasierte BIP löst dieses Problem, indem es die aktuellen Werte in standardisierte Dollarwerte (Wert zu einer bestimmten Zeit, z. B. im Jahr 2000) konvertiert und damit inflationsbereinigt. Das Kürzel PPP steht für purchasing power parity, Kaufkraftparität, ein Kriterium, das Preisdifferenzen zwischen verschiedenen Ländern mit einbezieht und so einen internationalen Vergleich von realer Wertschöpfung und Einkommen ermöglicht.
11 Klima und Politik
Minderungsmaßnahmen beeinträchtigt wird und die Mitigationskosten relativ niedrig sind. Die Gründe dafür liegen im geringen Anteil (3 bis 5 %) der fossilen Energieträger am gesamten globalen Bruttoinlandsprodukt (BIP) und in den langfristig guten technologischen Entwicklungschancen, die eine Substitution von fossilen Energieträgern durch umweltfreundliche Energieträger ermöglichen. Eine ausgewogene Klimaschutzstrategie mit entsprechenden Minderungs- und Anpassungsmaßnahmen lässt sich mithilfe bestimmter analytischer Konzepte (z. B. Kosten-Nutzen-Analyse, Tolerable Windows Approach) ableiten.
279
Die Ableitung zukünftiger, optimaler Entwicklungspfade einer Gesellschaft bezüglich eines gewählten Kriteriums kann mittels einer Kosten-Nutzen-Analyse (KNA) bestimmt werden. Die Kosten-Nutzen-Analyse ist eine Möglichkeit, die Rentabilität staatlicher Investitionsentscheidungen zu bewerten. Die KNA erfasst die gesamtwirtschaftlichen Kosten und Nutzen von Investitionsprojekten und bewertet und aggregiert diese. Grundlegendes Ziel der KNA ist die Maximierung des menschlichen Wohlstands. Die Kosten-Nutzen-Analyse baut methodisch auf der betriebswirtschaftlichen Investitionsrechnung auf, die auftretende Kosten und Nutzen zu
Analytische Konzepte zur Ableitung einer Klimaschutzstrategie Die Kosten-Nutzen-Analyse bestimmt, ob das Ergebnis (der Nutzen) einer Aktion deren Aufwand (die Kosten) rechtfertigt. Die KostenNutzen-Analyse ist das zentrale Instrument der Wohlfahrtsökonomie (Wohlstandsökonomik), eines Teilbereichs der Volkswirtschaftslehre. Dieser wirtschaftstheoretische Ansatz beschäftigt sich mit der Beeinflussung der wirtschaftlichen Wohlfahrt, die sich aus der Allokation (Zuteilung) von Ressourcen ergibt. Falls Nutzen und Kosten nicht sicher zu bestimmen sind, werden deren Erwartungswerte ermittelt. Wenn der Nutzen die Kosten übersteigt, ist die Aktion durchzuführen, wenn sie eine potenzielle Pareto-Optimierung gegenüber dem Anfangszustand erwirkt. Eine Pareto-Optimierung bedeutet hier die Lösung eines Optimierungsproblems mit mehreren Zielen (multikriterielles Problem). Als Entscheidungskriterium fungiert dabei in der Regel das KaldorHicks-Kriterium. Das Kaldor-Hicks-Kriterium (nach Nicholas Kaldor und John Richard Hicks) bezeichnet ein ökonomisches Effizienzmaß. Danach ist eine politische Maßnahme dann sinnvoll, wenn sie für mindestens ein Individuum eine Verbesserung zur Folge hat und die Verlierer durch die Gewinner kompensiert werden könnten, die Maßnahme also in der Summe wohlfahrtssteigernd ist. Die Kompensation muss nach Kaldor-Hicks nur theoretisch möglich sein, aber nicht tatsächlich erfolgen. Wenn sie tatsächlich durchgeführt wird, wäre die Maßnahme sogar eine Verbesserung im Sinne von Vilfredo Pareto (Pareto-Effizienz). Eine tatsächliche Kompensation wird auch
als Paretianische Kompensation bezeichnet. Der erwartete Nutzen sowie die Kosten werden in Geldeinheiten gemessen, um sie vergleichbar zu machen. Probleme entstehen dabei vor allem bei der Bewertung von nicht am Markt gehandelten Gütern (z. B. Menschenleben, Zeit, viele Umweltgüter) sowie bei schwierig zu quantifizierenden qualitativen Nutzen (z. B. Lebensumstände, Klimaschutz). In früheren Gutachten hat der WBGU ein „Klimatoleranzfenster“, Tolerable Windows Approach, definiert und so bestimmte Klimabedingungen aufgrund einer normativen Setzung für nicht hinnehmbar erklärt. Dieses „Klimafenster“ besteht aus zwei Obergrenzen: Die globale Mitteltemperatur soll nicht mehr als + 2 °C gegenüber vorindustriellen Werten (zwischen 1861 und 1890) steigen, und die Klimaänderungsrate soll nicht mehr als 0,2 °C pro Jahrzehnt betragen. Es wird angenommen, dass die Anpassungsfähigkeit der Ökosysteme sowie wirtschaftlicher und gesellschaftlicher Systeme mit zunehmender Annäherung an die Temperaturobergrenze von 2 °C abnimmt. Die Obergrenze der absoluten Klimaerwärmung von 2 °C gegenüber der vorindustriellen Temperatur orientiert sich an der beobachteten Schwankungsbreite im jüngeren Quartär, das unser heutiges Klima und die Entwicklung der Menschheit geprägt hat (▶ Abschnitt 10.1). Die höchste beobachtete globale Mitteltemperatur in dieser Periode lag 1,5 °C oberhalb der vorindustriellen globalen Mitteltemperatur.
280
Marktpreisen bewertet, und berücksichtigt zusätzlich externe Kosten und Nutzen. Kritik ergibt sich allerdings in der ausschließlich ökonomisch ausgerichteten Bewertung dieses Ansatzes. Eine andere Entscheidungshilfe stellt der Tolerable Windows Approach dar. Auf Grundlage definierter Rahmenbedingungen, die auf der einen Seite einen nicht tolerierbaren Klimawandel und auf der anderen Seite nicht akzeptierbare Maßnahmen zur Bekämpfung des Klimawandels ausschließen, wird der zulässige Handlungsspielraum mittels Ursache-Wirkungs-Beziehungen zwischen Klima und Gesellschaft ermittelt. Im Folgenden schauen wir uns die Ausrichtung und Instrumente der internationalen und nationalen Klimapolitik an.
11.1 Internationale Klimapolitik Grundlage und Gestaltungsrahmen für die internationale Klimapolitik bilden die 1992 in Rio de Janeiro verabschiedete Klimarahmenkonvention
11 Klima und Politik
(UNFCCC) und das Kyoto-Protokoll aus dem Jahre 1997, in dem umfassende Maßnahmen zum Klimaschutz festgelegt wurden und das am 16. Februar 2005 in Kraft trat. In Kyoto verpflichten sich die verhandelnden Industriestaaten erstmals darauf, die Treibhausgasemissionen innerhalb eines verbindlichen Zeitrahmens (2008–2012) zu reduzieren. Um die Vorgaben des Protokolls und weitere bestehende Klimaziele umzusetzen, werden auf internationaler wie nationaler Ebene verschiedene Strategien und Instrumente entwickelt, die vom Emissionshandel bis zur Verbesserung der Energieeffizienz reichen. Auf politischer Ebene wird das Problem „anthropogener Klimawandel“ mit einer Vielzahl von Abkommen und konkreter Maßnahmen angegangen. Die internationale Klimapolitik ist heute ein zentraler Bestandteil globaler Umweltpolitik. Eingebettet in das System der Vereinten Nationen finden jährlich die Vertragsstaatenkonferenzen der UNFCCC und des Kyoto-Protokolls sowie zahlreiche weitere Verhandlungen statt. Neben den Übereinkommen der Staatengemeinschaft gibt es eine Reihe multilateraler Vereinbarungen, sogenannte parallel tracks, die einen
Multilaterale Umweltabkommen (Multilateral Environmental Agreements, MEA) Die zwischen drei oder mehr Staaten im Bereich der Umwelt getroffenen MEA werden meist im Umfeld der Vereinten Nationen ausgehandelt. Sie sind völkerrechtlich verbindlich und sollen auf internationaler Ebene einen verbesserten Umweltschutz durchsetzen helfen, der auf nationaler Ebene allein nicht möglich wäre. Derzeit existieren über 200 MEA, die bekanntesten von ihnen sind das Kyoto-Protokoll und die Klimarahmenkonvention (UNFCCC), die Biodiversitätskonvention (UNCBD), das MontrealProtokoll zum Schutz der Ozonschicht und das Übereinkommen der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD).
• 1997: Kyoto-Protokoll • 1994: Internationales Tropenholzabkommen
Bedeutende MEA:
• 2001: Stockholmer Konvention über langle-
• 1982: Seerechtsübereinkommen (UNCLOS) • 1973: Internationales Abkommen zur Ver-
bige organische Schadstoffe (POP-Übereinkommen) • 2000: Cartagena-Protokoll über die biologische Sicherheit
meidung von Verschmutzungen durch Schiffe (MARPOL) • 1973: Washingtoner Artenschutz-Übereinkommen (CITES)
(ITTA)
• 1994: Übereinkommen der Vereinten Nationen zur Bekämpfung der Wüstenbildung (UNCCD)
• 1992: Klimarahmenkonvention (UNFCCC) • 1992: Biodiversitätskonvention (CBD) • 1991: Übereinkommen zum Schutz der Alpen (Alpenkonvention)
• 1987: Montreal-Protokoll über Stoffe, die zu einem Abbau der Ozonschicht führen
• 1985: Wiener Übereinkommen zum Schutz der Ozonschicht
• 1983: Internationales Tropenholzabkommen (ITTA)
281
11.1 Internationale Klimapolitik
Beitrag zur Lösung der Klimaproblematik leisten sollen. Auch die internationale Klimapolitik prägen zwei grundsätzliche Lösungsansätze: die Politik der Mitigation, der Vermeidung und Minderung von klimaschädlichen Spurengasen, und der Adaptation, der Anpassung an den Klimawandel. Beide Ziele sind in den internationalen Verträgen festgeschrieben. Bis heute steht zwar die Minderung im Mittelpunkt der internationalen Bemühungen. Mit zunehmender Erkenntnis über die zu erwartende Geschwindigkeit, die Ausprägung und die Folgen des Klimawandels gewinnen aber die Anpassungsmaßnahmen mehr und mehr an Bedeutung (▶ Abschnitt 11.4 „Deutsche Anpassungsstrategie an den Klimawandel (DAS)“).
11.1.1 Der UNFCCC-Prozess Im Rahmen der Konferenz der Vereinten Nationen über Umwelt und Entwicklung (UNCED) 1992 in Rio de Janeiro (Erdgipfel, Rio-Gipfel), wurde die Klimarahmenkonvention (UNFCCC – UN Framework Convention on Climate Change) verhandelt und unterzeichnet. Die frühen internationalen Bemühungen zum Schutz des Klimas sind in Tabelle 11.1 aufgelistet. Die Klimarahmenkonvention trat 1994 in Kraft. Bis 2008 haben 192 Staaten die Klimarahmenkonvention ratifiziert. Die Annex-I-Staaten verpflichteten sich mit der Unterzeichnung, ihre CO2-Emissionen bis zum Jahr 2000 auf den Stand von 1990 zu reduzieren.
Annex-I-Staaten und BRICS Die sogenannten Annex-I-Staaten sind die im Anhang I der UN-Klimarahmenkonvention aufgeführten Industrieländer, die beschlossen haben, mithilfe nationaler Maßnahmen ihre Treibhausgasemissionen auf ein früheres Niveau zurückzuführen. Zu den Annex-I-Staaten zählen die 24 Staaten, die 1992 der OECD (Organisation für wirtschaftliche Zusammenarbeit und Entwicklung, Sitz in Paris) angehörten (Australien, Belgien, Dänemark, Deutschland, Finnland, Frankreich, Griechenland, Großbritannien, Island, Irland, Italien, Japan, Kanada, Luxemburg, Niederlande, Neuseeland, Norwegen, Österreich, Portugal, Spanien, Schweden, Schweiz, Türkei und die USA), Liechtenstein und Monaco sowie 14 weitere Länder,
Tabelle 11.1
die sich im Übergang zur Marktwirtschaft (Transformationsländer) befinden (Bulgarien, Estland, Kroatien, Lettland, Littauen, Polen, Rumänien, Russland, Slowakei, Slowenien, Tschechien, Ukraine, Ungarn und Weißrussland). Abgesehen von Weißrussland und der Türkei sind alle genannten Länder auch im Annex B des Kyoto-Protokolls aufgeführt, die sich zu verbindlichen Emissionsreduktionszielen verpflichtet haben. Die Abkürzung BRICS steht für die Länder Brasilien, Russland, Indien, China und Südafrika. Diese Länder gehören nicht zur OECD, aber sowohl ihre Bevölkerungszahlen als auch ihr politischer und ökonomischer Einfluss machen sie zu wichtigen Partnern in der internationalen Klimapolitik.
Erste Konferenzen zum weltweiten Klimaschutz. ( Kap. 1)
Jahr
Konferenz/Ereignis
Wirkung/Beschlüsse
1979
1. Weltklimakonferenz in Genf
Anreicherung von Kohlendioxid (CO2) in der Atmosphäre wird problematisiert, das Weltklimaprogramm (WCP) unter der Leitung der WMO ins Leben gerufen
1985
Konferenz der World Meteorological Organisation (WMO) in Villach
Warnung vor dem anthropogenen Einfluss auf die Veränderung des Weltklimas
1988
Klimakonferenz in Toronto
Aufruf zu CO2-Reduktionen von 20 % bis 2005; Technologietransfer zwischen Staaten des Nordens und des Südens wird diskutiert; Gründung des Weltklimarats (IPCC)
1990
1. Bericht des IPCC
Forderung nach internationalen Verträgen zum Schutz des Klimas
1992
UNCED in Rio de Janeiro
Unterzeichnung der UNFCCC durch mehr als 150 Staaten
282
Um die Entwicklung der Treibhausgasemissionen verfolgen zu können, haben sich die Vertragspartner dazu verpflichtet, regelmäßige Berichte zu veröffentlichen, die sogenannten National Communications. Die gemeinsame, aber differenzierte Verantwortung der Industrie- und Entwicklungsländer ist in Artikel 4 der UNFCCC festgehalten. Darin wird berücksichtigt, dass die Industriestaaten bereits mit dem Beginn der Industrialisierung Treibhausgase emittiert haben und auch heute noch für die höchsten Pro-Kopf-Emissionen und generell hohe absolute Emissionen verantwortlich sind. So ist in Artikel 4.2 (d) die Überprüfung der Angemessenheit der Verpflichtungen (Review of Adequacy of Commitments) der Industriestaaten festgeschrieben. Mithilfe dieser Überprüfung soll geklärt werden, ob die vereinbarten Reduktionsziele der UNFCCC ausreichen, um die Stabilisierung der Emissionen auf einem ungefährlichen Niveau zu erreichen. Artikel 7 der Konvention setzt jährliche Treffen der Vertragspartner fest. Aufgabe dieser Vertragsstaatenkonferenz (Conference of the Parties, COP) ist die Überprüfung der Durchführung der UNFCCC und der damit zusammenhängenden Rechtsinstrumente. Weiterhin werden Beschlüsse zur Durchführung des Übereinkommens getroffen. Die erste COP fand 1995 in Berlin statt, ein Jahr nach Inkrafttreten der UNFCCC. Wichtigstes Ergebnis der Berliner COP-Verhandlungen war das Berliner Mandat. Seine Kernaussage ist, dass die bisherigen Verpflichtungen nicht angemessen seien. Es wurde daher beschlossen, Maßnahmen zu erarbeiten und geeignete Emissionsbegrenzungs- und Reduktionsziele festzulegen und mit der Staatengemeinschaft zu verhandeln. Die in Berlin angestoßenen Verhandlungen über konkrete Mengenziele und Umsetzungsfristen wurden aber erst 1997 auf der dritten COP in Japan mit dem Kyoto-Protokoll zum Abschluss gebracht. Allerdings wurden die KyotoVerhandlungen von einem Nord-Süd-Konflikt überschattet. Hauptstreitpunkte waren dabei die Verpflichtungen der einzelnen Staaten und deren jeweilige Verantwortung für den Klimawandel. Während die Entwicklungsländer gemäß dem Berliner Mandat verbindliche Verpflichtungen für die Industrieländer diskutieren wollten, betonten vor allem die USA, dass ebenfalls bindende Emissionsziele für Entwicklungsländer überdacht werden sollten.
11 Klima und Politik
Resultat dieser schwierigen Verhandlungen war schließlich das Kyoto-Protokoll (KP). Darin verpflichten sich die sogenannten Annex-BStaaten (im Wesentlichen alle Industrieländer), ihre Emissionen um insgesamt 5 % im Zeitraum 2008 bis 2012 (erste Verpflichtungsperiode des KP) zu reduzieren. Die Reduktionsverpflichtung bezieht sich im Vergleich auf die Emissionen des Basisjahres 1990 und kann durch Reduktion der Emissionen von insgesamt sechs Treibhausgasen erfüllt werden:
• • • •
Kohlendioxid (CO2) Methan (CO4) Distickstoffoxid (NO2) (Lachgas) wasserstoffhaltige Fluorkohlenwasserstoffe (FKW) • perfluorierte Fluorkohlenwasserstoffe (PFC) • Schwefelhexafluorid (SF6) Das Kyoto-Protokoll wurde zwar bereits 1997 beschlossen, die Bedingungen des Berliner Mandats waren aber erst 2004 erfüllt. Die erste Bedingung (mindestens 55 Staaten müssen einem derartigen Abkommen beitreten) wurde mit der Ratifikation Islands am 23. Mai 2002 erfüllt, die zweite Bedingung mit Russlands Ratifikation am 4. November 2004; zu diesem Zeitpunkt hatten 136 Staaten, die zusammen 85 % der Weltbevölkerung stellen und sich für 62 % des weltweiten CO2-Ausstoßes verantwortlich zeichnen, das Protokoll ratifiziert. Heute (Stand: Dezember 2008) sind es 177 Mitgliedstaaten. Als vorletztes Industrieland ratifizierte Australien 2007 das Protokoll. Heute fehlen nur noch die USA, die dem Kyoto-Protokoll bislang nicht beitreten wollten. Wagt man eine Bewertung des UNFCCCProzesses, so kann positiv festgehalten werden, dass mit der Klimarahmenkonvention und dem Kyoto-Protokoll erstmals eine genaue und verpflichtende Festlegung von Reduktionszielen für Treibhausgase für Industrieländer erreicht werden konnte und neue Instrumente zur Umsetzung der Ziele etabliert wurden. Die langwierigen Verhandlungen einer derart großen Zahl von Vertragsparteien ruft jedoch auch Kritiker auf den Plan. Ihnen gehen die Verpflichtungen nicht weit genug und die Verhandlungen nicht schnell genug voran. Die Frage nach der Wirksamkeit der Vereinbarung kann teilweise mit Blick auf die
11.1 Internationale Klimapolitik
eingesparten Emissionen beantwortet werden. Für die Unterzeichnerstaaten insgesamt zeigt sich ein positives Bild: Im Jahr 2004 lagen die Emissionen 15,2 % unter den Emissionen des Vergleichsjahres 1990. Allerdings ist diese Entwicklung vor allem durch die Transformationsstaaten zu erklären, die zum Teil Reduktionen in Höhe von 60 % aufweisen. Diese sind zu einem Großteil auf den wirtschaftlichen Rückgang der GUSStaaten nach dem Zusammenbruch der UdSSR zu erklären und nicht durch eine verstärkte Klimaschutzpolitik. Eine der Maßnahmen, welche die Vereinbarungen des Kyoto-Protokolls verwirklichen sollen, ist der Emissionsrechtehandel, der weltweit Staaten und Unternehmen die Möglichkeit gibt, von eigenen Investitionen in den Klimaschutz zu profitieren. Eines der größten Probleme der Klimapolitik ist die Forderung vieler Entwicklungsländer, nicht durch Klimaschutzverpflichtungen in ihrer industriellen Entwicklung gehindert zu werden. Hier besteht ein Zielkonflikt mit der weltweiten Entwicklungspolitik, der nicht gänzlich gelöst werden kann. Die Entwicklungspolitik berücksichtigt jedoch Forderungen des Klimaschutzes dadurch, dass sie sich auf den Transfer von modernen, „sauberen“ Technologien konzentriert, die nach Möglichkeit auf die Bedürfnisse der Entwicklungsländer ausgerichtet sind. Am 4. Mai 2007 wurde in Bangkok der dritte Teil des UN-Klimaberichts veröffentlicht, aus dem hervorgeht, dass der weltweite Ausstoß an Treibhausgasen bis spätestens 2015 stabilisiert werden muss, damit die postulierte Obergrenze der globalen Erwärmung von 2 °C in Zukunft nicht überschritten wird. Eine Studie des Potsdam-Instituts für Klimafolgenforschung (PIK) belegt, dass Klimaschutz durch weltweite Verringerung des Treibhausgasausstoßes für die Staatengemeinschaften bezahlbar und volkswirtschaftlich sinnvoll ist. Um das „2 °C–Ziel“ einzuhalten, wird mit Klimaschutzkosten von 1 % des weltweiten Sozialprodukts gerechnet. Der Weltklimarat bezeichnet deshalb die forcierte Entwicklung der erneuerbaren Energien, die wirksame Steigerung der Energieeffizienz und die Abscheidung und Einlagerung von CO2 als wichtigste Handlungsfelder, um das „Klimafenster“ nicht weiter zu öffnen. Die jährlichen Schlüsseldaten aus den Bereichen Umwelt und Entwicklung zeigen aber eine
283
konträre Entwicklung. Am 9. Mai 2007 legte die Weltbank den Bericht Little Green Data Book 2007 vor, in dem die Daten zu Energie und Klimawandel für über 200 Länder aufgeführt sind. Der Weltbank-Bericht zeigt deutlich, dass die CO2-Emissionen zwischen 1990 und 2003 weltweit um 19 % gestiegen sind. Auf der folgenden Klimakonferenz in Bali im Dezember 2007 konnten sich 186 Staaten (unter Einschluss der USA, der Volksrepublik China und Indiens) auf die Aushandlung eines Klimaschutzabkommens zur Begrenzung der Treibhausgasemissionen bis 2009 verständigen. Das von 21 Staaten nicht ratifizierte Kyoto-Protokoll soll dadurch abgelöst und der Ratifizierungsprozess für das neue Abkommen bis 2012 abgeschlossen werden (Post-Kyoto-Abkommen). Die „Bali-Roadmap“ schlägt vor, dass die Industrieländer ihre Emissionen bis 2020 um 25 bis 40 % unter das Niveau von 1990 reduzieren und auch die Entwicklungsländer mit Unterstützung der Industrieländer „messbare und überprüfbare“ Beiträge zur weltweiten Emissionsminderung zu erbringen haben. Alle Industrie- und Entwicklungsländer einigten sich darauf, den Klimawandel gemeinsam und deutlich stärker bekämpfen zu wollen als bisher. Erstmals haben die Entwicklungsländer sich bereit erklärt, in Zukunft messbare, berichtspflichtige und überprüfbare eigene Klimaschutzmaßnahmen ergreifen zu wollen, die von den Industrieländern durch Technologiekooperation, Finanzierung und Kapazitätsaufbau unterstützt werden sollen. Das Post-Kyoto-Abkommen soll auf der Klimakonferenz in Kopenhagen (COP-15) im Dezember 2009 verabschiedet werden.
11.1.2 Quantifizierung klimawirksamer anthropogener Tätigkeiten für politische Entscheidungsprozesse Die Frage nach dem geeigneten Maß zur Quantifizierung von klimawirksamen Tätigkeiten wie Emissionen und Landnutzungsänderungen stellt sich insbesondere, um Aufschluss darüber zu erhalten, welche dieser Tätigkeiten wann und wo
284
eingestellt oder geändert werden sollten, um den Klimawandel möglichst effizient abzuschwächen. Insofern sind diese Betrachtungen elementar für den klimapolitischen Prozess. Die Wahl der Maßgröße wird davon abhängen, welche Strategie verfolgt werden soll.
• Ist die Klimapolitik lang- oder kurzfristig orientiert?
• Soll das Gleichgewichtsniveau möglichst niedrig sein, oder sollen Emissionen zunächst in den kommenden Jahrzehnten beschränkt werden, wie das beim Kyoto-Protokoll der Fall ist? Die Metriken (Maße) sind in der folgenden Betrachtung rein physikalisch orientiert, im Allgemeinen müssten aber auch ökonomische Faktoren einbezogen werden, um die effizienteste Strategie zu bestimmen. Ein viel einfacherer Ansatz ist das sogenannte Global Warming Potential (GWP). Es handelt sich dabei um ein zeitlich integriertes, massenspezifisches Radiative Forcing (RF) in Bezug auf CO2. Das RF einer Einflussgröße auf das Klima wird in seinem zeitlichen Verlauf berücksichtigt und mit CO2 verglichen. Somit wird die Lebensdauer der Einflussgröße als wesentlicher Faktor berücksichtigt. Das relative Treibhauspotenzial oder CO2Äquivalent gibt an, wie viel eine festgelegte Menge eines Treibhausgases zum Treibhauseffekt beiträgt. Als Vergleichswert dient Kohlendioxid; die Abkürzung lautet CO2e (e für equivalent). Der Wert beschreibt die mittlere Erwärmungswirkung über einen bestimmten Zeitraum; oft werden 100 Jahre betrachtet. Beispielsweise ist das CO2-Äquivalent für Methan für einen Zeithorizont von 100 Jahren gleich 25 zu setzen. Das bedeutet, dass ein Kilogramm Methan 25-mal stärker zum Treibhauseffekt beiträgt als ein Kilogramm CO2. Das Treibhauspotenzial ist aber nicht mit dem tatsächlichen Anteil an der globalen Erwärmung gleichzusetzen, da sich die Emissionsmengen der verschiedenen Gase stark unterscheiden. Mit diesem Konzept können bei bekannten Emissionsmengen die unterschiedlichen Beiträge einzelner Treibhausgase verglichen werden. Zum Beispiel wäre es denkbar, dass ein starker Vulkanausbruch kurzfristig einen starken negativen Strahlungsantrieb erzeugt, der die
11 Klima und Politik
Wirkung aller vom Menschen emittierten Treibhausgase neutralisiert. Zu einem Zeitpunkt kurz nach dem Ausbruch sieht es so aus, als gäbe es keine Beeinflussung des Klimas mehr. Da aber die vulkanischen Sulfataerosole nur wenige Jahre in der Atmosphäre verbleiben, würden die langlebigen Treibhausgase schon bald wieder die Oberhand gewinnen und das GWP wäre insgesamt positiv. Der Wert hängt allerdings von der Länge des Zeitintervalls ab, das betrachtet wird. Auch ist er vom Verlauf der CO2-Konzentrationen in diesem Intervall abhängig, da alle Emissionen auf CO2 bezogen werden. Es wird normalerweise angenommen, dass die betrachteten Emissionen sogenannte PulsQuellen sind, das heißt, zu Anfang des Zeitintervalls werden alle Stoffe auf einmal emittiert und dann in Folge langsam abgebaut. Hauptkritikpunkt am GWP-Konzept ist, dass zwei Emissionen mit gleichem GWP-Wert nicht unbedingt den gleichen zeitlichen Verlauf der Temperaturänderung ergeben müssen. Als Beispiel betrachte man zwei Treibhausgase mit unterschiedlichen Eigenschaften wie Methan und Kohlendioxid. Zwar hat Methan pro Masse eine stärkere Treibhauswirkung als CO2, verweilt aber nicht so lange in der Atmosphäre. Über einen bestimmten Zeitraum betrachtet hätten beide Stoffe daher denselben GWP-Wert. Allerdings wird es für die Klimaentwicklung im Hinblick sowohl auf den zeitlichen Verlauf als auch auf den Gleichgewichtszustand einen Unterschied machen, ob ein starkes Treibhausgas kurz oder ein schwächeres lange in der Atmosphäre vorhanden ist. Ein alternativer Ansatz ist daher das Global Temperature Potential (GTP). Man vergleicht dabei die global gemittelte Temperaturänderung am Ende eines Zeithorizonts. Es stellt sich aber das Problem, wo genau der Zeithorizont liegen soll, der einen gefährlichen Klimawandel ausschließt, welcher nach UNFCCC verhindert werden soll. Daher blieb das GWP bislang als empfohlenes Bewertungsmaß bestehen. Ein weiterer Nachteil des GWP ist seine schlechte Anwendbarkeit auf sehr kurzlebige Stoffe wie Aerosole, da dann Ort und Zeitpunkt und -dauer der Emissionsquellen eine große Rolle spielen. In Tabelle 11.2 finden sich Angaben zum GWP der wichtigsten anthropogenen Treibhausgase.
285
11.1 Internationale Klimapolitik
Tabelle 11.2 Wichtige anthropogene Treibhausgase und ihr GWP Spurengas
vorindustrielle Konzentration
CO2
279 ppm
CH4
730 ppb
N2O
270 ppb
FCKW-12 O3 (troposphärisch)
0 regional unterschiedlich
Konzentration 2005 385 ppm
Verweilzeit in Jahren
Treibhauspotenzial GWP
RF in W/m2
30–1 000
1
+1,66 (± 0,17)
1 774 ppb
12
25
+0,48 (±0,05)
319 ppb
114
298
+0,16 (±0,02)
538 ppt
100
5 200
0,35
Indirektes GWP Die obigen Beispiele beschreiben ein direktes GWP, welches den Strahlungsantrieb beinhaltet, den etwa ein bestimmtes Gas durch sein Absorptionsvermögen besitzt. Außerdem gibt es aber noch indirekte Effekte, das heißt, das Gas bewirkt indirekt durch sein Vorhandensein einen Antrieb, ohne ihn selbst unmittelbar zu verursachen. Es handelt sich um die indirekten Effekte der Zerfallsprodukte und Effekte durch Konzentrationsänderungen. Wird zum Beispiel Methan in Kohlendioxid umgewandelt, so schwächt sich dessen direktes RF zwar ab, die CO2-Konzentration und damit das RF von CO2 steigen jedoch an, da CO2 ein Folgeprodukt des Methanabbaus ist. Die wichtigsten indirekten Effekte sind:
• die Bildung und Vernichtung von Ozon • die Bildung von stratosphärischem Wasserdampf
• der Einfluss der OH-Konzentration auf die Lebensdauer von Methan
• die Bildung sekundären Aerosols Die Unsicherheiten der GWP-Bestimmung sind bei indirekten Effekten viel größer als bei direkten GWP. Das indirekte GWP hängt zudem von Ort und Zeitpunkt der Emissionen ab. Indirekte Effekte können sogar von anderem Vorzeichen sein als direkte, zum Beispiel bei NOx. Der Grund ist, dass die Hintergrundkonzentration reaktiver Spezies wie NOx die Luftchemie nichtlinear beeinflussen kann. Außerdem kann die Lebensdauer und Wirkung kurzlebiger sekundärer Spezies ortsabhängig sein. Damit ist der Nutzen des direkten GWPWerts für politische Entscheidungen begrenzt.
+0,17
(0,25 bis 0,65)
11.1.3 Der Emissionshandel im Rahmen des Kyoto-Protokolls Der Emissionshandel (auch Handel mit Emisist ein marktwirtschaftlich sionszertifikaten) ausgerichtetes klimapolitisches Instrument mit dem Ziel, den Ausstoß klimaschädlicher Gase mit möglichst geringen volkswirtschaftlichen Kosten zu reduzieren. Dafür muss zunächst von den Regierungen eine Gesamtmenge an Treibhausgasemissionen politisch festgelegt werden, die innerhalb eines bestimmten Zeitraums und innerhalb einer bestimmten Region ausgestoßen werden darf. Die definierte Gesamtmenge wird den in einem Emissionshandelssystem erfassten Emittenten in Form von Emissionsberechtigungen zugeteilt. Die Anzahl der ausgegebenen Emissionsberechtigungen wird aufgrund der „Emissionshistorie“ des Emittenten ermittelt, wobei man sich auf ein festgelegtes Basisjahr bezieht und zusätzlich eine festgelegte Reduktionsverpflichtung berücksichtigt. Die Emissionsberechtigungen können frei zugeteilt (gratis für den Emittenten) oder versteigert werden. Ein einzelnes Emissionsrecht berechtigt zum Ausstoß einer Tonne Kohlendioxid (tCO2) beziehungsweise einer Tonne CO2-Äquivalent (tCO2e) innerhalb der zeitlich festgelegten Verpflichtungsperiode. Am Ende der Verpflichtungsperiode muss jeder Emittent nachweisen, dass die Höhe der eigenen Emissionen durch die Menge an Emissionsberechtigungen gedeckt ist. Ist dies nicht der Fall, muss der Emittent Strafzahlungen leisten. Innerhalb des Emissions-
286
handelssystems besteht aber auch die Möglichkeit, die zur Deckung der eigenen Emissionen fehlenden Rechte von anderen Marktteilnehmern zu erwerben, wenn diese nachweislich weniger emittiert haben und ihre überschüssigen Zertifikate damit am Markt verkaufen können. Neben dem Verkauf der überschüssigen Emissionsberechtigungen besteht eine weitere Option darin, dass Emittenten, deren Emissionen unterhalb der festgelegten Obergrenze liegen, die Möglichkeit haben, diese als Guthaben für die nächste Verpflichtungsperiode zu behalten. Emissionshandelssysteme gibt es auf verschiedenen Ebenen. Einerseits gibt es den Emissionsrechtehandel zwischen Staaten, wie in Artikel 17 des Kyoto-Protokolls geregelt. Andererseits besteht eine Reihe von Emissionshandelssystemen, in denen Emissionsberechtigungen zwischen Unternehmen gehandelt werden, wie etwa innerhalb der Europäischen Union. Der Emissionshandel zählt zu den flexiblen Instrumenten, die im Kyoto-Protokoll verankert sind. Bis 2001 wurden die Modalitäten, Regeln und Richtlinien für den Emissionshandel weiter ausgearbeitet und schließlich in den sogenannten Marrakesch Accords festgeschrieben. Der zwischenstaatliche Emissionshandel startete dann am 1. Januar 2008. Das Europäische Emissionshandelssystem (EU EHS) auf Basis der am 13. Oktober 2003 verabschiedeten EU-Emissionshandelsrichtlinie ist bereits seit dem 1. Januar 2005 aktiv. Die EU hat sich verpflichtet, den Ausstoß klimaschädlicher Gase bis 2012 um insgesamt 8 % gegenüber dem Niveau von 1990 zu verringern. Um dieses Ziel zu erreichen, vereinbarten die Mitgliedstaaten im Sinne einer Lastenteilung, jeweils nationale Klimaschutzziele zu formulieren. Im EU-Emissionshandelssystem sind die Marktteilnehmer nicht Staaten, sondern Unternehmen oder Betreiber bestimmter emissionsintensiver Industrieanlagen. Diesen Anlagen werden gemäß nationalen Regeln (nationale Allokationspläne) Emissionsberechtigungen zugewiesen. Für die ersten beiden Handelsperioden 2005–2007 und 2008–2012 sind von der EU Emissionshandelsrichtlinie CO2-Emissionen ausgewählter energieintensiver Industriesektoren (Verbrennungsanlagen, Erdölraffinerien, Kokereien, Eisen- und Stahlwerke sowie Anlagen der Zement-, Glas-, Kalk-, Ziegel-, Keramik-, Zellstoff- und Papierindustrie) erfasst worden. Im
11 Klima und Politik
Jahr 2008 erfasst das europäische Emissionshandelssystem etwa 11 500 Anlagen, die zusammen rund 45 % der CO2-Emissionen beziehungsweise 30 % der Treibhausgasemissionen der EU verursachen. Weitere Sektoren (z. B. Flugverkehr) sowie klimaschädliche Gase sollen ab 2013 in das System einbezogen werden. Die Reduktion von Emissionen aus Sektoren, die nicht von dem EUEmissionshandel erfasst werden (z. B. Verkehr, Haushalte), obliegt den Mitgliedstaaten mittels nationaler politischer Maßnahmen und Regeln. Eine Verknüpfung des europäischen mit dem im Kyoto-Protokoll geregelten zwischenstaatlichen Emissionshandelssystem besteht in der Anerkennung von Reduktionszertifikaten aus JointImplementation- und/oder Clean-DevelopmentMechanism-Projekten (Abschnitt 11.1.4), mit der die Unternehmen ihren Verpflichtungen innerhalb des EU-Systems nachkommen können. Dies wird durch die sogenannte Linking-Direktive geregelt. Somit kann ein globales System verknüpfter Emissionshandelssysteme entstehen. Die EU hat bereits Vereinbarungen zum Aufbau eines Emissionshandelssystems mit Norwegen, Liechtenstein und der Schweiz geschlossen. Weiterhin bestehen in Japan sowie in einigen australischen Bundesstaaten weitere Emissionshandelssysteme. Andere befinden sich in der Entstehung, etwa in Neuseeland oder in mehreren Bundesstaaten der USA und einigen kanadischen Provinzen. Aus ökonomischer Sicht lässt sich das Instrument des Emissionshandels wie folgt bewerten: Der Handel mit Emissionsberechtigungen stellt sicher, dass die Reduktionsleistung dort erbracht wird, wo die Vermeidung von einer bestimmten Menge an Schadstoffemissionen am kostengünstigsten erreicht werden kann. Damit minimiert das Instrument unter Ausnutzung des Marktmechanismus die volkswirtschaftlichen Kosten aller Vermeidungsmaßnahmen. Der Emissionshandel gilt jedoch auch als ökologisch wirksames Instrument. Seine konzeptionelle Stärke liegt darin, dass über die Festlegung der Gesamtzahl auszugebender Emissionsberechtigungen die Menge der Gesamtemissionen zielgerichtet gesteuert und mit der Zeit kontinuierlich verringert werden kann. Eine abschließende Bewertung des Emissionsrechtehandels in der EU ist jedoch schwierig, da dieses Instrument noch nicht lange genug etabliert ist.
11.1 Internationale Klimapolitik
Generell können aber einige vorläufige Schlussfolgerungen aus dem Emissionsrechtehandel gezogen werden: Zum einen haben die Treibhausgasemissionen durch den Emissionshandel einen Preis bekommen, den die Unternehmen jetzt in ihre wirklichen Kosten einbeziehen müssen. Dies bedeutet, dass die Umweltverschmutzung nicht mehr weiter der Allgemeinheit angelastet wird, sondern das Verursacherprinzip greift. Zum anderen hat der EU-Emissionshandel bisher kaum zu einer Reduzierung der Treibhausgase beigetragen, sodass viele EU-Mitgliedstaaten weit davon entfernt sind, ihre im KyotoProtokoll festgeschriebenen Reduktionsziele zu erreichen (▶ Abschnitt 11.2). Dies beruht vor allem auf der spezifischen Ausgestaltung der EUEmissionshandelsrichtlinie. Rechtlich betrachtet ist sie ein starkes Instrument, das Strafzahlungen in Höhe von bis zu 100 Euro pro Tonne ausgestoßenen Kohlendioxids vom Emittenten einfordern kann, überlässt allerdings die Festlegung der Gesamtmenge an auszugebenden Emissionsberechtigungen den EU-Mitgliedsländern. Und die meisten EU-Staaten sind bei der Vergabe bis heute zu großzügig. Eine effiziente Wirksamkeit kann der Emissionshandel jedoch nur dann erzielen, wenn das Gesamtvolumen der ausgeteilten EU-Emissionsberechtigungen gering ist. Das Kernproblem des Emissionshandels liegt also im politischen Umsetzungsprozess, bei dem bis heute noch nationale Einzelinteressen gegenüber ökologischen Zielen überwiegen.
11.1.4 Die flexiblen Instrumente des Kyoto-Protokolls: Joint Implementation und Clean Development Mechanism Wie wir in Teil II gesehen haben, durchmischen und verteilen sich die Treibhausgase gleichmäßig in der Atmosphäre und erzeugen dadurch die gleiche Klimawirkung unabhängig davon, wo sie ausgestoßen werden. Dies bedeutet im Umkehrschluss, dass Klimaschutzmaßnahmen räumlich unabhängig durchgeführt werden können. Deshalb sieht die internationale Klimapoli-
287
tik vor, dass die Industriestaaten dort ihre Emissionsreduktionsverpflichtungen erfüllen können, wo es für sie am kostengünstigsten ist. Diese Grundüberlegung führte im Kyoto-Protokoll zur Festschreibung sogenannter flexibler Instru. Neben dem Emissionsrechtehandel mente gehören hierzu zwei weitere Instrumente:
• der Mechanismus für umweltgerechte Entwicklung (Clean Development Mechanism, CDM) • die Gemeinsame Projektumsetzung (Joint Implementation, JI) Sämtliche Klimaschutzprojekte, die ein Industrieland in einem anderen Industrieland durchführt, werden als Joint Implementation (JI) bezeichnet. Die Projekte, für deren Umsetzung ein Industrieland in einem Entwicklungsland in den Klimaschutz investiert, fallen unter den Clean Development Mechanism (CDM). CDM und JI sind somit kooperationsfördernde Instrumente zwischen Staaten. Die Kooperation findet dabei nicht auf staatlicher, sondern auf Projektebene unter Mitwirkung von Unternehmen statt, es handelt sich um „projektbasierte Mechanismen“. Beide Konzepte sehen vor, dass nur Projekte angemeldet werden können, die Emissionen verringern oder aber der Atmosphäre Kohlenstoff entziehen und diesen längerfristig in Biomasse speichern. Nach einer vorher festgelegten Laufzeit für ein CDM- oder JI-Projekt werden dem Projektbetreiber in Relation zur Menge der Emissionsminderung beziehungsweise des gespeicherten Kohlenstoffs Emissionszertifikate ausgestellt. Diese Zertifikate können wiederum von den Staaten, die sich im Rahmen des Kyoto-Protokolls zur Begrenzung ihrer Emissionen verpflichtet haben, aufgekauft und auf ihr vereinbartes Minderungsziel angerechnet werden. Emissionsmindernde Klimaschutzprojekte können z. B. der Bau eines Windparks, die Verbesserung der Effizienz eines Fernwärmenetzes oder die Installation eines Biomassekraftwerks sein. Ein wichtiger Leitgedanke bei der Anwendung flexibler Mechanismen ist im möglichen Technologietransfer in andere, vor allem weniger entwickelte Länder zu sehen, der neben den Emissionsminderungen auch zur Verbreitung neuerer umweltfreundlicher Technologien führt. Dies gilt besonders für CDM-Projekte. Dabei ist allerdings zu beachten, dass die Unterzeichner-
288
staaten des Kyoto-Protokolls nur einen Teil ihrer Emissionsminderungsauflagen durch diese flexiblen Mechanismen erfüllen dürfen. Hier gilt das sogenannte Supplementaritätsprinzip, welches festlegt, dass CDM und JI nur ergänzend zu Emissionsminderungen im Inland angewendet werden dürfen. Allerdings ergibt sich für die flexiblen Mechanismen gerade hier eine deutliche Richtlinienschwäche, da eine genaue Festlegung beziehungsweise Quantifizierung, welcher Anteil der Minderungsverpflichtungen im Ausland erfüllt werden darf, nicht eindeutig definiert wurde. Schauen wir uns im Folgenden den Ablauf eines CDM- beziehungsweise JI-Projekts an: Ein potenzielles Klimaschutzprojekt startet zunächst mit einer konkreten Projektidee, z. B. der Reduktion von Methanemissionen aus einer Mülldeponie. Methan entsteht in diesem Fall bei Verrottungsprozessen auf einer offenen Müllhalde. Es besitzt ein 25-fach höheres Treibhauspotenzial als CO2. Unser Klimaschutzprojekt besteht nun darin, das sich auf der Deponie bildende Methangas abzusaugen und nachgeschaltet für die Stromproduktion zu nutzen. Dadurch wird erstens erreicht, dass das Methan nicht ungehindert und unkontrolliert an die Luft abgegeben wird. Zweitens wird durch die Nutzung des Methans zur Stromerzeugung der Einsatz fossiler Brennstoffe zur Stromerzeugung verringert. Deutschland z. B. hat in dieser Technologie langjährige Erfahrung und könnte ein solches Projekt zum Technologietransfer, vor allem in Entwicklungsländer, anbieten. Um ein solches Projekt als CDM- oder JI-Projekt durch die UN anzuerkennen, müssen mehrere Voraussetzungen erfüllt sein.
• Der Projektentwickler muss eine umfangreiche Dokumentation vorlegen, die vor allem dokumentiert, wie viele Emissionen das Projekt einsparen kann und wie dies messtechnisch nachgewiesen wird. • Eine zusätzliche Abschätzung ist zu leisten über diejenigen Emissionen, die entstanden wären, wenn das Projekt nicht durchgeführt würde. • Die aus dem Projekt entstehenden Emissionen müssen in einer Saldoberechnung den Emissionen „ohne Projektdurchführung“ gegenübergestellt werden. • Der Projektentwickler hat den Nachweis zu erbringen, dass das Klimaschutzprojekt „zu-
11 Klima und Politik
sätzlich“ durchgeführt wird, das heißt, es darf sich nicht um reguläre Investitionen handeln, sondern es müssen Projekte sein, die ohne finanzielle Hilfe des CDM- oder JI-Mechanismus nicht zustande gekommen wären. • Sowohl das Gastland, in dem das Projekt durchgeführt wird, als auch das investierende Industrieland müssen dem Projekt zustimmen. Nach erfolgreicher Dokumentation des Projekts prüft ein unabhängiges, UN-akkreditiertes Zertifizierungsunternehmen die Einhaltung der UNVorschriften basierend auf der UNFCCC. Ist die Prüfung erfolgreich, wird das Projekt offiziell als UN-Klimaschutzprojekt anerkannt. Während der Projektlaufzeit müssen die anfallenden Emissionen fortwährend dokumentiert werden. Eine lückenlose Aufzeichnung ist die Grundlage für die spätere Überprüfung der tatsächlichen Emissionsminderung. Die Projektlaufzeit wird wie die Genehmigungsphase wiederum durch ein UN-akkreditiertes unabhängiges Zertifizierungsunternehmen federführend begleitet. Je nach Mechanismus (CDM oder JI) gelten für die Überprüfung unterschiedliche Vorschriften. Deren Erfüllung ist Grundlage dafür, dass die entsprechende Anzahl an CDM-/JI-Emissionszertifikaten ausgestellt werden kann. Obwohl es den Industrieländern freigestellt ist, auf welche Weise sie ihre Klimaschutzverpflichtung erfüllen, muss am Ende des jeweiligen Anrechnungszeitraums eine Anzahl von Emissionszertifikaten vorliegen, die der Menge an Emissionen entspricht, die während des Anrechungszeitraums von ihrem jeweiligen Staatsgebiet ausging. Die Länder haben hierfür unterschiedliche Handlungsoptionen: Einerseits können sie in ihrem Staatsgebiet emissionsreduzierende Maßnahmen durchführen. Andererseits können sie ihr Budget an Emissionszertifikaten durch Zukauf erhöhen. Dazu werden entweder überschüssige Emissionszertifikate anderer Staaten aufgekauft oder Emissionszertifikate aus CDM-/JI-Projekten angerechnet. Ein Betreiber eines CDM-/JI-Projekts kann also die aus seinem Projekt stammenden Zertifikate einem Industrieland verkaufen, welches wiederum die Zertifikate zur Erfüllung seiner „Kyoto-Pflicht“ einsetzen kann. Eine weitere Möglichkeit besteht darin, die Zertifikate einem Unternehmen, das am EU-Emissionsrechtehandel teilnimmt, anzubieten.
289
11.2 Klimapolitik auf EU-Ebene
Der CDM-Mechanismus begann im Jahr 2001 und entwickelt sich sehr dynamisch. Im Frühjahr 2008 wurde von der UN bereits das tausendste CDM-Projekt registriert. Allerdings zeigen sich auch Schwächen. Unter anderem wird kritisiert, dass zahlreiche CDM-Projekte nicht wirklich „zusätzlich“ installiert wurden. Dadurch ist infrage gestellt, ob diese Projekte tatsächlich zur Emissionsreduktion beitragen. Weiterhin sind die CDM-Projekte geographisch sehr ungleich verteilt: Drei Viertel aller Projekte entfallen auf Indien, China, Brasilien, Mexiko, während es in Afrika bisher kaum Projekte gibt. Darüber hinaus wird der rein „projektbasierte“ Ansatz des CDM kritisiert, da er nur lokal begrenzt wirken könne. Es wird zunehmend gefordert, dass entscheidende Transformationen auf der Ebene ganzer Wirtschaftssektoren stattfinden müssten. Eine Bewertung von JI lässt sich zum derzeitigen Zeitpunkt noch nicht durchführen, da das JI-Instrument erst Anfang 2008 startete. Die UN hat bislang zwei JI-Projekte anerkannt (in der Ukraine und in Neuseeland).
11.2 Klimapolitik auf EU-Ebene Der erste Verpflichtungszeitraum des KyotoProtokolls endet bereits im Jahr 2012. Auf EUEbene wird daher beraten, wie die langfristige Klimaschutzstrategie gestaltet werden soll. Die Verringerung der vom Verkehr verursachten Treibhausgasemissionen und die Fortführung der marktorientierten Instrumente (z. B. Emissionsrechtehandel) sollen nach Vorschlägen der Kommission ihre Hauptelemente bilden. Die größte Herausforderung wird jedoch darin bestehen, die größten Emissionsverursacher – darunter die USA und China – dazu zu bewegen, bindenden Vereinbarungen zur Verringerung der Klimabelastungen zuzustimmen. Das Kyoto-Protokoll als rechtsverbindliches Zusatzdokument zur UN-Klimarahmenkonvention (UNFCCC) verpflichtet die Industrieländer, im Zeitraum 2008–2012 ihre Treibhausgasemissionen um 5,2 % im Vergleich zum Basisjahr 1990 zu verringern. Die EU hat sich zu einer Reduzierung von 8 % in diesem ersten Verpflichtungszeitraum bereit erklärt.
Die EU nimmt eine globale Vorreiterrolle bei der Bekämpfung des Klimawandels ein. Das Europäische Programm zur Klimaänderung (ECCP), welches im Jahr 2000 startete, soll sicherstellen, dass die EU den Verpflichtungen des Kyoto-Protokolls auch gerecht wird. Das ECCP umfasst Initiativen in mehreren Bereichen, darunter die Förderung von erneuerbaren Energiequellen und Maßnahmen zur Verbesserung der Energieeffizienz von Gebäuden und Fahrzeugen. Am 9. Februar 2005 hat dann die Europäische Kommission ein Strategiepapier für die künftige EU-Klimapolitik nach 2012 vorgelegt. Diese „Strategie für eine erfolgreiche Bekämpfung der globalen Klimaänderung“ hat die folgenden Kernelemente:
• Die größten Emissionsverursacher sollen in
•
• • •
die multilateralen Klimaschutzanstrengungen fest eingebunden werden. Zu ihnen gehören vor allem die USA sowie Schwellenländer wie China und Indien. In die Klimapolitik sollen weitere Politikbereiche wie Luft- und Seeverkehr mit einbezogen werden. Außerdem soll das Problem der Entwaldung angegangen werden, da sie in einigen Regionen der Erde die Klimaerwärmung zusätzlich erhöht. Klimafreundliche Technologien sollen verstärkt gefördert werden. Die Nutzung marktorientierter Instrumente (insbesondere das EU-Emissionshandelssystem, EU-ETS) soll fortgesetzt werden. Anpassungsstrategien in Europa und weltweit zur Bewältigung der Auswirkungen des Klimawandels sollen nach 2012 einbezogen werden.
Die Kommission hat es jedoch vorgezogen, in ihrem Strategieentwurf keine genauen Reduzierungsziele für die Treibhausgasemissionen festzulegen, da das Papier lediglich dazu diene, „künftige Verhandlungen der EU mit ihren globalen Partnern zu strukturieren“. Die Frage der Festlegung solcher Ziele dürfte jedoch im Laufe der Verhandlungen in den nächsten Jahren wieder aktuell werden. Die im Januar 2008 von der Europäischen Kommission vorgeschlagenen Maßnahmen zur Intensivierung des EU-Emissionsrechtehandels beinhalten von 2013 an ein gemeinsames CO2Budget für alle Mitgliedstaaten. Während die
290
Energiewirtschaft die CO2-Zertifikate von da an bereits zu 100 Prozent ersteigern können soll, werden Raffinerien, Chemieindustrie und Fluglinien noch bis 2020 teilweise kostenlos Zertifikate zugeteilt bekommen (85 % im Falle der Luftfahrt, für die anderen Industriebranchen ist der Anteil bisher noch nicht bestimmt). Weiterhin ist vorgesehen, dass es für Emissionen, die nicht im Emissionshandel berücksichtigt werden (aus Heizungen und Klimaanlagen, Verkehr, kleinen Industrieanlagen, Dienstleistungsbetrieben und der Landwirtschaft) für jedes Land Emissionskontingente vorgegeben werden, die insgesamt zu einer Verminderung um 10 % (im Vergleich zum Jahr 2005) in dem jeweiligen Emissionsbereich führen sollen (Website des Europäischen Parlaments ). Der Gesamtausstoß an Treibhausgasen in der EU soll bis 2020 um 20 % gegenüber dem Basisjahr 1990 gesenkt werden, je nach Beteiligungsbereitschaft weiterer Industriestaaten an der weltweiten Emissionsreduktion auch um bis zu 30 %. Ebenfalls bis 2020 soll der Beitrag der erneuerbaren Energiequellen zur europäischen Energieversorgung auf einen Anteil von 20 % ausgebaut werden. Des Weiteren enthält das Klimaschutzpaket einen Richtlinienentwurf, der die geologische Speicherung von Kohlendioxid regeln soll. Die Europäische Union nimmt bei den Klimaverhandlungen eine Sonderrolle ein, da sie als Staatenverbund auftritt. Das sich selbst auferlegte Reduktionsziel soll durch Lastenteilung (Burden Sharing) erreicht werden. In EU-internen Verhandlungen werden die Lasten zunächst auf die
11 Klima und Politik
einzelnen EU-15-Mitgliedstaaten (später EU-27, Post-Kyoto) umgelegt. Wie die nachstehende Grafik zeigt, haben bislang nur vier der EU-15Staaten ihr Reduktionsziel erreicht; einige der Staaten sind zum Teil noch weit von ihren Burden-Sharing-Verpflichtungen entfernt. Bis 2012 müssten die Anstrengungen in vielen europäischen Staaten noch deutlich erhöht werden, um als Vorreiter glaubhaft zu sein und die bestehenden Verhandlungskonflikte aufzulösen. Die Industrieländer müssen zum einen ihre nationalen Anstrengungen verstärken und zum anderen ihre internationalen Verpflichtungen
Schweden Frankreich Großbritannien Griechenland –1,5 –2,5 –3,4 –5,3 –11,3 –12,5 –13,1 –16,4 –22,7 –28,2 –29,2 –34,5
12,9 4,0 3,5 0,6 Belgien Deutschland Niederlande EU15 Portugal Irland Finnland Italien Dänemark Österreich Luxemburg Spanien
–35 –30 –25 –20 –15 –10 –5 0 5 10 Prozentpunkte ober-/unterhalb eines linearen Zielerreichungspfads
15
11.1 Abweichung der Treibhausgasemission der EU15-Staaten vom Kyoto-Minderungsziel (2006) (Quelle: Wuppertal Institut 2008, nach EEA 2008).
Geologische Speicherung von CO2 (Carbon Dioxide Capture and Storage, CCS) CCS ist eine Technologie, die das beim Verfeuern von fossilen Brennstoffen entstehende Kohlendioxid (CO2) von anderen Abgasen trennt und es anschließend deponiert, um zu verhindern, dass es in die Atmosphäre gelangt. CO2 ist neben Wasserdampf und vor Methan sowie Lachgas (N2O) das wichtigste Treibhausgas. CCS wird in kleinem Maßstab bereits in verschiedenen Bereichen – etwa bei der Öl- und Gasförderung – angewandt. Als Großtechnologie für den
Klimaschutz ist sie jedoch noch in einem Frühstadium und ist in diesem Bereich vor allem für große Emittenten, insbesondere für Kraftwerke, interessant. Der IPCC hält die „Abtrennung und geologische Speicherung von CO2“ – wie CCS in deutschsprachigen Fachkreisen genannt wird – für einen potenziell wichtigen Beitrag zur Stabilisierung des globalen Klimas. CCS könnte demnach bis zum Ende des Jahrhunderts mit 15–55 % zu den notwendigen Treibhausgasreduktionen beitragen.
11.3 Nationale Klimapolitik – Das Beispiel Deutschland
und Hilfen deutlich erhöhen. Trotzdem werden die weltweiten Treibhausgasemissionen bis 2012 weiterhin ansteigen. Aus diesem Grund sollten für die zweite Verpflichtungsperiode des KyotoProtokolls (nach 2012) deutlich striktere Vorgaben verabredet werden. Daneben gilt es, den großen Emittenten USA über andere Mechanismen wieder in die aktive Klimapolitik zu integrieren. Ansonsten wird es schwierig, die Notwendigkeit eigener verbindlicher Reduktionsverpflichtungen auch für bislang ausgenommene Schwellenländer wie China oder Indien, die durch ihren wirtschaftlichen Aufschwung inzwischen auf den vorderen Rängen des Emissionsrankings zu finden sind, überzeugend zu vermitteln. Die CO2-Emissionen können einerseits dadurch vermindert werden, dass die Effizienz der Nutzung von Kohle, Gas oder Öl erhöht wird. Andererseits können die fossilen Energieträger durch erneuerbare Energien (Wind, Biomasse, Sonnenenergie) oder durch Kernenergie ersetzt werden. In der europäischen Diskussion steht vor allem die Effizienz- und Substitutionsoption im Vordergrund. Insbesondere die deutsche Bundesregierung setzt sich für die Förderung erneuerbarer Energieträger ein.
11.3 Nationale Klimapolitik – Das Beispiel Deutschland Bereits 1995 hatte sich Deutschland auf dem UNKlimagipfel in Berlin verpflichtet, den Ausstoß von Kohlendioxid (CO2) bis zum Jahr 2005 um 25 % im Vergleich zu 1990 zu reduzieren. Das Nationale Klimaschutzprogramm der Bundesrepublik Deutschland vom 18. Oktober 2000 sollte sicherstellen, das von Deutschland auf europäischer und internationaler Ebene zugesagte Ziel einer Reduzierung der Treibhausgasemissionen zu erreichen. Mit dem Beschluss der Bundesregierung vom 13. Juli 2005 wurde das Programm fortgeschrieben (Nationales Klimaschutzprogramm 2005). Demnach werden in Deutschland die Kohlendioxidemissionen für Großemittenten, die dem Emissionsrechtehandel unterliegen (Energiewirtschaft und Teile der Industrie) bis 2007 auf 503 Millionen Tonnen pro Jahr und nachfolgend bis 2012 auf 453 Millionen Tonnen pro Jahr begrenzt.
291
Wesentliche gesetzliche Grundlagen der deutschen Klimapolitik sind das Erneuerbare-Energien-Gesetz (EEG) vom 29. März 2000, das die Erzeugung von Strom aus erneuerbarer Energie fördert, und die Energieeinsparverordnung (EnEV) vom 16. November 2001, die den Bedarf an fossil benötigter Energie bei Neubauten begrenzt. Fotovoltaikanlagen und kleinere Windenergieanlagen sind im Baurecht durch niedrige Auflagen bevorzugt. Hinzu kommen Förderprogramme für bessere Wärmedämmung, thermische Solaranlagen, Fotovoltaik sowie die Nationale Klimaschutzinitiative. Deutschland ist es mithilfe des EEG in besonderem Maße gelungen, eine innovative Industrie für erneuerbare Energien aufzubauen. Dieser technologiespezifische Förderungsansatz wird im Rahmen des „integrierten Energie- und Klimaprogramms“ der Bundesregierung massiv ausgebaut, unter anderem durch Novellierung des Kraft-Wärme-Kopplungsgesetzes (KWK-G) vom 19. März 2002, die Fortschreibung des EEG und durch das Erneuerbare-Energien-Wärmegesetz. Das Erneuerbare-Energien-Wärmegesetz (EEWärmeG) ist ein deutsches Bundesgesetz, das analog zum EEG den Ausbau erneuerbarer Energien im Wärmesektor vorantreiben soll. Es trat am 1. Januar 2009 in Kraft. Im Jahr 2005 wurden in Deutschland 873 Millionen t CO2 ausgestoßen. Das sind gegenüber 1990 (Referenzjahr des Kyoto-Protokolls) etwa 15 % weniger Emission. Unstrittige Hauptursache war der Zusammenbruch der Wirtschaft in den neuen Bundesländern in den frühen 1990erJahren. Seit etwa 1999 stagniert der deutsche CO2-Ausstoß (879 Millionen t CO2). Im Bereich Verkehr ist eine leichte Steigerung von 162 auf 164 Millionen t zu verzeichnen. Um diese Werte umzukehren, wurde eine „HightechStrategie“ zum Klimaschutz entworfen. Deutschland möchte als Vorreiter im Klimaschutz durch eine eigene Minderungsverpflichtung für den CO2-Ausstoß von 40 % bis 2020 gegenüber 1990 die auf EU-Ebene angestrebte 30 %-Minderung unterstützen. Dazu hat das Umweltbundesamt (UBA) ein „40-Prozent-Szenario“ entwickelt. Der deutsche Beitrag zur Einhaltung des internationalen Erwärmungsziels von maximal 2 °C könnte nach Berechnungen des UBA mit Kosten in Höhe von 0,5 % des deutschen Bruttoinlandsprodukts erreicht werden. Die acht wichtigsten
292
11 Klima und Politik
Maßnahmen des UBA-Szenarios für den Klimaschutz sind 1. Stromsparen Indem 11 % des Stromverbrauchs in Deutschland durch die Nutzung effizienterer Geräte, die deutliche Verminderung des Stand-byStrombedarfs sowie die Abschaffung von Stromheizungen eingespart werden können, würden 40 Millionen t pro Jahr weniger Kohlendioxid emittiert werden. 2. Erneuerung des Kraftwerksbestands Ein um 7 % höherer Wirkungsgrad neuer Kohlekraftwerke sowie der Ersatz von Kohle durch Erdgas würde eine Verringerung von 30 Millionen t CO2-Emissionen ergeben. Die Steigerung des Erdgasanteils auf 30 % beim Strom (das heißt, von heute 70 TWh auf 165 TWh im Jahr 2020) lässt sich mit Einsparungen des Erdgases bei der Wärmebereitstellung in Wohngebäuden (für die es heute zu 90 % eingesetzt wird) überwiegend ausgleichen, sodass der Erdgasverbrauch in Deutschland bis 2020 nur insgesamt um 3 % ansteigen würde. 3. Anteilssteigerung der erneuerbaren Energien an der Stromerzeugung auf 26 % Eine Steigerung der erneuerbaren Energien an der Stromerzeugung würde im aktuellen UBASzenario etwa 44 Millionen t pro Jahr weniger Kohlendioxidemissionen zur Folge haben. Um dies zu erreichen, sollte der Anteil der erneuerbaren Energien bis 2020 auf 140 TWh steigen. Eine Erhöhung des Anteils kann insbesondere durch den weiteren Ausbau der Windenergienutzung (insbesondere offshore-Anlagen) sowie der Biomasseverstromung erzielt werden. Das Erneuerbare-Energien-Gesetz (EEG) ist das erfolgreichste Instrument zur Förderung der erneuerbaren Energien. Das Grundprinzip des EEG liegt in der Festpreisvergütung des eingespeisten Stroms. Aufgrund der obigen drei Maßnahmen würde sich die Stromerzeugung in Deutschland im Jahr 2020 folgendermaßen zusammensetzen: Kohle 32 %, Erdgas 30 %, erneuerbare Energien 26 %, Uran 6 %, sonstige Brennstoffe (Grubengas, Erdöl und der nicht biogene Anteil des Mülls) 6 %. 4. Verdopplung des Kraft-Wärme-Kopplungs(KWK-)Anteils Es ist Ziel, eine Verdopplung der KWKStromerzeugung bis 2020 zu erreichen. Dies
5.
6.
7.
8.
würde eine Einsparung von 15 Millionen t pro Jahr an Kohlendioxidemissionen erbringen. Hierzu sollten Anreize für KWK-Betreiber im Kraft-Wärme-Kopplungs-Gesetz deutlich verbessert werden. Wärmeeinsparung durch Gebäudesanierung Allein durch die Sanierung von Gebäuden, den Einbau effizienter Heizungsanlagen sowie die Verbesserung von Produktionsprozessen könnten 41 Millionen t pro Jahr an Kohlendioxidemissionen eingespart werden. Ein wesentliches Instrument für diese Maßnahmen ist eine verbesserte Energieeinsparverordnung sowie deren konsequenter Vollzug. Wärme aus erneuerbaren Energien Würde man den Anteil erneuerbarer Energien (Biomasse, Solarthermie, Geothermie) zur Wärmeerzeugung von heute etwa 6 % auf 12 % steigern, so könnten die jährlichen CO2 -Emissionen aus Haushalten, Gewerbe, Handel und Dienstleistungen um 6 Millionen t beziehungsweise aus der Industrie um etwa 4 Millionen t sinken. Senkung des spezifischen Verbrauchs im Verkehr Durch technische Maßnahmen (Motoren) sowie kraftstoffsparende Fahrweise könnten insgesamt 15 Millionen t pro Jahr weniger Kohlendioxidemissionen erzeugt werden. Die wichtigsten politischen Instrumente sind die Kraftstoffbesteuerung, eine CO2-abhängige Kfz-Steuer, die Ausdehnung der Lkw-Maut auf alle Bundesfernstraßen sowie verbindliche Verbrauchsgrenzwerte für Neufahrzeuge gekoppelt an Grenzwerte für den Kohlendioxidausstoß. Vermeidung unnötigen Verkehrs und Verlagerung auf Schiene und Binnenschifffahrt Durch die Verlagerung des Verkehrs, insbesondere des Güterverkehrs, von der Straße auf die Schiene könnte eine Einsparung von 15 Millionen t pro Jahr an Kohlendioxidemissionen erzielt werden. Falls es z. B. gelänge, den Anteil der Bahn im Güterverkehr von 16,5 % im Jahr 1999 auf 25 % im Jahr 2020 zu steigern, würden sich die CO2-Emissionen um etwa 3 Millionen t gegenüber dem langjährigen Trend vermindern. Falls es weiter gelänge, 5 % aller Pkw-Fahrten im Stadtverkehr auf den Öffentlichen Personennahverkehr (ÖPNV) und 30 % aller Pkw-Fahrten < 5 km auf das Fahrrad zu verlagern, würden sich die CO2-Emissionen
11.4 Die Deutsche Anpassungsstrategie an den Klimawandel (DAS)
um 3–4 Millionen t Kohlendioxid vermindern. Weiterhin ist die Zunahme des Flugverkehrs zu verringern und eine Gleichbehandlung aller Verkehrsträger zu fordern. Die aufgezeigten Maßnahmen des UBA-Berichts legen nahe, dass die energiebedingten Treibhausgasemissionen in Deutschland bis 2020 durchaus um 40 % gegenüber 1990 gesenkt werden können. Das UBA errechnete mithilfe des Energiesystemmodells IKARUS Kosten der Emissionsminderungsmaßnahmen in den verschiedenen Sektoren in Höhe von durchschnittlich 50 Euro pro t CO2. Dies entspricht einer Summe von 11 Milliarden Euro im Jahr 2020. Ein Durchschnittshaushalt in Deutschland müsste somit im Jahr 2020 mit einer monatlichen Mehrbelastung von etwa 25 Euro rechnen. Das größte Potenzial kostengünstiger Emissionsminderungen in Deutschland liegt in der Energiewirtschaft. Diese Einsparungen lassen sich mit drei Maßnahmen erreichen: 1. Ausbau erneuerbarer Energie in der Stromversorgung durch erweiterte Anwendung des EEG 2. Umstellung der Stromerzeugung von kohleauf gasbefeuerte Kraftwerke mittels Verstärkung der Anreizeffekte im Emissionsrechtehandel 3. Senkung des allgemeinen Stromverbrauchs durch ein Paket von Instrumenten (z. B. Effizienzsteigerung elektrischer Geräte) Die Maßnahmen der nationalen Klimapolitik müssen hinreichend mit der internationalen Klimapolitik vernetzt werden. Dazu bieten sich ins-
293
besondere die Konzepte einer Global Governance (▶ Abschnitt 11.5) an.
11.4 Die Deutsche Anpassungsstrategie an den Klimawandel (DAS) Die Deutsche Anpassungsstrategie wurde am 17. Dezember 2008 vom Bundeskabinett beschlossen. Kernziel der DAS der Bundesregierung ist die Begrenzung des Anstiegs der globalen Durchschnittstemperatur auf weniger als 2° C über dem vorindustriellen Niveau. Dadurch sollen die zu erwartenden Folgen eines stärkeren Klimawandels vermieden bzw. abgepuffert werden. Da auch bei erfolgreicher Eindämmung des Temperaturanstiegs mit Auswirkungen des bereits stattfindenden Klimawandels zu rechnen ist, hat die Bundesregierung eine Deutsche Anpassungsstrategie an den Klimawandel (DAS) ins Leben gerufen. Die DAS ist die Konsequenz aus der Ankündigung im Klimaschutzprogramm 2005, gemäß Artikel 4 der Klimarahmenkonvention ein Konzept für eine nationale Strategie auszuarbeiten. Durch die nationale Strategie soll ein strukturiertes Vorgehen zur nationalen Anpassung an die Auswirkungen des Klimawandels erzielt werden, indem Schritt für Schritt mit den betroffenen Akteuren der Handlungsbedarf benannt und entsprechende Ziele festgelegt werden. Dabei sollen auch Zielkonflikte erkannt und ausgeräumt werden, um möglichst Anpassungsmaßnahmen zu entwickeln, die sowohl den Anpassungszielen
Nationales Klimaschutzprogramm 2005 Ziel des Nationalen Klimaschutzprogramms 2005 ist, die Treibhausgasemissionen in Deutschland um 21 % im Zeitraum 2008–2012 bezogen auf 1990 zu reduzieren. Bis zum Jahr 2003 konnte Deutschland seine Treibhausgasemissionen bereits um 18,5 % reduzieren. Im Rahmen des aktuellen Klimaschutzprogramms wird der Handlungsbedarf für die Sektoren, die nicht vom Emissionsrechtehandel betroffen sind, wie private Haushalte, Verkehr und Gewerbe, Handel und Dienstleistungen,
definiert. Der Maßnahmenkatalog weist für die Sektoren Verkehr und private Haushalte folgende Zielwerte (Zeitraum 2008–2012) aus:
• Sektor Haushalte: 120 Mio. t CO2/Jahr (-2 Mio. t gegenüber 2003, -9 Mio. t gegenüber 1990) • Sektor Verkehr: 171 Mio. t CO2/Jahr (+ 4 Mio. t gegenüber 2003, +13 Mio. t gegenüber 1990)
294
als auch den Akteuren gerecht werden. Durch die DAS soll ein integraler Ansatz zur Sicherung der Anpassungsfähigkeit entwickelt werden, der vor dem Hintergrund der Risiken und Handlungserfordernisse die vorhandenen Kompetenzen (Akteure) im Land bündelt. Ziele der Deutschen Anpassungsstrategie Langfristiges Ziel der Anpassungsstrategie ist die Verminderung der Verletzlichkeit bzw. der Erhalt und die Steigerung der Anpassungsfähigkeit natürlicher, gesellschaftlicher und ökonomischer Systeme. Es ergeben sich folgende Handlungsziele:
• Benennung und Vermittlung von Gefahren
• •
•
•
und Risiken. Wahrscheinlichkeiten und Schadenspotenziale sowie deren Unsicherheiten transparent machen Bewusstsein in der Bevölkerung und bei Akteuren schaffen, um diese zu sensibilisieren Bereitstellung von Entscheidungsgrundlagen, die es ermöglichen, Vorsorge zu treffen und die Auswirkungen des Klimawandels sukzessiv in privates, unternehmerisches und behördliches Planen und Handeln einzubeziehen Handlungsoptionen liefern, Verantwortlichkeiten benennen und festlegen. Ausformulierung von Maßnahmen sowie deren Umsetzungsmöglichkeiten. Die deutsche Anpassungsstrategie orientiert sich wissensbasiert an den Grundsätzen der Offenheit und Kooperation; Flexibilität und Vorsorgeorientierung; Subsidiarität und Verhältnismäßigkeit. Sie nutzt integrale Ansätze, um internationaler Verantwortung gerecht zu werden und im Sinne einer nachhaltigen Entwicklung zu handeln.
Die wissenschaftliche Ausgangslage der DAS Die Anpassungsstrategie basiert auf der Grundlage des letzten Sachstandsberichts des Weltklimarats (IPCC) und stützt sich auf einen vom Deutschen Wetterdienst zusammengestellten Überblick über die beobachteten und prognostizierten Veränderungen von Klimaparametern (Temperatur und Niederschlag) weltweit und insbesondere für Deutschland. Auf Basis einer vergleichenden Auswertung der Ergebnisse von
11 Klima und Politik
vier für Deutschland vorliegenden Regionalmodellen (Ensembleauswertung) können einigermaßen verlässliche Aussagen zu Veränderungsbereichen in Deutschland getroffen werden. Die Ensembleauswertung stützt sich bei der Bewertung der Risiken des zukünftigen Klimawandels nicht auf einzelne Szenarien oder Modelle ab, sondern nutzt die Spannbreite künftiger klimatischer Entwicklungen, die sich aus der Analyse verschiedener Emissionsszenarien und einer Vielzahl von Klimamodellen ergibt. Das Ensemble gibt für Deutschland im Zeitraum 2021–2050 eine Erwärmung von 0,5 bis 1,5 °C und im Zeitraum 2071–2100 von 1,5 bis 3,5 °C an. Die Erwärmung wird dabei besonders in den Wintermonaten zu verzeichnen sein. Für die Niederschläge wird eine Zunahme im Winter um im Schnitt bis 40 % als möglich erachtet. In Mittelgebirgsregionen der Bundesländer Rheinland-Pfalz, Hessen sowie der nordöstlichen Landesteile Bayerns können sich sogar Zuwächse um bis zu 70 % ereignen. Die Sommerniederschläge hingegen könnten bundesweit um bis zu 40 % abnehmen, wobei der Südwesten Deutschlands besonders stark betroffen sein könnte. Neben den zu erwartenden mittleren Klimaauswirkungen, die sich allmählichen einstellen werden, sind bei der Analyse der Klimafolgen auch die Beeinträchtigungen voraussichtlich häufiger auftretender und stärkerer Extremereignisse sowie die Auswirkungen zunehmender Klimavariabilität zu berücksichtigen. Die DAS ermittelt für 13 Lebens-, Umweltund Wirtschaftsbereiche mögliche Auswirkungen der beschriebenen Klimaänderungen und skizziert mögliche Handlungsoptionen für Anpassungen, um die Verwundbarkeit in diesen Bereichen zu reduzieren. Die 13 Bereichen sind: 1. Menschliche Gesundheit 2. Bauwesen 3. Wasserhaushalt, Wasserwirtschaft, Küsten und Meeresschutz 4. Boden 5. Biologische Vielfalt 6. Landwirtschaft 7. Wald- und Forstwirtschaft 8. Fischerei 9. Energiewirtschaft (Wandel der Energieträger, Transport und Versorgung) 10. Finanzwirtschaft
11.4 Die Deutsche Anpassungsstrategie an den Klimawandel (DAS)
11. Verkehr und Verkehrinfrastruktur 12. Industrie und Gewerbe 13. Tourismuswirtschaft Neben den aufgeführten Sektoren werden noch die Querschnittsbereiche Raum-, Regional- und Bauleitplanung sowie der Bevölkerungsschutz betrachtet. Sektorenübergreifend werden Maßnahmen zur Verbesserung der Wissens- und Datenbasis sowie zur Information, Bewusstseinsbildung und Entscheidungsunterstützung bei den Akteuren vorgeschlagen. Dabei sollten die Anpassungsoptionen bevorzugt werden, die eine flexible Nachsteuerung ermöglichen, bereits bestehende Unsicherheiten berücksichtigen und mit anderen Politikzielen (wie Vermeidung der Umweltverschmutzung, Klimaschutz, Flächenversiegelung) verknüpft sind. Es soll vor allem sogenannten integrierten regionalen Konzepten (Integriertes Küstenzonenmanagement; Klima-Aktionsplan-Alpen) der Vorzug gegeben werden. Aufgrund einer sektorübergreifenden Analyse und Bewertung erweisen sich folgende Regionen Deutschlands bezüglich zukünftiger Vulnerabilität als besonders anfällig gegenüber Klimaänderungen:
• Ostdeutschland, insbesondere zentrale Ge-
•
• •
•
biete sowie das nordostdeutsche Tiefland und die südostdeutschen Becken- und Hügelgebiete (Projektion: zukünftig geringeres Wasserangebot) Links- und rechtsrheinische Mittelgebirge (Projekton: ein insgesamt niederschlagsreicheres Klima mit Folgen für die Land- und Forstwirtschaft sowie für den Hochwasserschutz) Oberrheingraben (Projektion: Hitzestress kann häufiger und intensiver werden, steigende Hochwassergefahr durch Extremereignisse) Alpenregionen (Projektion: Rückgang der Gletscher und daraus folgende wasserwirtschaftliche Probleme, geringere Schneesicherheit mit Negativwirkung auf die Attraktivität von Wintersportgebieten, verändertes Naturgefahrenpotenzial für Steinschläge oder Muren, insgesamt erhöhter Druck auf die Biodiversität in Gebirgsräumen) Küstenregionen (Projektion: Gefährdung durch den Meeresspiegelanstieg und Stürme)
Dem Thema Anpassung an den Klimawandel wurde bereits mit den Entscheidungen zum Bali-
295
Aktionsplan (UNFCCC Entscheidung 1/CP.13) große Bedeutung für die internationale Klimapolitik zugemessen. Mit der deutschen Anpassungsstrategie werden zunächst Grundlagen gelegt und ein Rahmen zur nationalen Anpassung an die Folgen des Klimawandels abgesteckt. Die DAS benötigt aber eine weitere Konkretisierung und Ausgestaltung auf der Basis einer breiten Zusammenarbeit der einzelnen Bundesländer und der betroffenen gesellschaftlichen Gruppen. Als weiteren Schritt plant die Bundesregierung deshalb bis Ende März 2011 den Entwurf eines gemeinsam mit den Ländern erarbeiteten Aktionsplan Anpassung. Der „Aktionsplan Anpassung“ soll folgende Aspekte beinhalten: 1. Grundsätze und Kriterien für eine Schwerpunktbildung möglicher Handlungserfordernisse 2. die Festlegung der Handlungsprioritäten für Maßnahmen des Bundes 3. einen Überblick über konkrete Maßnahmen anderer Akteure 4. Angaben zur Finanzierung, insbesondere durch mögliche Integration der Anpassung in bestehende Förderprogramme 5. Vorschläge zur Erfolgskontrolle 6. die Weiterentwicklung der Anpassungsstrategie Zur Aufstellung des Aktionsplans Anpassung wird eine Interministerielle Arbeitsgruppe Anpassung (IMA Anpassung) eingesetzt, in der alle politischen Ressorts vertreten sind. Die Leitung liegt beim Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit. Flankiert wird die Erarbeitung des Aktionsplans durch Fachgespräche, Fachkonferenzen sowie die Einbringung des Anpassungsthemas in Beratungs- und Sachverständigengremien. Neben der Verbesserung der Bewusstseinsbildung und Information über den Klimawandel soll auch die Verbesserung der Wissensbasis durch zielgerichtete Forschungsinitiativen des Bundesministeriums für Bildung und Forschung (BMBF) wichtige Impulse setzen. Durch die Forschungsaktivitäten sollen die wissenschaftlichen Grundlagen für die Anpassungsstrategie erweitert und vertieft werden. Schwerpunkte sind unter anderem
• die Verbesserung des Klimawissens • die mittelfristige Klimaprognose
296
• die Klimafolgen- und Vulnerabilitätsermitt• • • •
lung die ökonomischen Aspekte des Klimawandels die Entwicklung und Bewertung von Anpassungsmaßnahmen Konzepte für ein Klimafolgenmonitoring die Evaluierung von Anpassungsstrategien
Zur Unterstützung aller Akteure und zur Verbesserung des Umsetzungsprozesses und der Weiterentwicklung der Anpassungsstrategie sind die Einrichtung von zwei wesentlichen Zentren vorgesehen:
• Kompetenzzentrum Klimafolgen und Anpassung (KomPass) am UBA. KomPass führt Informationen und Ergebnisse aus den unterschiedlichen Fachbereichen und Ressorts zusammen, bewertet diese und kommuniziert sie über ein Internet-Portal (www.anpassung. net) • Aufbau eines Climate Service Centers (CSC) bei der Helmholz-Gesellschaft Deutscher Forschungszentren mit Sitz am GKSSForschungszentrum Geesthacht. Schnittstelle zwischen der Klimasystemforschung und den Nutzern der aus Szenarien- und Modellrechnungen gewonnenen Daten mit dem Ziel, künftig die Wissensdiffusion sowie die Forschungsprozesse im Bereich der Klimamodellierung und Szenarienentwicklung nutzerorientiert zu beschleunigen Die Meilensteine des deutschen Strategieprozesses zur Klimaanpassung lassen sich wie folgt zusammenfassen:
• Dezember 2008: Erstellung des Kabinetts•
• • •
berichts zur Deutschen Anpassungsstrategie (DAS) Anfang 2009 (1. Quartal): Aufbau und Einrichtung der IMA Anpassungsstrategie unter Federführung des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit Mai 2009: Startkonferenz und Auftakt zum Beteiligungsprozesses am Aktionsplan April 2011: Vorstellung des Aktionsplans Anpassung durch die IMA Anpassung April 2013: 1. Bericht der IMA Anpassung zur Umsetzung der Anpassungsstrategie an Bundestag und Bundesrat
11 Klima und Politik
Die deutsche Anpassungsstrategie ist eng verknüpft mit internationaler Zusammenarbeit im Bereich Anpassung. Insbesondere soll auch sichergestellt werden, dass die DAS und die deutsche Entwicklungszusammenarbeit auch zur Erhöhung der Widerstandsfähigkeit von Entwicklungsländern im Bezug auf die Folgen des Klimawandels beiträgt.
11.5 Global Governance – das Konzept des Handelns im politischen Mehrebenensystem Der Begriff Global Governance wird synonym für Weltordnungspolitik oder Globale Ordnungsund Strukturpolitik verwendet. Ziel dieser multilateralen Politik ist die Lösung globaler Probleme auf der Grundlage eines gemeinsamen Konsenses zwischen nationalstaatlichen Organen und unabhängigen Organisationen. Global Governance beschreibt also ein Konzept des Regierens im politischen Mehrebenensystem („globale Regierungsweise“), welches den Nationalstaaten neue Handlungsoptionen zuweist. Auch wenn sich an der gegenwärtigen Machtstellung der Nationalstaaten auf absehbare Zeit nichts ändern wird, müssen sie sich angesichts der grenzüberschreitenden Herausforderungen des Klimawandels zunehmend mit „geteilten Souveränitäten“ beschäftigen, wenn sie ihre politische Handlungsfähigkeit sichern wollen. Als Vorläufer des GlobalGovernance-Ansatzes sind die Weltkonferenzen der Vereinten Nationen (UN), die Verhandlungsrunden der Welthandelsorganisation (WTO) und auch die Gipfeltreffen der G7-/G8-Staaten zu sehen. Als Resultat von Global Governance ist z. B. das bereits vielfach erwähnte Kyoto-Protokoll als multilaterales Umweltabkommen zu nennen, welches für die weitere Ausgestaltung der UNKlimarahmenkonvention (UNFCCC) über die Grenzen und Handlungsspielräume der Nationalstaaten hinaus Bedeutung hat. Im Exkurs „Multilaterale Umweltabkommen“ (▶ Abschnitt 11.1, S. 280) sind wichtige Beispiele multilateraler Umweltabkommen genannt. Die grundsätzlich positiv zu bewertenden global getroffenen Vereinbarungen des Kyoto-
11.5 Global Governance – das Konzept des Handelns im politischen Mehrebenensystem
Protokolls werden jedoch durch verschiedene Faktoren relativiert: Dem Protokoll fehlen Sanktionsmöglichkeiten im Falle der Nichterfüllung der vereinbarten Ziele. Dies ist ein wesentlicher Grund, warum die Emissionen trotz des Kyoto-Protokolls in den vergangenen Jahren weiter angestiegen sind. Allein die weltweiten Emissionen des wichtigsten vom Menschen verursachten Treibhausgases Kohlendioxid (CO2) haben sich zwischen 1990 und 2002 von 21 auf deutlich über 24 Milliarden Tonnen erhöht. Die USA haben das Protokoll zwar unterzeichnet, eine Ratifizierung wird aber nach wie vor abgelehnt. Die USA sind wegen ihres politischen Gewichts, aber vor allem wegen ihrer hohen Treibhausgasemissionen (etwa ein Viertel der weltweiten CO2-Emissionen) von zentraler Bedeutung für die Klimapolitik. Die Zuwachsraten an CO2-Emissionen in China, Indien und anderen Schwellenländern, die laut Klimaabkommen von Kyoto ihren Ausstoß klimaschädlicher Gase nicht senken müssen, sind inzwischen für insgesamt 53% des weltweiten CO2-Ausstoßes verantwortlich. Sie überholten die Industriestaaten bereits im Jahr 2005. Durch das enorme Anwachsen der Emissionen in den genannten Ländern ist der weltweite Ausstoß von CO2 im Jahr 2006 bereits auf den Rekordwert von 8,47 Milliarden t angestiegen. Aus der Sicht der Klimaforschung liefert das Kyoto-Protokoll als „Global-Governance-Vereinbarung“ in der gegenwärtigen Ausgestaltung nicht den notwendigen Klimaschutz und ist deshalb für die Zukunft (Post-Kyoto-Zeit) kritisch zu überdenken. Um gravierende Klimaänderungen in den nächsten hundert Jahren zu vermeiden, müsste der Ausstoß von Treibhausgasen auf einen Bruchteil des heutigen Ausstoßes bis zum Jahr 2100 reduziert werden. Stärkere Emissionsminderungen werden von Weltklimakonferenz zu Weltklimakonferenz gefordert, aber nicht umgesetzt. Bisher sind keine verbindlichen Regeln für die Zeit nach 2012 festgelegt. Auch der UN-Klimagipfel Ende 2006 in Nairobi und 2007 in Bali hat die Erwartungen an die Emissionsminderungen nicht erfüllt. Es wurde lediglich verabredet, die bisherige Wirksamkeit des Kyoto-Protokolls in den kommenden Jahren zu überprüfen. Insofern ist auf allen Ebenen politischer Entscheidungen (global, national, lokal) und allen
297
Ebenen gesellschaftlicher Problembewältigung kein Erkenntnisstau, sondern ein Umsetzungsstau zu konstatieren.
11.5.1 Herausforderungen für Natur- und Sozialwissenschaften auf globaler und lokaler Ebene Folgende Herausforderungen sind für Natur- und Sozialwissenschaften innerhalb einer Global Governance zu bewältigen: Die Anpassung an den Klimawandel stellt Entwicklungsländer und Industrieländer vor große gesellschaftliche, institutionelle, finanzielle und technologische Herausforderungen, wobei wir es mit einer ungleichen Verteilung der Anpassungslasten und Anpassungsfähigkeiten zu tun haben. Während der anthropogen verursachte Klimawandel maßgeblich auf die Emissionen von heute entwickelten Industrienationen zurückgeht, sind viele Entwicklungs- und Schwellenländer überproportional stark von den Folgen des Klimawandels betroffen und haben dabei gleichzeitig in ihrem Emissionsaufkommen stark aufgeholt. Darunter befinden sich Länder in niedrig liegenden Küstengebieten und Inseln, die vom Meeresspiegelanstieg unmittelbar bedroht sind, sowie Länder, deren Trinkwasserversorgung betroffen ist, da diese maßgeblich von bereits schmelzenden Gletschern (z. B. östlicher Himalaja oder Anden) gespeist wird. Fast alle Entwicklungsländer sind durch die Folgen des Klimawandels besonders gefährdet. Die Vulnerabilität, also die Verletzbarkeit der Entwicklungsländer, ergibt sich dabei aus einer Mischung von Klimawirkungen und mangelnder Fähigkeit, sich an diese anzupassen. Im Zyklus der sektoralen Transformation sind viele Entwicklungsländer sehr viel stärker auf landwirtschaftliche Produktion angewiesen und damit abhängiger von sich ändernden Klimaverhältnissen als die meisten Industrienationen. Wie bereits dargelegt, hängt das aufstrebende Indien an der Lebensader der Monsunniederschläge. Armut, Krankheiten, oft durch mangelnde Hygiene sowie kriegerische Auseinandersetzungen, sind weitere Faktoren, die die Anpassungsfä-
298
11 Klima und Politik
higkeit von weniger entwickelten Ländern oft beeinträchtigen. Der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen (WBGU) weist in seinem Sondergutachten 2007 auf die Rolle des Klimawandels als Treiber gesellschaftlicher Destabilisierung und der Bedrohung internationaler Sicherheit hin. Ebenso betont der WBGU darin die Notwendigkeit eines kooperativen Umfelds für eine multipolare Weltordnung. Eine weitere Herausforderung liegt in der Entscheidungsfindung im Kontext von Unsicherheit. Eines der Hauptprobleme der Anpassung an den Klimawandel stellen die bereits erwähnten Unsicherheiten bezüglich des Ausmaßes der zu erwartenden Klimaänderungen dar (▶ Kapitel 4). Obwohl es große Fortschritte in der Entwicklung von Klimamodellen und -szenarien gegeben hat, dürfen mögliche Klimaszenarien (Projektionen) nicht mit Vorhersagen oder Prognosen verwechselt werden. Aufgrund relativ grober räumlicher Auflösungen von Klimamodellen sind Aussagen über mögliche regionale oder gar lokale Klimaänderungen besonders unsicher. Hinzu kommen unklare Einschätzungen zu sozioökonomischen Entwicklungen in der Zukunft, die die Ergebnisse von Klimaszenarien, aber auch das Ausmaß der Klimafolgen und somit die Notwendigkeit und Gestalt von Anpassungsmaßnahmen beeinflussen. Die bestehenden Unsicherheiten müssen als einzuplanendes Risiko verstanden werden, um „robuste Entscheidungen“ treffen zu können. Eine Entscheidung ist dann robust,
wenn sie unter möglichst vielen verschiedenen Klimaszenarien die erwünschten Ergebnisse liefert. In England wurden z. B. verschiedene Alternativen für den Themse-Hochwasserschutz auf ihre Sicherheit unter verschiedenen Szenarien des Meeresspiegelanstiegs für die nächsten 100 Jahre geprüft. Der Test machte es möglich, die größten Schwachstellen einer bestimmten Anpassungsstrategie zu identifizieren. Eine weitere große Herausforderung ist die Kostenschätzung und Finanzierung für Anpassungsmaßnahmen. Diese hängen in erheblichem Maße von den ermittelten Annahmen zu Klimaänderungen, Bevölkerungswachstum und anderen sozioökonomischen Aspekten ab. Die Kosten der Anpassung an den Klimawandel wurden mittels unterschiedlicher Ansätze und Annahmen abgeschätzt (Tabelle 11.3). Auch die Verteilung der zu erwartenden Anpassungskosten auf die unterschiedlichen Wirtschaftssektoren stellt ein Problem dar. Im „SternReview“ 2007 werden für die OECD-Länder die jährlichen Anpassungskosten allein im Bereich Infrastruktur und Gebäude auf 15 bis 150 Mrd. US-Dollar geschätzt. Ein Großteil dieser Kosten wird vom jeweiligen Staat zu tragen sein. Für die Entwicklungsländer mit ihren schwächeren Volkswirtschaften trifft dies dann in besonderem Maße zu. International ist der Anpassungsprozess an den Klimawandel seit 1992 durch die Klimarahmenkonvention geregelt. „Anpassung“ wurde
Tabelle 11.3 Geschätzte Anpassungskosten pro Jahr (Quelle: Harmeling, S. und Bals, Ch. 2008) Weltbank 2006
9 – 40 Milliarden US-Dollar (nur a)
Oxfam 2007
mindestens 50 Milliarden US-Dollar (a-d)
UNDP 2007
86 Milliarden UD-Dollar in 2015 (a, b,e)
UNFCCC 2007
28 – 67 Milliarden US-Dollar in 2030 (a-c)
a: Anpassungskosten auf der Makroebene für öffentliche Entwicklungszusammenarbeit b: Überprüfung existierender Infrastruktur bezüglich Klimawandel („climate proofing“) c: Neuinvestitionen, die alleine aufgrund des Klimawandels notwendig werden d: Kosten der Anpassung auf lokaler Ebene (Gemeinde, Organisationsentwicklung, Personalkosten) e: Kosten für die Anpassung der Armutsbekämpfung an den Klimawandel Das Klimasekretariat der UNFCCC schätzt die nötigen Investitionen in Entwicklungsländern im Jahr 2030 auf 28 bis 67 Milliarden US-Dollar. Es stehen aber nur weitaus geringere Summen an Anpassungsgeldern zur Verfügung. Im Rahmen der UNFCCC wurden drei Fonds eingerichtet, über die die Industrieländer den Entwicklungsländern Geld für Anpassungsmaßnahmen zur Verfügung stellen. Der Special Climate Change Fund, der Least Developed Countries Fund und der Adaptation Fund verfügen derzeit gemeinsam nur über ein Gesamtvolumen von etwa 470 bis 790 Millionen US-Dollar für den Zeitraum 2008-2012. Hinzu kommen weitere Gelder aus dem Trust Fund, der Global Environment Facility, in Höhe von rund 50 Millionen US-Dollar.
11.5 Global Governance – das Konzept des Handelns im politischen Mehrebenensystem
dort als politisches Ziel festgeschrieben, wobei die Industrieländer die Entwicklungsländer bei Anpassungsmaßnahmen unterstützen sollen. Lange Zeit stand jedoch die Vermeidung des Klimawandels im Vordergrund. Ab 2001 werden zunehmend Programme und Prozesse zur Anpassung erarbeitet. Auf europäischer Ebene wurde im Juni 2007 das „Grünbuch: Anpassung an den Klimawandel in Europa – Optionen für Maßnahmen der EU“ vorgestellt. Das Grünbuch fordert, Anpassungsmaßnahmen stärker in die Umsetzung und Änderung von relevanten Rechtsvorschriften und Politiken einzubeziehen. Deutschland verpflichtete sich mit der Ratifizierung der UNFCCC, auf nationaler Ebene auch Maßnahmenprogramme, die eine Anpassung an den Klimawandel ermöglichen, umzusetzen. Die politische Priorität liegt aber nach wie vor bei der Vermeidung des Klimawandels. Das Thema Anpassung hat auf Bundesebene erst in den letzten
299
Jahren an Bedeutung gewonnen. Das Bundesministerium für Umwelt, Naturschutz und Reaktorsicherheit (BMU) und das Umweltbundesamt (UBA) legten im Dezember 2008 eine nationale Anpassungsstrategie vor (▶ Abschnitt 11.4). Als zentrale Anlaufstelle zur Bündelung, Kommunikation und Evaluation von Anpassungsoptionen und Klimafolgen wurde im Jahr 2006 das Kompetenzzentrum Klimafolgen und Anpassung (KomPass) im UBA gegründet. KomPass gibt seit November 2007 etwa vierteljährlich einen Newsletter über aktuelle Entwicklungen sowie interessante Initiativen und Projekte zur Anpassungsstrategie heraus und bietet darüber hinaus aktuelle Mitteilungen aus den Bereichen Klimawandel und Klimafolgen an. Das Kompetenzzentrum KomPass stellt das Pendant zum britischen UK Climate Impacts Programme (UKCIP) dar, welches aber bereits 1997 gegründet worden war. Deutschland liegt im Vergleich zu anderen europäischen Staaten
Betrachtungsfelder bzw. Arbeitsgruppen (AG) zur Thematik „Anpassung an den Klimawandel“ in Deutschland (Stand August 2008) AG 1 AG 2 AG 3 AG 4
AG 5
AG 6
AG 7
Verkehr und Kommunikation Energie Raumplanung sowie Städte- und Wohnungsbau Basisdienstleistungen der Natur (z. B. Nährstoffkreisläufe, Bodenbildungs- und Erosionsprozesse) Natürliche Grundlagen zur Produktion von Nahrungsmitteln und genetische Ressourcen (z. B. Bodenfruchtbarkeit, biologische Schädlingsbekämpfung, Bestäubung, Fischprodukte inkl. ihrer Nahrungskette) Natürliche Grundlagen zur Produktion von Holz und Biomasse (z. B. biologische Schädlingsbekämpfung, Bodeneignung für Waldsysteme, Verwundbarkeit durch veränderten Naturhaushalt) Natürlicher Wasserhaushalt (z. B. Oberflächenwasserverfügbarkeit, Grundwasserstände, Retentionsräume, Selbstreinigungspotenzial)
AG 8
AG AG AG AG
9 10 11 12
AG 13
AG 14
Schutz vor Extremereignissen (z. B. morphologische Gewässer- und Küstenstrukturen, Retentionsvermögen der Landschaft, Verwundbarkeit von Wäldersystemen in Bezug auf Sturm und Feuer) Klimawandel und Gesundheit Tourismus und Erholung Naturschutz und biologische Vielfalt Internationale Zusammenarbeit und Verantwortung (z. B. Einbettung der nationalen Strategien in den internationalen Kontext der Anpassung an den Klimawandel, „nachhaltige“ Anpassung, Nord-SüdAusgleich) Umgang mit Risiken und Verwundbarkeit (z. B. Risikomanagement-Konzepte für Finanzwirtschaft und Katastrophenmanagement; Politikinstrumente zur Senkung der Verwundbarkeit von Bevölkerungsgruppen) Schnittstelle zwischen Klimafolgen- und Klimaanpassungsforschung und der genuinen Klimaforschung.
300
bei der Planung nationaler Anpassungsstrategien sowie der Einrichtung struktureller Maßnahmen (z. B. KomPass, CEC) zeitlich zurück. Aufbauend auf dem Deutschen Klimaschutzprogramm aus dem Jahr 2005 wird derzeit in einer gemeinsamen Initiative von Bund und Ländern eine nationale Strategie zur Anpassung an den Klimawandel erarbeitet. Ziel dieser Strategie ist, den mit dem Klimawandel verbundenen Risiken und drohenden sozialen Schäden für die Gesellschaft vorzubeugen. Auf Initiative des für den Prozess auf Bundesebene federführenden Bundesumweltministeriums (BMU) wurde in Zusammenarbeit mit dem Bundesforschungsministerium (BMBF) ein Nationales Symposium zur Identifizierung des Forschungsbedarfs am Leipziger HelmholtzZentrum für Umweltforschung (UFZ) im August 2008 veranstaltet. Hier wurden 14 wissenschaftliche Betrachtungsfelder (Arbeitsgruppen) definiert, für die Forschungsbedarf bezogen auf den Klimawandel besteht. Die Ergebnisse dieser Arbeiten sollen die wissenschaftliche Basis des politischen Handelns in konkreten Politikfeldern verbessern. Die Betrachtungsfelder konzentrieren sich sehr stark auf technische und innovationsgebundene Themen. Dies leitet über zur Thematik einer innovationsorientierten Umwelt- und Klimapolitik, deren Bedeutung in Abschnitt 11.5.2 kurz angerissen wird. Auf regionaler Ebene existieren in Deutschland bereits heute zahlreiche Initiativen, die sich teilweise ebenfalls seit den späten 1990er-Jahren mit Anpassungen an den Klimawandel befassen. So haben z. B. Baden-Württemberg und Bayern bereits Ende 1998 eine Zusammenarbeit zu „Klimaveränderung und Konsequenzen für die Wasserwirtschaft“ (KLIWA) ins Leben gerufen. Die Anpassung an den Klimawandel erfordert neben einer neuartigen „Governance“ komplexe technologische, institutionelle sowie Verhaltensanpassungen auf allen Ebenen der Gesellschaft. Die Entwicklungsländer sind oftmals besonders anfällig für Klimafolgen und müssen von Industrienationen in ihren Anpassungsanstrengungen unterstützt werden. Doch auch in Industrieländern müssen robuste Anpassungsstrategien vielerorts erst noch entwickelt werden. Bislang stellen die Integration von Anpassung in alle relevanten Politikfelder und die Generierung von Geldern für Anpassungsmaßnahmen die größten
11 Klima und Politik
Herausforderungen für die zukünftige Entwicklung dar.
11.5.2 Innovationsorientierte Umweltpolitik Das Bundesumweltministerium veröffentlichte im Oktober 2006 ein Memorandum für eine „ökologische Industriepolitik“. Darin wird eine sogenannte „dritte industrielle Revolution“ durch verbesserte Energie- und Ressourceneffizienz sowie den verstärkten Einsatz nachwachsender Rohstoffe gefordert. Dieser Ansatz soll helfen, dass Deutschland einen wesentlichen Beitrag für eine nachhaltige Entwicklung leisten und sich zeitgleich zum globalen Umwelttechnikdienstleister des 21. Jahrhunderts entwickeln kann. Die deklarierte „ökologische Industriepolitik“ beinhaltet insgesamt acht Handlungsbereiche:
• • • • • • • •
Energieerzeugung und Speicherung Energieeffizienz Rohstoff- und Materialeffizienz nachhaltige Mobilität Kreislaufwirtschaft Abfall und Recycling nachhaltige Wasserwirtschaft Bio- und Nanotechnologie
Flankiert werden soll die ökologische Industriepolitik von einer innovationsorientierten Umweltpolitik, die man als wirkungsvolle Politik zur Beantwortung der zukünftigen klimatologischen Probleme (Einhaltung des 2 °C-Ziels) identifiziert hat. Bereits 1974 hatte das japanische MITI (Ministry of International Trade and Industry) ein Wirtschaftskonzept entworfen, das wissensintensiven, umwelt- und ressourcenschonenden Produktionen große Bedeutung zubilligte. Die Vertreter der Umweltökonomie betonen seit über dreißig Jahren, dass Umweltpolitik und Klimapolitik letztlich auf technischen Wandel setzen müssen. Darüber hinaus wird beobachtet, dass staatliche Umweltregulierungen Innovationen fördern können. In Deutschland wurden Konzepte zur Ökologisierung beziehungsweise ökologischen Modernisierung der Industrie (greening of industry) bereits in den 1980er-Jahren diskutiert. Heute zeichnet sich ein Trend beziehungsweise langfris-
11.5 Global Governance – das Konzept des Handelns im politischen Mehrebenensystem
301
Umweltindustrie – Was ist das? Unter den Begriff Umweltindustrie (environmental industry) fallen gemäß Eurostat und OECD die Unternehmen, die Güter oder Dienstleistungen sowohl für herkömmlichen (nachgeschalteten) Umweltschutz (pollution management, end of pipe technology) als auch für integrierten Umweltschutz (cleaner/clean technology, resource management) herstellen. Auch die Studie von Ernst & Young (2006) zur Environmental Industry unterscheidet zwei Bereiche der Umweltindustrie:
• Pollution Management: „[...] sectors that manage material streams from processes (the technosphere) to nature [...] typically using ‚end of pipe’ technology“ • Resource Management: „sectors that take a more preventive approach to managing material streams from nature to technosphere“ Hier ergibt sich ein Abgrenzungsproblem bezüglich der Ausprägung des präventiven Ansatzes im Vergleich zur jeweilig erzielten Effizienzsteigerung im Umweltschutz. Deshalb werden neue Bereiche der Umweltindustrie eingeführt wie erneuerbare Energien, Recycling oder Ecoconstruction. Trotzdem ist die vorgeschlagene Zweiteilung sinnvoll. Jedoch sollte der Bereich
tiger Wachstumszyklus ab, der im Wesentlichen von ökologisch angepassten und ressourcenschonenden Technologien gestützt wird. Der EuroReport des Schweizer Instituts Prognos aus dem Jahr 1983 zählte Techniken mit einem Schwerpunkt in Umweltschutz, Recycling, rationeller Energienutzung und alternativen Energien bereits vor 25 Jahren zu den vier wichtigsten technologischen Trägern langfristigen Wachstums. Heute weisen ökologisch effiziente Technologien ein ungewöhnlich starkes Wachstum auf und entfachen einen starken Trend hin zu weiterer technologischer Entwicklung im Umweltschutz. Dies führte in Europa zu einer innovationsorientierten Ausrichtung der Umweltpolitik. Die gezielte Förderung von Umweltinnovationen ist heute ein Schlüsselthema der Umweltpolitik geworden. Diese Thematik wurde bereits 2002 vom Sachverständigenrat für Umweltforschung (SRU) in seinem Umweltgutachten „innovationsorientierte Umweltstrategie“ behandelt. In diesem Gutachten wird ausdrücklich auf die erheblichen
cleaner technology dem Bereich Ressourcenmanagement zugeschlagen werden, da der Begriff die umwelteffizientere Technik meint. Dadurch wird auch der Nachteil nachgeschalteter Umweltschutztechnik (end of pipe) betont. Die sogenannte additive Umweltschutztechnik verursacht im Allgemeinen nicht nur zusätzliche Kosten, sondern verbraucht auch zusätzliche Ressourcen. Im Ressourcenmanagement wird hingegen mit der effizienteren Ressourcennutzung zumindest relativ eine Kosteneinsparung erreicht. Dies legt nahe, anstelle der Errichtung teurer Umweltschutzanlagen eher Prozess- oder Produktinnovationen vorzunehmen. Dadurch ist auch zu erklären, dass in Deutschland die Nachfrage nach herkömmlicher Umweltschutztechnik zurückgeht und der Bereich „Ressourcenmanagement“ sich spürbar entwickelt. Trotzdem können Innovationen auch noch in der herkömmlichen Umweltschutztechnik (clean-up technology) stattfinden und zu erheblichen punktuellen Umweltentlastungen führen (z. B. bei der Filtertechnik). Der Begriff Umweltindustrie ist also heute wesentlich weiter zu fassen und in seiner Definition von den unterschiedlichen Ausrichtungen (nachgeschaltet oder Ressourcen optimierend) abhängig.
ökologischen wie auch wirtschaftlichen Chancen einer auf technischen Fortschritt setzenden Umweltpolitik hingewiesen. Mittlerweile geht es jedoch nicht mehr darum, ob das industrielle Wachstum Umweltinnovationen begünstigt, sondern vielmehr darum, ob dieser Innovationsprozess insgesamt die erforderlichen Umweltentlastungen (Emissionsminderungen) bewirkt. Die ökologisch leistungsfähigen Innovationsprozesse sind in Zukunft daran zu messen, ob deren Beitrag in ausreichendem Umfang zur weitgehenden Entkopplung von Industriewachstum und Umweltverbrauch führt. Es stellt sich also für eine zukunftsgerichtete Klima- und Umweltpolitik die Frage, welche Art von Umweltinnovationen langfristig angestrebt werden sollten und wie diese erreicht werden können. In der Umweltpolitik wird der innovationsorientierte Ansatz derzeit sehr „euphorisch“ gesehen. Dies verdeutlicht auch der politische Anspruch auf Technologieführerschaft, wie er von vielen europäischen Politikern angestrebt wird.
302
11 Klima und Politik
Politischer Anspruch auf Technologieführerschaft im Bereich klimafreundlicher Technologien • Die Europäische Kommission (2006) verfolgt
• Premier Ahern (2006) will Irland zum „world
das Ziel „to become world leader in renewable energy“ and „the world’s most energy-efficient region“. • „[...] Norway shall be [...] world leading (in) environmental friendly energy“ (Minister Enoksen, 2005). • Eine finnische Regierungskommission (2005) proklamiert das Ziel, Finnland als „one of the most eco-efficient countries“ zu etablieren. • Tony Blair (2004) proklamiert den Anspruch, Großbritannien als Vorreiter im Bereich klimafreundlicher Technologien zu bezeichnen.
leader [...] in the areas of renewables [...] and energy efficiency“ machen. • Gouverneur Schwarzenegger (2006) will Kalifornien zum „world leader“ der Klimapolitik entwickeln. • Das japanische Top-Runner-Program hat den Slogan „Developing the World’s Best EnergyEfficient Appliances“.
Für die zukünftige Umwelt- und Klimapolitik geht es in erster Linie nicht mehr um die Beschleunigung jeglicher Art von Umweltinnovationen, sie muss sich vielmehr auf besonders „starke“ Innovationen stützen. Sogenannte starke Umweltinnovationen berücksichtigen neben einer spezifischen Umweltverbesserung auch den Grad der Marktdurchdringung. Schwächere Umweltinnovationen, die nur inkrementelle Verbesserungen bestehender Technologien erzeugen, sind in der Summe ihrer Umweltbelastungsminderung zwar auch relevant, werden aber durch das Wachstum der Prozesse relativ schnell wieder neutralisiert. Auf längere Sicht haben die schwächeren Innovationen keine große Entlastungswirkung. Dies gilt ebenso für Innovationen, die sich auf Nischenmärkte konzentrieren. Die starken Umweltinnovationen, welche zur Entwicklung neuer Produktarten oder Technologien führen (z. B. Übergang von konventionellen zu erneuerbaren Energietechniken), lassen signifikante ökologische Verbesserung erwarten. Allerdings können auch die starken Umweltinnovationen ihre ökologische Entlastungswirkung verfehlen, wenn sie nicht eine hohe Marktdurchdringung und damit die nötige Breitenwirkung erreichen. Abschließend sei noch auf die inhärenten Schwächen innovationsorientierter Umweltpoli-
Quelle: Sachverständigenrat für Umweltfragen (SRU): Umweltgutachten 2008: Umweltschutz im Zeichen des Klimawandels
tik hingewiesen. Diese Grenzen einer innovationsorientierten Umweltpolitik und somit die einer ökologisch ausgerichteten Industriepolitik ergeben sich aus der Tatsache, dass nicht alle Umweltprobleme rein technisch lösbar sind. Dies gilt insbesondere für die Bereiche Biodiversität und Bodenschutz. Hier können technische Innovationen nur begrenzt hilfreich sein. So zeigen die Bereiche Biodiversität und Boden im globalen Vergleich eine deutlich schlechtere Übereinstimmung mit dem ökonomischen Entwicklungsniveau eines Landes als die Bereiche des technischen Umweltschutzes wie Luftreinhaltung und Gewässerschutz. Diese Entwicklung könnte sich im Zuge der jetzigen Innovationsausrichtung der Umweltpolitik verstärken. Vor diesem Hintergrund muss sichergestellt sein, dass die technikfernen Handlungsbereiche der Umweltpolitik nicht vernachlässigt werden. Aus heutiger Sicht ist aber die Ausrichtung auf eine innovationsorientierte Umweltpolitik als vernünftig zu bewerten, um den globalen Herausforderungen des Klimawandels und seiner Auswirkungen zu begegnen. Weitere Informationen zum Ansatz der innovationsorientierten Umweltpolitik finden sich in der aktuellen Veröffentlichung von Jänike (2008): Megatrend Umweltinnovation. Zur ökologischen Modernisierung von Wirtschaft und Staat.
12
Klimawandel: eine andauernde Kontroverse und Herausforderung für Natur- und Sozialwissenschaft
Die Auseinandersetzung über das Phänomen Klimawandel wird uns auch in Zukunft weiterhin kontrovers begleiten. Diese Auseinandersetzung ist aber auch gleichzeitig Inhalt und Sinn wissenschaftlichen Arbeitens und Basis zukünftiger Politikberatung. Die derzeitige wissenschaftliche Ausgangslage belegt einen deutlichen Zusammenhang zwischen dem Anstieg der atmosphärischen CO2-Konzentration und menschlichen Aktivitäten. Insofern gibt es zurzeit keine stichhaltigen Argumente, die eine Beeinflussung des Klimas durch den Menschen widerlegen. Die Auseinandersetzung mit den sogenannten Klimaskeptikern ist somit vorerst entschieden. Dies bedeutet aber nicht, dass man sich wissenschaftlichen Hypothesen und anders gerichteten Argumenten verschließen sollte, solange diese wissenschaftlich belegt beziehungsweise vernünftig erscheinen. Eine seit Jahren anhaltende Diskussion liefert die Erstellung einer „realitätsnahen“ Temperaturkurve für die letzten 1 000 Jahre unseres Erdklimas. Für das Verständnis einer zukünftigen Entwicklung der globalen Temperatur sollte deren Ausprägung in der Vergangenheit verstanden sein. Unsere weltweit längsten Aufzeichnungsreihen der Temperatur gehen bis etwa 1650 (längste Aufzeichnungsreihe aus Mittelengland um 1659) zurück, sodass man sich für die Abschätzung klimatischer Langzeitentwicklungen paläoklimatischer Methoden bedienen muss (sogenannte Proxy-Indikatoren). Wichtige Proxy-Daten lassen sich aus der Analyse von Eisbohrkernen,
der Betrachtung von Baum-Jahresringen und den Wachstumsringen von Korallen sowie aus See- und Meeressedimenten ableiten. Durch die vielfältigen paläoklimatischen Zeugnisse wissen wir heute, dass es in der letzten Million Jahre eine Folge von acht glazialen und interglazialen Zeiten gegeben hat. Ihre Ursache wird in den Schwankungen und Veränderungen der Erdumlaufbahn gesehen. Das letzte Interglazial, das Holozän, hat vor etwa 11 700 Jahren begonnen (Mackay 2005). Das gesamte Holozän zeigt bis heute erhebliche Temperaturschwankungen und einige Anzeiger deuten auf solche von 5–8 °C innerhalb von 1 500 Jahren hin. Schaut man sich jedoch die gesamte durch Eisbohrkerne dokumentierte Zeit von 400 000 Jahren an, so zeigt sich das Holozän als die wärmste und konstanteste Zeit. Für die letzten 1 000 Jahre liegen uns unterschiedliche Ansätze vor, eine globale, stark auf die Nordhalbkugel bezogene, Temperaturzeitreihe aufzustellen. Die mit Abstand bekannteste Temperaturrekonstruktion ist die von Mann et al. (1999). Sie wurde im Jahr 2001 vom IPCC in einem zusammenfassenden Bericht für politische Entscheidungsträger vorgelegt und als allgemein anerkannter und anschaulicher Beleg für die globale Erwärmung interpretiert. Zusammengefasst zeigt die Kurve für die Zeit von 1000–1900 geringfügig absinkende Temperaturen und einen schnellen starken Temperaturanstieg im 20. Jahrhundert. Aufgrund dieser sogenannten „Hockeyschläger-Kurve“ konnte das vergangene Jahrhundert als das wärmste des letzten Jahrtausends und
304
die 1990er-Jahre als das wärmste Jahrzehnt in der nördlichen Hemisphäre ausgewiesen werden. Der Name des Diagramms ist entstanden, weil der Kurvenverlauf einem Hockeyschläger ähnelt (der lange Schaft erstreckt sich bis etwa 1900 und biegt dann in den gekrümmten Schläger um, Abbildung 12.1). 12.1
Die Hockeyschläger-Kurve. ( Farbtafel)
Wissenschaftlich unstrittig ist, dass die mittleren Temperaturen vor 1900 wesentlich niedriger waren. Klimageschichtlich kennen wir dieses Phänomen bereits schon als die Kleine Eiszeit, eine etwa 600 Jahre dauernde Periode ungünstiger Klimaverhältnisse (zwischen 1120–1715). Erstaunlich ist allerdings, dass der Kurvenverlauf nach Mann et al. (1999) keinen größeren Temperaturabfall während der Kleinen Eiszeit aufweist. Ein solcher Temperaturverlauf mit deutlich größerem Temperaturabfall wird demgegenüber in den Temperaturrekonstruktionen von Jones et al. (2003) deutlich und durch die Datenanalyse von Pollack und Huang (2001) anhand von 616 Bohrlochmessungen nachdrücklich bestätigt . Es ist weiterhin wissenschaftlich unstrittig, dass es eine Periode zwischen 900–1250 gab, die deutlich wärmer war und Mitteltemperaturen von 2–3 °C über den heutigen aufwies. Dies war die mittelalterliche Wärmeperiode (▶ Abschnitt 10.1). Erstaunlich ist wiederum, dass die Kurve nach Mann et al. für diese Phase deutlich niedrigere Temperaturen zeigt beziehungsweise die mittelalterliche Wärmeperiode wesentlich kühler wiedergibt. Eine Begründung könnte sein, dass die Daten der Hockeyschläger-Kurve für die Temperaturangaben von 1000–1400 überwiegend auf der Analyse nordamerikanischer Baumringanalysen beruhen. Verglichen mit anderen Temperaturrekonstruktionen (z. B. nach Jones et al. 2003, Briffa et al. 2001, Pollak und Huang 2001) zeigt sich eine mangelnde Kohärenz der einzelnen Temperaturverläufe für die letzten 1 000 Jahre. Weiterhin geben die Paläodaten Hinweis darauf, dass Phasen wie die Kleine Eiszeit oder die „Mittelalterliche Wärmeperiode“ während der vergangenen 140 000 Jahre in einem Zyklus von etwa 1 500 Jahren aufgetreten sind. Ein Zeitraum von 1 000 Jahren (wie bei Mann et al. (1999) zugrunde gelegt)
12 Klimawandel: eine andauernde Kontroverse
wäre somit zu kurz, um die entscheidenden klimatischen Zyklen abzuleiten. Vor allem dieser Umstand entfachte in den letzten Jahren eine heftige Kontroverse über die Glaubhaftigkeit der Hockeyschläger-Kurve. Klimaforscher wie z. B. die Amerikaner S. Fred Singer und Dennis T. Avery kritisieren die Kurve und führen die Temperaturschwankungen in den letzten Tausenden von Jahren überwiegend auf die Schwankung der Sonnenaktivität zurück. Singer und Avery gehen in ihrer Buchveröffentlichung (Singer, Avery 2008) sogar noch einen Schritt weiter und behaupten, dass die gegenwärtig zu beobachtende, globale Erwärmung nicht anthropogener Natur sei. Weder gäbe es handfeste Nachweise für menschliche Ursachen der Klimaerwärmung, noch hätte die CO2-Konzentration in der Erdatmosphäre auch nur das Geringste damit zu tun. Die Behauptung, die Erde hätte sich vor Beginn der aktuellen Wärmeperiode in einer Art Optimum befunden, wäre wissenschaftlich jedenfalls nicht zu begründen. Als Ursache der in den zurückliegenden Jahrzehnten zu beobachtenden und von Singer und Avery nicht bestrittenen Erderwärmung sehen sie das Zentralgestirn unseres Planetensystems – die Sonne. Über eine Million Jahre hinweg lasse sich ein etwa 1 500 Jahre umfassender Zyklus nachweisen, innerhalb dessen unterschiedlich intensive Sonnenaktivitäten zu entsprechenden Klimaschwankungen auf unserem Planeten geführt hätten. Allein in der Zeit seit der Antike lassen sich demnach zwei Perioden identifizieren, die mit den Messdaten heutiger Klimaphänomene zu vergleichen sind: eine von 950 bis 1250 n. Chr. andauernde mittelalterliche Wärmeperiode und eine von 200 v. Chr. bis 600 n. Chr. reichende „römische“ Wärmeperiode. Das Ausmaß des durch Wärmekraftwerke, Klimaanlagen oder den Verkehr verursachten Ausstoßes an Treibhausgasen dürfte sich damals in Grenzen gehalten haben. Dagegen würde es über entsprechende Auswirkungen erhöhter Sonnenaktivitäten auch in unserer Zeit zu einer Zunahme der Höhenstrahlung kommen, die ihrerseits eine Zunahme der bodennahen Temperaturen bewirkte. Fazit der Arbeiten von Singer und Avery ist, dass die Hockeyschläger-Kurve den Eindruck verstärkt, dass Temperaturverlauf und CO2-Konzentration in den letzten 1 000 Jahren annähernd parallel verlaufen und der CO2-Anstieg im 20. Jahrhun-
305
dert nach einhelliger Meinung einen menschlichen Ursprung hat. Das Fehlen einer ausgeprägten mittelalterlichen Wärmeperiode und der Kleinen Eiszeit unterstützt diesen Eindruck deutlich. Eine Reihe von wissenschaftlichen Veröffentlichungen zog die Rekonstruktion der Temperaturdaten nach Mann et al. immer wieder in Zweifel. Die kanadischen Forscher McIntyre und McKitrick (2005) versuchten sogar, „den Hockeyschläger“ im Diagramm anhand der Originaldaten nachzuvollziehen. Dabei kamen sie zu folgenden Ergebnissen: Bei Anwendung der Originaldaten ergab sich fast immer ein „Hockeyschläger“ im Diagrammbild, wenn z. B. die Daten von Baumringen testweise als Zufallszahlen (Rauschen) eingegeben wurden. Nach Korrektur weiterer grober Fehler ergab sich überraschend eine Erwärmung im 15. Jahrhundert, die etwa den Temperaturen im 20. Jahrhundert entspricht. Einen Hauptfehler erkannten die kanadischen Forscher in der von Mann et al. verwandten Methode der Hauptkomponentenanalyse sowie der Wahl der Ausgangsdaten. Auch weitere Analysen von Klimaforschern erbrachten als wesentliches Ergebnis, dass Klimaschwankungen der Vergangenheit in der „Hockeyschläger-Kurve“ nicht korrekt wiedergegeben werden. Sie werden stark unterdrückt. Dies hat zur Folge, dass der Temperaturanstieg des 20. Jahrhunderts so einzigartig aussieht. Obwohl die „Hockeyschläger-Kurve“ enormen Einfluss auf Klimaanalysen des IPCC und die nachgeschaltete Klimapolitik hatte, wurde das Diagramm vor Veröffentlichung im IPCCBericht 2001 leider nicht wissenschaftlich und im Detail geprüft. Im seinem Bericht von 1990 hatte das IPCC den Temperaturverlauf der letzten tausend Jahre noch folgendermaßen dargestellt (Abbildung 12.2). Der Temperaturverlauf zeigt hier im Zeitraum 950–1250 eine sehr warme mittelalterliche Wärmeperiode, die der heutigen (nach 1950) in etwa entspricht. Der Temperaturanstieg seit 1860 erscheint hier deshalb nicht ungewöhnlich. Fazit ist: Die Temperaturrekonstruktion der letzten 1 000 Jahre erscheint wissenschaftlich längst noch nicht abgeschlossen und wird die Klimatologie auch weiterhin fordern. In Abbildung 12.3 sind die derzeitigen Versuche der Temperaturrekonstruktion vergleichend dargestellt.
Temperaturveränderung (°C)
12 Klimawandel: eine andauernde Kontroverse
Kleine Eiszeit
mittelalterliche Wärmeperiode 1000
1500 Jahr
1900
12.2 Temperaturverlauf der letzten 1 000 Jahre gemäß IPCC-Bericht 1990.
12.3 Zehn Temperaturrekonstruktionen der letzten 1 000 Jahre. ( Farbtafel)
Die Kurvenüberlagerung in Abbildung 12.3 lässt folgende Schlussfolgerungen zu:
• Das Mittelalter war warm, das 16./17. Jahrhundert kalt und das 20. Jahrhundert wieder warm. • Die Abweichungen der Kurven untereinander sind teilweise sehr groß. • Zwischen der Temperaturmessung an Messstationen seit 1860 (schwarze Kurve) und den meisten Rekonstruktionen (z. B. Baumringe, Korallen) gibt es im 20. Jahrhundert deutliche Differenzen. • Die Temperaturmessung an Messstationen seit 1860 (schwarze Kurve) zeigt einen steilen Temperaturanstieg im 20. Jahrhundert. Es fällt auf, dass demgegenüber die Rekonstruktionen (z. B. Baumringe, Korallen) nur bis etwa 1980 reichen und eine Erwärmung wie im Mittelalter zeigen. Beim letzten Punkt stellt sich die Frage, welche Aussage die Baumringe der letzten drei Jahrzehnte liefern. Die Arbeitsgruppe von Briffa et al. wertete Baumringe bis zum Jahre 2000 aus und kam zu dem Ergebnis, dass die immer wieder genannte Temperaturerhöhung in der zweiten Hälfte des 20. Jahrhunderts in den Baumringen nicht zu erkennen ist. Die Studie ergibt, dass die Baumringe nicht in Übereinstimmung sind mit der beobachteten Erwärmung im 20. Jahrhundert. Andere Umweltfaktoren als die Sommertemperaturen allein, die das Ringwachstum seit 1950 mitbestimmen (z. B. die Veränderung in der UV-Strahlung), können die Interpretation des
306
12 Klimawandel: eine andauernde Kontroverse
Zusammenhangs Baumringabstand/Temperatur erschweren. An dieser Stelle soll die Kontroverse über die Temperaturentwicklung der letzten 1 000 Jahre nicht fortgeführt werden. Sie soll als abschließendes Beispiel dem Leser vor Augen führen, dass die Klimatologie eine ergebnisoffene Wissenschaft ist, in der kontroverse Diskussion und ständiges Hinterfragen ein wesentlicher Bestandteil guter Forschung ist. Umso erfreulicher ist es, dass die Arbeitsgruppe von Mann et al. im Jahr 2008 einen neuen wissenschaftlichen Aufsatz veröffentlichte, der eine wesentlich bessere Nachvollziehbarkeit der Datenlage und Methoden beinhaltet. Nachvollziehbarkeit ist einer der wichtigsten Grundsätze der Wissenschaft überhaupt und für klimatologische Forschung unerlässlich. Darüber hinaus soll der angeführte Disput über die Hockeyschläger-Kurve den Leser verleiten, sich weiter mit der gesamten Thematik auseinander zusetzen (dann hätte das vorliegende Buch eines seiner wesentlichen Zieln erreicht). Um das natürliche Klimasystem zu verstehen, kann der Blick zurück in Zeitabschnitte der Vergangenheit, in denen der Mensch nicht oder nur sehr wenig wirksam war, sehr hilfreich sein. Die Zusammenführung von Rekonstruktionen der Klimavergangenheit (Proxydaten) und heutiger moderner Klimaanalysen kann zu einer realitätsnahen Einschätzung der zukünftigen Klimaentwicklung führen, deshalb muss sie mit höchster Sorgfalt durchgeführt werden. Der
eingangs angeführte Disput über die Temperaturreihe von Mann et al. ändert nichts an der Tatsache, dass der Mensch das Klima in diesem Jahrhundert mehr und mehr verändert. Heute können wir davon ausgehen, dass die durch den Menschen erzeugten Einflüsse auf das Klima so gut verstanden sind, dass die Auswirkungen seines Handelns im 21. Jahrhundert in bestimmten Leitplanken (Entwicklungskorridoren) angegeben werden können. Tabelle 12.1 gewichtet die großräumig wirksamen Klimafaktoren und deren zugehörigen Strahlungsantriebe. Es zeigt sich ein erheblicher Strahlungsantrieb durch anthropogene, aber auch durch natürliche Klimafaktoren wie Vulkanausbrüche und die Schwankung der Sonnenaktivität. Alle genannten Strahlungsantriebe werden weiterhin in der zukünftigen Erdgeschichte auf das Erdsystem wirken. Ihre wechselseitigen Verknüpfungen (positive Antriebe, Neutralisationseffekte) sind aber noch immer Forschungsgegenstand und nicht gänzlich verstanden. Eine mögliche Folge der unterschiedlichen Strahlungsantriebe auf das Erdsystem ist, dass systemspezifische Grenzwerte überschritten werden, wobei der Systemzustand „kippt“ und relativ schnell in einen anderen Systemzustand übergeht. Im zweiten Teil des Buches sprachen wir über tipping-points oder sogenannte Kippelemente. Als wichtigste Kippelemente des Klimasystems und ihre geschätzten Folgen werden folgende Entwicklungen oder Ereignisse angesehen:
Tabelle 12.1 Großräumig wirksame Klimafaktoren und die zugehörigen Strahlungsantriebe sowie Temperatursignale (seit 1860) Klimafaktor
Strahlungsantrieb
Signal
Signalstruktur
Treibhausgase, T (a)
2,07 bis 2,53 W/m2
0,9 bis 1,3 °C
progressiver Trend
Sulfataerosol, S (a)
–0,1 bis –0,9 W/m2
–0,2 bis –0,4 °C
uneinheitlicher Trend
kombiniert, T + S (a)
1,8 bis 2,43 W/m2
0,5 bis 0,7 °C
uneinheitlicher Trend
Vulkaneruptionen
max. –1 bis –3 W/m2*
–0,1 bis –0,2 °C
episodisch (1–3 Jahre)
Sonnenaktivität
0,06 bis 0,3 W/m2
0,1 bis 0,3 °C
fluktuativ (+ Trend)
–0,2 bis 0,3 °C
episodisch
ENSO
(a) anthropogen, * Pinatubo-Ausbruch 1991: 2,4 W/m2, 1992: 3,2 W/m2, 1993: 0,9 W/m2.
307
12 Klimawandel: eine andauernde Kontroverse
Klima-Kippelemente mit direkten und großen Folgen für die Menschheit:
• Instabilität des grönländischen Eisschildes • •
• •
aufgrund nichtlinearer Abschmelzprozesse Instabilität des west-antarktischen Eisschilds aufgrund nichtlinearer Abschmelzprozesse Instabilität/Schwächung des Golfstroms aufgrund des erhöhten grönländischen Schmelzwassereintrags und sinkender Salzkonzentration Verstärkung/Persistenz des El-Niño-Phänomens Instabilität des Amazonas-Regenwaldes, unter anderem aufgrund von Landnutzungswandel
Klima-Kippelemente mit positiver Rückkopplung auf die Temperatur:
• Auflösung der arktischen Schelfeisgebiete und Verminderung der Albedo
• schmelzende Gletscher im Himalaya und Verminderung der Albedo im tibetanischen Hochplateau • Methanfreisetzung durch Auftauen des sibirischen Permafrostbodens und mögliche Loslösung mariner Methanhydrate • Bistabilität des indischen Sommermonsuns: Abschwächung aufgrund von Luftverschmutzung oder Verstärkung wegen globaler Erwärmung
• Bistabilität der Sahel-Zone: zuerst Ergrünung, dann deutlich trockenere Tendenz
• Versauerung der Meere und Abnahme der CO2-Pufferkapazität Die aufgeführten, als wissenschaftlich wahrscheinlich identifizierten Kippelemente, werden in Zukunft weitere wissenschaftliche Kontroversen in der Klimatologie erzeugen. Es liegt in der Natur der Kontroverse, dass sie nicht mit der Absicht eines abschließenden Entweder-Oder (z. B. Klimawandel pro oder contra) geführt werden kann; sie wird daher häufig von Polemik und Streit begleitet. Das vorliegende Lehrbuch zur Klimatologie möchte den Leser stark machen, sich mit Kontroversen im Bereich der Klimatologie auseinanderzusetzen und seinen eigenen Standpunkt zu finden. Gleichzeitig soll er verstehen, warum Andersdenkende (z. B. in der Frage der Bewertung des Phänomens Klimawandel) nicht als Häretiker behandelt werden sollten – kontroverse Auseinandersetzungen können durchaus zur Demonstration der intellektuellen Überlegenheit reifen. Das Buch hat sein Ziel erreicht, wenn der Leser am Ende die Klimatologie als ergebnisoffene Wissenschaft begreift, die wie kaum eine andere intensiv in die unterschiedlichen Lebensbereiche und Sphären unserer Erde eingreift.
Farbtafeln 150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
60°N
60°N
30°N
30°N
0°
0°
30°S
30°S
60°S
60°S
150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
1.3 Meldende Beobachtungsstationen. Datenabdeckung (alle Beobachtungen synoptischer und schiffsbasierter Stationen). Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF (Europäisches Zentrum zur Wettervorhersage) = 26829.
150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
60°N
60°N
30°N
30°N
0°
0°
30°S
30°S
60°S
60°S
150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
1.4 Meldende Bojenstationen. Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF = 3460.
310
Farbtafeln
150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
60°N
60°N
30°N
30°N
0°
0°
30°S
30°S
60°S
60°S
150°W
120°W
90°W
60°W
30°W
0°
30°O
60°O
90°O
120°O
150°O
1.5 Abdeckung durch Satellitenbeobachtungen. Gesamtanzahl der Beobachtungen am 15. November 2005 am ECMWF = 258271.
solare Einstrahlung
terrestrische Ausstrahlung
Veränderung der Erdbahnparameter (Erdrotation, Präzession, Schiefe der Ekliptik, solare Aktivität) Aerosole
2 000–2 790 Vegetation, Böden
50–60
Veränderung der Landoberflächen, Landnutzung, Flächenversiegelung, Desertifikation
Veränderung der Stoff- und Energieflüsse durch menschliche Aktivitäten
51–110
Gletscher Evapotranspiration
720–750 Zusammensetzung, Zirkulation
Gase
Land-AtmosphäreKopplung
Biosphäre
Atmosphäre
6–8 vulkanische Aktivitäten
0,5 WärmeVerdunstung austausch
Veränderung der chemischen Zusammensetzung, Zirkulationsverhältnisse
Ozean-AtmosphäreKopplung 90–100
90–102
ozeanische Aerosole
Windstress
Eis-AtmosphäreKopplung Nieder- polare schlag Eiskappe
Wellenwirkung Meereis
0,8
oberflächennahe Schicht 930–1 020
Böden
Geosphäre 4 200–10 000 fossile Lagerstätten, Relief, Gesteine, Plattentektonik Veränderung der Abtragungsbedingungen
Hydrosphäre
Kryosphäre
Meeresströmungen 28–100 Eis-OzeanGletscher, MeerSeen, Flüsse, globaler Conveyor Belt Kopplung eis, polare EisOzeane Tiefsee 28 700–40 000 28–92 kappen Sedimentation 0,2 Veränderung der Veränderung der Ozeane: MeeresspiegelschwanKryosphäre: Gletscherkungen, Zirkulation, chemische Zusammensetzung, rückgang, Eisabbrüche, Salinität, Ozeanbecken, Oberflächentemperatur Fließdynamik
2.9 Das Klimasystem als Teil komplexer Erdsystemforschung – Verknüpfung und Prozesse der einzelnen Geosysteme.
311
Farbtafeln
Jan 90 Jun 90 Nov 90 Apr 91 Sep 91 Feb 92 Jul 92 Dez 92 Mai 93 Okt 93 Mrz 94 Aug 94 Jan 95 Jun 95 Nov 95 Apr 96 Sep 96 Feb 97 Jul 97 Dez 97 Mai 98 Okt 98 Mrz 99 Aug 99 Jan 00 Jun 00 Nov 00 Apr 01 Sep 01 Feb 02 Jul 02 Dez 02 Mai 03 Okt 03 Mrz 04 Aug 04 Jan 05 Jun 05 Nov 05 Apr 06
25 20 15 10 5 0 –5 –10 –15 –20 –25 –30
2.33 SOI-Index von 1990–2006; Messstationen: Tahiti und Darwin (rot = El-Niño-Phasen; blau = La-Niña-Phasen). Rohdaten vom Australian Government, Bureau of Meteorology.
180°W
90°W
0
90°O
180°O
60°N
60°N
30°N
30°N
Äqu
Äqu
30°S
30°S
60°S
60°S
180°W
–100
–75
90°W
–50
0
–25
0
90°O
25
50
180°O
75
100
2.37 Niederschlagsanomalie während des letzten starken El Niño 1997/98 in Relation zum Mittel (1980–2004) in mm/Monat (Dezember 1997, Januar und Februar 1998). Die Grundlagen für dieses kombinierte Datenprodukt sind Messungen von Wetterstationen bezüglich der Landflächen sowie Satellitenbeobachtungen bezüglich der Meeresflächen. Negative (rot) und positive (blau) Abweichungen vom Mittel der Periode 1980–2004.
312
Farbtafeln
Oberfläche Tiefenwasser
2.39 Thermohaline Zirkulation (Quelle: Rahmstorf, Nature 2002).
Meeresboden Bildung von Tiefenwasser
Salzgehalt >3,6% Salzgehalt <3,4%
NAO + ° 60
60 °
Verdunstung Niederschlag
+ Abfluss 50 °
+ Kaltluft
– Kaltwasser – Meereis
° 50
positive Salinitätsabweichung feuchte + warme Luft
+ Tiefenkonvektion
lt ka
de
win
est +W
trocken
warm
sate
+ Pas kalt
2.40 Positive NAO-Phase (Winter). Der Luftdruckgegensatz zwischen Islandtief und Azorenhoch ist größer als normal, und die Westwinde über dem nördlichen Atlantik sind stärker.
313
Farbtafeln
NAO – °
60
60 °
Verdunstung Niederschlag
– Abfluss + Kaltwasser + Meereis
50
°
negatitive Salinitätsabweichung
°
50
– Kaltluft
– Tiefenkonvektion
trockene + kalte Luft
warm
inde
– Westw
kalt
feucht
ate
ass –P
warm
2.41 Negative NAO-Phase. Der Luftdruckgegensatz zwischen Islandtief und Azorenhoch ist geringer als normal, und die Westwinde über dem nördlichen Atlantik sind schwächer.
80°N 60°N 40°N 20°N 0° 20°S 40°S 60°S 80°S
60°O
120°O
180°
120°W
–7,5 –3,5 –3,0 –2,5 –2,0 –1,5 –1,0 –0,5 0,0 0,5 CO2-Fluss (Mol/m2/Jahr)
60°W 1,0
1,5
2,0
5,5
4.5 Abschätzung des CO2Flusses zwischen Ozean und Atmosphäre (Auflösung 4° x 5°) basierend auf 940 000 Messungen des CO2-Partialdrucks im Oberflächenwasser (Messungen seit 1956) (Quelle: IPCC-Report 2007).
314
Farbtafeln
80°N 60°N 40°N
20°N 0° 20°S 40°S 60°S 80°S
4.6 Geographische Verteilung des Revelle-Faktors im Oberflächenwasser der Ozeane im Jahr 1994 (nach Sabine et al. 2004a, Quelle: IPCCReport 2007).
60°O
120°O
8
180°
9
10
120°W
11 12 13 Revelle-Faktor
14
60°W
15
0°
16
1,0
4.10 Mittlere Erderwärmung auf Basis der SRES-Szenarien A2 (rot), A1B (grün) und B1 (blau) im Vergleich zur Basisperiode 1980–1999 (Quelle: IPCC-Report 2007).
0,7
Commitment
Oberflächenerwärmung (°C)
0,8
B1 A1B A2
FAR SAR TAR beobachtet
0,9
0,6 0,5 0,4 SRES 0,3
B1 A1B A2 Commitment
0,2 0,1 0,0 1985
1990
1995
2000
2005 Jahr
2010
2015
2020
2025
315
Farbtafeln
a
b
c
d
e
f 3 2,5 2 1,5
1
0,5 –0,5 –1 –1,5 –2 –2,5
6.2 Trends der Lufttemperatur in den Winterhalbjahren (NDJFMA) und den Sommerhalbjahren (MJJASO) über 20-jährige Perioden, welche repräsentativ für die warmen und kalten Phasen des 20. Jahrhunderts sind: a–b) 19201939, c–d) 1945–1964, e–f) 1980–1999; a,c,e) Sommermonate, b,d,f) Wintermonate (Quelle: Johannessen et al. 2004).
6 arktisch
4 3 2
global
Temperatur (°C)
5
1 0 2000
2020
2040
globaler Durchschnitt CGCM2 CSM_1.4 ECHAM4/OPYC3 GFDL-R30_C HadCM3
2060
2080
arktischer Durchschnitt CGCM2 CSM_1.4 ECHAM4/OPYC3 GFDL-R30_C HadCM3
2100
6.3 Änderungen des globalen und arktischen (60°–90° N) Klimas relativ zur Durchschnittstemperatur von 1981–2000 in verschiedenen Klimamodellen (die dicken Linien zeigen die globalen, die dünnen die arktischen Klimaänderungen) (Quelle: ACIA Report 2006).
316
Farbtafeln
FAR
)
m (T21
00 k ~5
SAR
2)
m (T4
50 k ~2
TAR
80 km ~1
(T63)
AR4
10 km ~1
) (T106
8.1 Charakteristische Auflösung von Klimamodellen, die für die Anfertigung der IPCC-Berichte genutzt wurden: FAR (IPCC 1990), SAR (IPCC 1995), TAR (IPCC 2001) und AR4 (IPCC 2007) (Quelle: IPCC-Report 2007).
317
Farbtafeln
0,5
Temperaturabweichung (°C)
1,5
Ende der letzten Kaltzeit
aktuelle Proxies
0 –0,5
1 –1 0,5
0
0,5
1
1,5
2
2004
0 –0,5 –1 Klimaoptimum? 0
2
4
6 8 tausend Jahre früher
10
12
10.1 Rekonstruktion des Temperaturverlaufs der Erde während der letzten 12 000 Jahre (Holozän).
Temperaturanomalie in der Nordhemisphäre (°C) in Relation zur Normalperiode 1961–1990
1,0 Instrumentenaufzeichnung (1902–1999) Rekonstruktion(1000–1980) Rekonstruktion (40jährig geglättet)
Instrumentenwert 1998
0,5
0
–0,5
–1,0 1000
1200
1400
1600 Jahr
1800
2000
12.1 Die Hockeyschläger-Kurve nach Mann et al. (Quelle: Mann et al. 1999).
318
Farbtafeln
0,6 2004
0,4
Temperaturanomalie (°C)
0,2
mittelalterliche Wärmeperiode
0 –0,2 –0,4 –0,6 –0,8 Kleine Eiszeit
–1 1000
1100
1200
1300
1400
1500
1600
1700
1800
1900
2000
12.3 Zehn Temperaturrekonstruktionen der letzten 1 000 Jahre. Dunkelblau (1000–1991): Jones et al. (1998), blau (1000–1980): Mann et al. (1999), hellblau (1000–1965): Crowley und Lowery (2000), hellstes blau (1402–1960): Briffa et al. (2001), hellgrün (831–1992): Esper et al. (2002), gelb (200–1980): Mann und Jones (2003), orange (200–1995): Jones und Mann (2004), rot-orange (1500–1980): Huang (2004), rot (1–1979): Moberg et al. (2005), dunkelrot (1600–1990): Oerlemans (2005), schwarz (1856–2004): Instrumentelle Daten wurden vom Climatic Research Unit (CRU) und dem UK Meteorological Office Hadley Centre bearbeitet. Eine Zusammenstellung und Dokumentation der meisten Datenprodukte findet sich bei Jones und Moberg (2003), Informationen über die verfügbaren und erneuerten CRU-Temperaturdatensätze (HadCRUT3 und CRUTEM3 finden sich bei Brohan et al. (2006).
Literatur
Adams, R.M., Hurd, B.H., Lenhart, S., N. Leary, N. (1998): Effects of global change on agriculture: An interpretative review, Climate Research 11, 19–30. Angert, A., et al. (2004): CO2 seasonality indicates origins of post-Pinatubo sink. Geophys. Res. Lett., 31(11), L11103, doi:10.1029/2004GL019760. Arrhenius, S.A. (1896): On the influence of carbonic acid in the air upon the temperature of the ground. The London, Edinburgh and Dublin Philosophical Magazine and Journal of Science 5, 237–276. Ashford, N. A. (2005): Government and Environmental Innovation in Europe and North America. In: Weber, M., Hemmelskamp, J. (Hrsg.): Towards Environmental Innovation Systems. Springer Verlag, Berlin, S. 159–174. Ashford, N. A. (2000): An Innovation-Based Strategy for a Sustainable Environment. In: Hemmelskamp, J., Rennings, K., Leone, F. (Hrsg.): Innovationoriented Environmental Regulation. Physica Verlag, Mannheim, S. 67–107. Ashford, N. A., Ayers, C., Stone, R. F. (1985): Using Regulation to Change the Market for Innovation. In: Harvard Environmental Law Review 2 (9), 419–466. Augustin, J. (2006): Wellenregime. In: Kappas, M: (Hrsg.): Erdsicht – Einblicke in geographische und geo-informationstechnische Arbeitsweisen. ibidem Verlag, Stuttgart. Baldocchi et al. (2001): FLUXNET – A new tool to study the temporal and spatial variability of Ecosystem-Scale Carbon Dioxide, Water Vapour and Energy Flux Densities. Bull. Met. Soc. Am. 82(11), 2415–2434. Barnston, G., Livezey, R.E. (1987): Classification, seasonality and low-frequency atmospheric circulation patterns. Mon. Wea. Rev., 115, 1083–1126. Bauer, E. (2001): Interannual changes of the ocean wave variability in the North Atlantic and in the North Sea. Climate Research Vol. 18. Baumgartner, A., Reichel, E. (1975): Die Weltwasserbilanz. Oldenbourg Verlag, München. Beck, C., et al. (2006): Characterizing Global Climate Change by means of Köppen Climate Classification. Klimastatusbericht 2005, S., 139–149. Bender, H.-U. (2001): Fundamente: Geographisches Grundbuch für die Sekundarstufe II. Klett Verlag, Gotha. Bergeron, T. (1950): Über den Mechanismus der ausgiebigen Niederschläge. Ber. Deut. Wetterd. 12, 225–232. Bissolli, P., Ring, L.G., Lefebvre, C.H. (2001): Extreme Wetter- und Witterungsereignisse im 20. Jahrhundert. DWD Klimastatusbericht, 20–31.
Bobylev, L.P., Kondratyev, K.Y., Johanessen, O.M. (2003): Arctic Environment Variability in the Context of Global Change. Dordrecht. Briffa, K.R., Melvin, T.M. (2008 ): A closer look at Regional Curve Standardisation of tree-ring records: justification of the need, a warning of some pitfalls, and suggested improvements in its application. In: Hughes, M.K., Diaz, H.F., Swetnam, T.W. (Hrsg.): Dendroclimatology: Progress and Prospects. Springer Verlag. Brohan, P. et al. (2006): Uncertainty estimates in regional and global observed temperature changes: A new dataset from 1850. J. Geophysical Research 111, D12106, doi:10.1029/2005JD006548. Campell-Lendrum, D.H., Prüss-Üstün, A., Corvalan, C. (2003): How much disease could climate change cause? In: McMichael, A.J. et al. (Hrsg.): Climate Change and Health: Risks and Responses. World Health Organization (WHO), Genf. Cane, M.A. (1983): Oceanographic events during El Niño. Science, 222, 1189–1202. Charney, J.G. (1975): Dynamics of deserts and drought in the Sahel. Q. J. R. Met. Soc. 101, 193–202. Clark, C. (1960): The Conditions of Economic Progress. MacMillan, London. Claude, H., Steinbrecht, W., Köhler, U. (2005): Entwicklung der Ozonschicht. In: Deutscher Wetterdienst (DWD) Klimastatusbericht 2005, Offenbach. Claussen, M. (2003): Die Rolle der Vegetation im Klimasystem. In: Promet, Jahrg. 29, Nr. 1–4, 80–89. Cramer, W., et al. (2001): Global response of terrestrial ecosystem structure and function to CO2 and climate change: results from six dynamic global vegetation models. Global Change Biology 7 (4), 357–373. Cronin, T.M. (1999): Principles of Paleoclimatology. Columbia University Press, New York. Curry, J. A., Schramm, J. L. (1996): Overview of Arctic Cloud and Radiation Characteristics. In: Journal of Climate, Vol. 9, Issue 8, 1731–1756. De Castro, M. et al.(2006): Influence of teleconnection patterns on precipitation variability and on river flow regimes in the Mino River basin (NW Iberian Peninsula). Climate Research Vol. 32, 63–73. Defant, A., Defant, R. (1958): Physikalische Dynamik der Atmosphäre. Akademische Verlagsanstalt Frankfurt. Deutscher Wetterdienst (DWD) (2003): Globalmodell (GME). Freiburg. Deutscher Wetterdienst (DWD) (2004): The Global Solar UV Index and Health Effects of UV Exposure. Freiburg.
320
Deutscher Wetterdienst (DWD) (2005): Ozonbulletin des DWD. 104 (Maiausgabe), Offenbach. Diaz, H.F., Bradley, R.S. (2007): The Hadley Circulation: Present, Past and Future. Springer Verlag. Dorn, W. (2002): Natürliche Klimavariationen der Arktis in einem regionalen hochauflösenden Atmosphärenmodell. Dissertation, Universität Potsdam. ePIC Bremerhaven. Emmrich, P., 1991: 92 Jahre nordhemisphärischer Zonalindex. Eine Trendbetrachtung. Meteorologische Rundschau 43,161–169. Ernst & Young (2006): Eco-industry, its size, employment, perspectives and barriers to growth in an enlarged EU. Final Report. Europäische Kommission, GD Umwelt, Brüssel. Esty, D. C. et al. (2006): Pilot 2006 Environmental Performance Index. New Haven: Yale Center for Environmental Law & Policy. Fabian, P. (1992) Atmosphäre und Umwelt. Springer Verlag, Heidelberg. Fan, S., et al. (1998): A large terrestrial carbon sink in North America implied by atmospheric and oceanic carbon dioxide data and models. Science, 282, 442–446. Field, C.B. und Raupach, M.R. (Hrsg.) (2004): The Global Carbon Cycle: Integrating Humans, Climate, and the Natural World. SCOPE 62. Island Press, Washington, DC, S. 526 ff. Findeisen, W. (1937): Neue Wege der meteorologischen Feuchtigkeitsmessung. Dissertation. In: Wissenschaftliche Abhandlungen des Reichsamts für Wetterdienst (2,11), Springer Verlag, Berlin. Fisher, A.G.B. (1939): Production, Primary, Secondary, Tertiary. The Economic Journal 15, 739–741. Flohn, H. (1950): Neue Anschauungen über die allgemeine Zirkulation der Atmosphäre und ihre klimatische Bedeutung. Erdkunde 4, S. 141–162, Wissenschaftliche Buchgesellschaft, Darmstadt. Flückiger, J. et al. (2002): High resolution Holocene N2O ice core record and its relationship with CH4 and CO2. Global Biogeochem. Cycles, 16, doi: 10.1029/2001GB001417. Fortmann, M. (2004): Zum Einfluss troposphärischer Aerosole auf das Klima der Arktis. Dissertation, Universität Potsdam. ePIC Bremerhaven. Fourastié, J. (1971): Die große Hoffnung des zwanzigsten Jahrhunderts. Bund Verlag, Köln. Fraedrich, K. (1994): „An ENSO impact on Europe?“ Tellus 46A, 541–552; May, W. (1995): Der Einfluss des El Niño/Southern Oscillation-Phänomens auf die atmosphärische Zirkulation in den mittleren Breiten der Nordhalbkugel: Beobachtungen und Modellsimulationen. MPI Hamburg, Examensarbeit Nr. 33. Frankenberg, C. et al. (2005): Assessing methane emission from global space-borne observation. Science, 308, 1010–1014. Frankenberg, C. et al., (2006): Satellite chartography of atmospheric methane from SCIAMACHY on board EMVISAT: Analysis of the years 2003 and 2004. J. Geophys. Res., 111, doi: 10.1029/2005JD006235.
Literatur
Frankenberg, P., Kappas, M: (1991): Temperatur und Wetterlagentrends in Westdeutschland. Mannheimer Geographische Arbeiten, Band 30. Friedlingstein, P. et al. (2006): Climate–Carbon Cycle Feedback Analysis: Results from the C4MIP Model Intercomparison. Journal of Climate, Vol. 19, No. 14., 3337–3353. Gates, W.L. (2003): Ein kurzer Überblick über die Geschichte der Klimamodellierung. In: Promet, Jahrg. 29, Nr. 1–4, 3–5. Gedney, N., Cox, P.M., Huntingford, C. (2004): Climate feedback from wetland methane emissions. Geophys. Res. Lett., 31, L20503, doi: 10.1029/2004GL020919. Giannini, A., Saravanan, R., Chang, P. (2003): Oceanic forcing of Sahel rainfall on inter-annual to interdecadal time scales, Science 302, 1027–1030. Gill, A.E. (1982): Atmospheric-Ocean-Dynamics. Academic Press, New York. Glantz, M. H. (2003): Climate Affairs. A Primer. Island Press. Gebhardt, H., Glaser, R., Radtke, U. Reuber, P. (2007): Geographie. Physische und Humangeographie. Spektrum Akademischer Verlag, Heidelberg. Global Carbon Project (2003) Science Framework and Implementation. Earth System Science Partnership (IGBP, IHDP, WCRP, DIVERSITAS) Report No. 1; Global Carbon Project Report No. 1, S. 69, Canberra. Gloor, M., et al. (2003): A first estimate of present and preindustrial air-sea CO2 flux patterns based on ocean interior carbon measurements and models. Geophys. Res. Lett., 30(1), 1010, doi: 10.1029/2002GL015594. Graham, N. E., White, W.B. (1988): The El Niño cycle: A natural oscillator of the Pacific oceanatmosphere system, Science, 240, 1293–1302. Grell, G.; Schade, L.; Knoche, R.; Pfeiffer, A.; Egger, J. (2000): Nonhydrostatic climate simulations of precipitation over complex terrain. In: Journal of Geophysical Research, 105(D24), 29595–29608. Harmeling, S., Bals, Ch. (2008): Adaptation to Climate Change – Where do we go from Bali? An analysis of the COP13 and the key issues on the road to a new climate change treaty. Germanwatch (Hrsg.). Hartmann, D.L., Wallace, J.M. , Limpasuvan, V., Thompson, D.W.J., Holton, J.R. (2000): Can Ozone Depletion and Greenhouse Warming Interact to Produce Rapid Climate Change? Proc. Nat. Acad. Sci., 97, 1412–1417. Held, I.M., Delworth, T.L., Lu, J., Findell, K., Knutson, T.R. (2005): Simulation of Sahel drought in the 20th and 21st centuries, Proceedings of the National Academy of Sciences of the United States of America (PNAS) 102, 17891–17896. Held, H., Kleinen, T. (2004): Detection of climate system bifurcations by degenerate fingerprinting, Geophysical Research Letters 31, L23207. Hendel, M. (1964): Studien über die Flächenausdehnung der Klimabereiche der Erde. 1. Jg. 13, Berliner Geographische Arbeiten, Heft 33, 48–52. Hendel, M. (1966): Grundfragen der genetischen Klimasystematik. Z. Meteor. 17, 280–290.
Literatur
Hendon, H.H. (2003): Zu den indonesischen Niederschlägen unter dem Einfluss von ENSO. Indonesian Rainfall Variability: Impacts of ENSO and Local AirSea Interaction, Journal of Climate 16, 1775–1790. Hettner, A., (1930): Die Klimate der Erde. Geogr. Schriften, Heft 5, Leipzig und Berlin. Houghton, J.T. et al. (Hrsg.) (2001): Climate Change 2001. The Scientific Basis. Cambridge University Press, Cambridge, S. 944 ff. Hupfer, P. (1991): Das Klimasystem der Erde. Akademie Verlag, Berlin. Hurrell, J.W. (1995): Decadal Trends in the North Atlantic Oscillation and relationships to regional temperature and precipitation. Science 269, 676–679. IPCC (Intergovernmental Panel on Climate Change) (2007a): Climate Change 2007: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge. IPCC (2007b): Climate Change 2007: Mitigation. Contribution of Working Group III to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge. IPCC (2007c): Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge. IPCC (2000a): Emissions Scenarios. A special report of Working Group III of the Intergovernmental Panel on Climate Change. Summary for Policymakers. IPCC Special Report, Genf. IPCC (2000b): Special Report on Emissions Scenarios. A special report of Working Group III of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge. Jacobson, H. K., Price, M. F. (1990): A Framework for Research on the Human Dimensions of Global Environmental Change. International Social Science Council HDP Report. HDP Barcelona. Jänicke, M. (Hrsg.) (1985): Vor uns die Goldenen Neunziger Jahre? Langzeitprognosen auf dem Prüfstand. Piper Verlag, München. Jänicke, M. (2008): Megatrend Umweltinnovation. Zur ökologischen Modernisierung von Wirtschaft und Staat. oekom verlag, München. Johannessen, O. M. (2004): Arctic climate change: observed and modelled temperature and sea-ice variability. In: Tellus, Vol. 56A, Nr.4, 328–341. Jones, C.D. et al. (2003): Strong carbon cycle feedbacks in a climate model with interactive CO2 and sulphate aerosols. Geophysical Research Letters 30, 32.1–32.4. Jung, T. (2000): The North Atlantic Oscillation: Variability and Interactions with the North Atlantic Ocean and Arctic Sea Ice. In: Berichte aus dem Institut für Meereskunde an der Christian-Albrechts-Universität Kiel, Nr. 315.
321
Kappas, M. (1989): Statistisch-mathematische Analyse von Raummustern der täglichen Niederschläge im West-Sahel. Universität Bonn. Kappas, M. (1994): Fernerkundung – nah gebracht. Leitfaden für Geowissenschaftler. Dümmler Verlag, Bonn. Kappas, M. (2001): Geographische Informationssysteme. Westermann Verlag Kappas, M. (2006): Naturraumpotenzial und Landnutzung im Oudalan. Eine Fallstudie aus dem Sahel Burkina Fasos zur Anwendbarkeit von Fernerkundungsmethoden im regionalen Maßstab. In: Kappas, M. (Hrsg.): Erdsicht – Einblicke in geographische und geoinformationstechnische Arbeitsweisen. ibidem Verlag, Stuttgart. Kappas, M. Hrsg. (2008): Klimawandel und Hautkrebs. ibidem Verlag, Stuttgart. Karthe, D. (2006): Trinkwasser in Kalkutta. Versorgungsproblematik einer indischen Megastadt. In: Kappas, M. (Hrsg.): Erdsicht – Einblicke in Geographische und GeoInformationstechnische Arbeitsweisen. ibidem Verlag, Stuttgart Kaufman, Y.J., D. Tanré, and O. Boucher (2002): A satellite view of aerosols in the climate system, Nature 419, 215-223 16a. verändert nach Boucher, O., M. Pham (2002): History of sulfate aerosol radiative forcings, Geophysical Research Letters 29, No. 9, 10.1029/2001GL014048. Keeling, C.D., Whorf, T.P. (2005): Atmospheric CO2 records from sites in the SIO air sampling network. In: Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, TN, http://cdiac.esd.ornl.gov/trends/ co2/sio-keel-flask/sio-keel-flask.html. Klaus, D. (1989): Die planetarische Zirkulation. In: Praxis Geographie, Heft 6, S. 12–17, Westermann Verlag. Kneese, A.V., Schultze, C.L. (1975): Pollution, prices, and public policy. Brookings Institution, Washington DC. Köpke, P. et al. (2003): Klimawandel geht unter die Haut. In: Zukunft im Brennpunkt 2, 53–58. Köpke, P., Staiger, H. (2005): UV Index forecasting on a global scale. In: Meteorologische Zeitschrift Vol. 14, No. 2, 259–270, Berlin – Stuttgart. Köppen, W. (1936): Das geographische System der Klimate (Handbuch der Klimatologie, Bd. 1, Teil C). Kramer, H.J. (2001): Observation of the Earth and its Environment. Springer Verlag, Berlin. Küng, H. (1997): Weltethos für Weltpolitik und Weltwirtschaft. Piper Verlag, München. Kupfer, E. (1954): Entwurf einer Klimakarte auf genetischer Grundlage. Z.f.d. Erdkundeunterricht 6, S. 5–13, Berlin. Lamb, H.H. (1989): Klima und Kulturgeschichte. Rowohlt Verlag, Reinbek bei Hamburg. Latif, M., Neelin, J.D. (1994): „El Niño/Southern Oscillation“; Max Planck Institut für Meteorologie Hamburg, Report No. 129. Lau, N.-C., Nath, J. (2000): „Impact of ENSO on the Variability of the Asian-Australian Monsoons as Simulated in GCM Experiments“, Journal of Climate 13, 4287–4309.
322
Lauer, W. (1975): Vom Wesen der Tropen. Klimaökologische Studien zum Inhalt und Abgrenzung eines irdischen Landschaftsgürtels. Abh. d. Akad. d. Wissenschaften Mainz 3. Lauer, W., Frankenberg, P. (1981): Untersuchungen zur Humidität und Aridität von Afrika. Geogr. Abh. 66, Bonn. Lauer, W., Frankenberg, P. (1988): Klimaklassifikation der Erde. In: Geographische Rundschau 40, 6, Westermann Verlag, Braunschweig. Lehner, B., Czisch, G., Vassolo, S. (2005): The impact of global change on the hydropower potential of Europe: Amodel-based analysis. Energy Policy 33, 839–855. Lehrling, M. (2006): Klimaentwicklung in Alaska – eine GIS-gestützte Erfassung und Analyse der raumzeitlichen Entwicklung von Temperatur und Niederschlag. In: Kappas, M. (Hrsg.): Erdsicht – Einblicke in Geographische und GeoInformationstechnische Arbeitsweisen. ibidem Verlag, Stuttgart. Le Quéré, C. et al. (2007): Saturation of the Southern Ocean CO2 Sink Due to Recent Climate Change, Science 316, 1735–1738. Lenton, T.M., Held, H., Kriegler, E., Hall, J.W., Lucht, W., Rahmstorf, S., Schellnhuber, H.J. (2008): Tipping elements in the Earth’s climate system. Proceedings of the National Academy of Sciences. Liao, H., Seinfeld, J.H., Adams, P.J., Mickley, L.J. (2004): Global radiative forcing of coupled tropospheric ozone and aerosols in an unified general circulation model, Journal of Geophysical Research 109, No. D16207. Lomborg, B. (2002): Apocalypse no! Wie sich die menschlichen Lebensgrundlagen wirklich entwickeln. Zu Klampen Verlag, Lüneburg. Lomborg, B. (2008): Cool it! Warum wir trotz Klimawandel einen kühlen Kopf bewahren sollten. Deutsche Verlags-Anstalt DVA, München. Lorenz, E.N: Deterministic Nonperiodic Flow. In: Journal of the Atmospheric Sciences, Vol. 20, No. 2, 130–141, März 1963. Lovelock, J.E.(1987): Gaia, A New Look at Life on Earth. Oxford University Press, Oxford. Lozàn, J. E. (Hrsg.) (2004): Warnsignal Wasser. Wissenschaftliche Auswertungen, Hamburg. Lozán; J.E. (Hrsg.) (2008): Warnsignal Klima. Gesundheitsrisiken, Gefahren für Pflanzen, Tiere und Menschen. Wissenschaftliche Auswertungen, Hamburg. Lu, J., Delworth, T.L. (2005): Oceanic forcing of the late 20th century Sahel drought, Geophysical Research Letters 32, L22706. Madronich, S. et al. (1998): Halocarbon scenarios for the future ozone layer and related consequences. In: Albritton, D., Aucamp, P., Megie, G. and Watson, R. (Hrsg.): Scientific Assessment of Ozone Depletion. World Meteorological Organization, Genf. Marland, G., Boden, T.A., Andres, R.J. (2006): Global, regional, and national CO2 emissions. In: Trends: A Compendium of Data on Global Change. Carbon Dioxide Information Analysis Center, Oak Ridge National Laboratory, U.S. Department of Energy, Oak Ridge, TN.
Literatur
McPhaden, M.J. (1999): Genesis and Evolution of the 1997–98 El Niño, Science 283, 950–954. Meadows, D. L. (1974): Die Grenzen des Wachstums. Rowohlt Verlag, Reinbek bei Hamburg. Meadows, D. M., Meadows, D. L., Randers, J. (1992): Die neuen Grenzen des Wachstums. 2. Aufl., Deutsche Verlagsanstalt, Stuttgart. Meadows, D., Meadows, D.L., Behrens III, W.W. (1972): Die Grenzen des Wachstums – Berichte des Club of Rome zur Lage der Menschheit. Deutsche VerlagsAnstalt DVA, München. Meadows, D., Meadows, D. L., Randers, J. (1993): Die neuen Grenzen des Wachstums. Rowohlt, Reinbek bei Hamburg. Meadows, D., Meadows, D. L., Randers, J. (2006): Grenzen des Wachstums – Das 30-Jahre-Update. Hirzel Verlag, Stuttgart. Mikaloff Fletcher, S.E., et al. (2006): Inverse estimates of anthropogenic CO2 uptake, transport, and storage by the ocean. Global Biogeochem. Cycles 18, doi: 10.1029/2005GB002530. Milancovic, M.M. (1941): Kanon der Erdbestrahlung und seine Anwendung auf das Eiszeitenproblem. Königl. Serb. Acad. Spezial Publ. N 133, 1–633. MITI (Ministry of International Trade and Industry) (1974): Direction for Japan’s Industrial Structure. MITI, Tokio. Molden, D. (Hrsg.) (2007): Water for Food, Water for Life: A Comprehensive Assessment of Water Management in Agriculture, Earthscan. Müller, M. (2001): Polare Stratosphärenwolken und mesoskalige Dynamik am Polarwirbelrand, Universität Berlin, Dissertation, ePIC Bremerhaven. O’Brien, J.J., Richard, T.S., Davis, A.C. (1996): The effect of El Niño on U.S. landfalling hurricanes. Bull. Amer. Meteor. Soc., 77, 773–774. Oppenheimer, M. (1998): Global warming and the stability of the West Antarctic ice sheet. Nature 393, 325–332. Palmén, E., Newton, C.W. (1969): Atmospheric Circulation systems. Academic Press, New York. Parry, M., Rosenzweig, C., Iglesias, A., Fischer, G., Livermoore, M. (1999): Climate change and world food securitiy: A new assessment, Global Environmental Change 9, S51–S67. Pearce, D., Barbier, E., Markandya, A. (1990): Sustainable Development: Economics and Environment in the Third World. Edward Elgar, Brookfield. Philander, S.G.H. (1990): El Niño, La Niña, and the Southern Oscillation. Academic Press, San Diego. Pleths, H. (2000): UV Index Forecasts in Uccle. In: Wetenschappelijke en technische publicatie, Nr. 009, Brüssel. Prange, M. (2004): Einfluss arktischer Süßwasserquellen auf die Zirkulation im Nordmeer und im Nordatlantik in einem prognostischen Ozean-Meereis-Modell. Dissertation, Universität Bremen. ePIC Bremerhaven. Prather, M.J. et al. (2001): Atmospheric chemistry and greenhouse gases. In: Houghton, J.T. et al. (Hrsg.): Climate Change 2001: The Scientific Basis. Contri-
Literatur
bution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge (UK) and New York (USA), S. 239–287. Prentice, I.C. et al. (2001): The Carbon Cycle and Atmospheric Carbon Dioxide. In: Houghton, J.T. et al. (Hrsg.): Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge University Press, Cambridge (UK) and New York (USA), S. 99–181. Prognos AG (1982): Euro Report 1983. Prognos AG, Basel. Pruppacher, H.R., Klett, J.D. (1978): Microphysics of atmospheric clouds and precipitation. Reidel, Dordrecht. Przybylak, R. (2004): The Climate of the Arctic. Springer, Berlin. Rasmusson, E.M., Carpenter, T.H. (1982): Variations in tropical sea-surface temperature and surface wind fields associated with the Southern Oscillation/El Niño. Mon. Wea. Rev., 110, 354–384. Revelle, R., Suess, H.E. (1957): Carbon dioxide exchange between atmosphere and ocean and the question of an increase of atmospheric CO2 during past decades. Tellus 9, 18–27. Rogers, R.R., Yau, M.K. (1989): A short course in cloud physics. Pergamon, Oxford. Ropelewski, C.F., Halpert, M.S. (1987): Global and regional scale precipitation patterns associated with the El Niño/Southern Oscillation. Mon. Wea. Rev. 115, 1606–1626. Rösner, S. (1999): The GCOS Surface Network Monitoring Centre with special emphasis on Precipitation at the Deutscher Wetterdienst. In: Klimastatusbericht 1999, 124–127. Rösner, S., Fuchs, T., Lefebvre, C. (2000): The GCOS Surface Network Monitoring Centre (GSNMC) – Results for WMO RA VI Europe. In: Klimastatusbericht 2000, 184–187. Rossby, C. G. (1939): Relation between variation in the intensity of the zonal circulation of the atmosphere and the displacement of the semi-permanent centers of action. J. Marine Res. 2, 38–55. Russell, J.L., Wallace, J.M. (2004): Annual carbon dioxide drawdown and the Northern Annular Mode. Global Biogeochem. Cycles, 18(1), GB1012, doi: 10.1029/2003GB002044. Sabine, C.L. et al. (2004): The oceanic sink for anthropogenic CO2. Science 305(5682), 367–371. Schellnhuber, H.-J. (2002): Coping with Earth system complexity and irregularity. In: Steffen,W. et al. (Hrsg.): Challenges of a Changing Earth. Proceedings of the Global Change Open Science Conference, Amsterdam, Netherlands, 10–13 July 2001. Springer, Berlin, Heidelberg, New York, S. 151. Scherhag, R., Lauer, W. (1982): Klimatologie. Das Geographische Seminar. Westermann Verlag, Braunschweig. Schönwiese, C.-D., Rapp, J. (1997): Climate Trend Atlas of Europe Based on Observations. Kluwer Academic Publ., Dordrecht, S. 228 ff.
323
Schopf, P. S., Suarez, M.J., (1988): Vacillations in a coupled ocean-atmosphere model, J. Atmos. Sci., 45, 549-566, 1988. Schulz, A. (2001): Bestimmung des Ozonabbaus in der arktischen und subarktischen Stratosphäre. Dissertation, Freie Universität Berlin. ePIC Bremerhaven. Schweiger, A.J. et al. (1999): Arctic Clouds in Multiyear Satellite Data Sets. In: Geophysical Research Letters, Vol. 26, No. 13, 1845–1848. Seilkopf, H. (1939): Maritime Meteorologie. In: Habermehl, R. (Hrsg.): Handbuch der Fliegerwetterkunde. Deutsche Seewarte Hamburg, S. 150. Sellers, W.D. (1965): Physical Climatology. University Chicago Press, Chicago. Serreze, M.C. et al. (1997): Iceland Low Cyclone Activity: Climatological Features, Linkages with the NAO and the relationships with Recent Changes in the Northern Hemisphere Circulation. In: Journal of Climate, Vol. 10, Issue 3, 453 – 464. Serreze, M.C., Barry, R.G. (2005): The Arctic Climate System. Cambridge University Press, Cambridge. Shindell, D.T. et al. (2004): Dynamic winter climate response to large tropical volcanic eruptions since 1600. J. Geophys. Res., 109, D05104, doi: 10.1029/ 2003JD004151. Shindell, D.T. et al. (2005): An emissions-based view of climate forcing by methane and tropospheric ozone. Geophys. Res. Lett., 32, L04803, doi: 10.1029/2004 GL021900. Siegert, F., Ruecker, G., Hinrichs, A., Hoffmann, A.A., (2001): „Increased damage from fires in logged forests during droughts caused by El Niño“, Nature 414, 437–440. Sönderkvist, J. (2003): Sensitivity and Variability of the Arctic Ocean ice cover. Göteburg. Spekat, A., Enke, W., Kreienkamp, F. (2006): Neuentwicklung von regional hoch aufgelösten Wetterlagen für Deutschland und Bereitstellung regionaler Klimaszenarien mit dem Regionalisierungsmodell WETTREG 2005 auf der Basis von globalen Klimasimulationen mit ECHAM5/MPI – OM T63L31 2010 bis 2100 für die SRES – Szenarien B1, A1B und A2. Projektbericht im Rahmen des F+E-Vorhabens 204 41 138 „Klimaauswirkungen und Anpassung in Deutschland – Phase 1: Erstellung regionaler Klimaszenarien für Deutschland“, S. 94. Stähle, M. (2007): Trinkwasser in Dehli. In: Kappas, M. (Hrsg.): Erdsicht – Einblicke in Geographische und GeoInformationstechnische Arbeitsweisen. ibidem Verlag, Stuttgart. Steinrücke, J. (1998): Changes in the Northern-Hemispheric Zonal Circulation in the Atlantic-European Sector since 1881 and their Relationship to Precipitation Frequencies in the Mediterraneum and Central Europe. Bochumer Geographische Arbeiten Nr. 63, Ruhr-Universität Bochum. Stenke, A., Grewe, V. (2003): Impact of ozone mini-holes on the heterogeneous destruction of stratospheric ozone. In: Chemosphere, 50(2), 177–190.
324
sUVMoNET (2006): Solares UV-Monitoring in Deutschland. Unter: http://www.suvmonet.de/, Stand: 18.11.2006. Symon, C., Arris, L., Heal, B. (Hrsg.) (2006): Arctic Climate Impact Assessment Report (ACIA), Cambridge. Takahashi, T. et al., 2002: Global sea-air CO2 flux based on climatological surface ocean pCO2, and seasonal biological and temperature effects. Deep-Sea Res. II, 49(9–10), 1601–1622 Tànnchez, L.E.O., (2004): „Entropies and predictability of variability indices of the tropical pacific“. Dissertation, Humboldt Universität Berlin. Terjung, W.H., Louie, S.F. (1972): Toward a climate classification based on Net Radiation. In: Proc. of the Ass. Am. Geogr., 2, 140–144. Thompson, D.W.J., Wallace, J.M. , Hegerl, G.C. (2000): Annular modes in the extratropical circulation. Part II. Trends, J. Clim., 13, 1018–1036. Thornthwaite, C.W. (1948): An approach toward a rational classification of climate. In: Geogr. Rev., Vol 38, 55–94. Trenberth, K., Karl, T. K., Spence, T.W. (2002): The Need for a Systems approach to Climate Observations. Bulletin of the American Meteorological Society, November 2002, 1593-1602. Trenberth, K. E., Hoar, T.J. (1996): The 1990–1995 El Niño–Southern Oscillation event: Longest on record. Geophys. Res. Lett., 23, 57–60. Troll, C. (1943): Thermische Klimatypen der Erde. In: Pet. Geogr. Mitt. 89, 81–89. Troll, C., Paffen, KH. (1964): Karte der JahreszeitenKlimate der Erde mit einer Karte von C.Troll & Karlheinz Paffen. In: Erdkunde, Bd. XVIII, H. 1, S. 5–28. Trömel, S., Schönwiese, C.-D. (2005): A generalized method of time series decomposition into significant components including probability assessments of extreme events and application to observational German precipitation data. Meteorol. Z. 14: 417–427. Bundesamt für Strahlenschutz (BfS) (2006a): Erläuterungen. BfS, Salzgitter. Unter: http://www.bfs.de/uv/uv2/ uvi/erlaeuterung.html, Stand: 19.09.2006. Bundesamt für Strahlenschutz (BfS) (2006b): UV-Messnetz. BfS, Salzgitter. Unter: http://www.bfs.de/uv/uv2/ uv_messnetz.html, Stand: 12.11.2006. UNESCO (2006): Water. A shared responsibility. The United Nations World Water Development Report 2, UNESCO, Paris. S. 584 ff. Van de Hulst, H.C. (1981) Light scattering by small particles. Dover Publications, New York. von Storch, H., Güss, S., Heimann, M. (1999): Das Klimasystem und seine Modellierung. Eine Einführung. Springer Verlag, Berlin. Walker, G.T. (1924): Correlations in seasonal variations of weather. Mem. Indian Meteor. Dept. 24, 275 – 332. Walsh, J.E., Chapman, W.L. (1998): Arctic Cloud–Radiation–Temperature Associations in Observational Data and Atmospheric Reanalyses. In: Journal of Climate, Vol. 11, Issue 11, 3030–3045.
Literatur
WBGU – Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen, Sondergutachten (2003): Über Kioto hinaus denken – Klimaschutzstrategien für das 21. Jahrhundert. Berlin 2003. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (1995): Szenario zur Ableitung globaler CO2-Reduktionsziele und Umsetzungsstrategien. Stellungnahme zur ersten Vertragsstaatenkonferenz der Klimarahmenkonvention in Berlin. Sondergutachten 1995. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (1997): Ziele für den Klimaschutz 1997. Stellungnahme zur dritten Vertragsstaatenkonferenz der Klimarahmenkonvention in Kyoto. Sondergutachten 1997. WBGU, Bremerhaven. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (1998): Die Anrechnung biologischer Quellen und Senken im Kyoto-Protokoll: Fortschritt oder Rückschlag für den globalen Umweltschutz? Sondergutachten 1998. WGBU, Bremerhaven. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (1999a): Welt im Wandel: Strategien zur Bewältigung globaler Umweltrisiken. Hauptgutachten 1998. Springer Verlag, Berlin, Heidelberg, New York. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (1999b): Welt im Wandel: Umwelt und Ethik. Sondergutachten 1999. Metropolis Verlag, Marburg. WBGU – Wissenschaftlicher Beirat Globale Umweltveränderungen (2006): Sondergutachten: Die Zukunft der Meere, zu warm, zu hoch, zu sauer. WBGU- Wissenschaftlicher Beirat Globale Umweltveränderungen (2007): Welt im Wandel – Sicherheitsrisiko Klimwandel. Webster, P.J. et al. (1999): Coupled ocean-atmosphere dynamics in the Indian Ocean during 1997–98, Nature 401, 356-360. Weischet, W. (1991): Einführung in die Allgemeine Klimatologie. Stuttgart. (aktuelle Auflage 2008, Gebr. Borntraeger) WHO (2004): World Health Report 2004: Changing History. WHO, Geneva. Williams, M. et al. (1982): Quaternary Environments. New York. WMO (World Meteorological Organization) (2007): Scientific Assessment of Ozone Depletion 2006. Global Ozone Research and Monitoring Project-Report No. 50. Geneva, Switzerland, S. 572ff. Wüst, G. (1922): Verdunstung und Niederschlag auf der Erde. Z. Ges. Erdkunde. Berlin, S. 35–43. Wyrtki, K. (1975): El Niño-The dynamic response of the equatorial Pacific Ocean to atmospheric forcing. J. Phys. Oceanogr. 5, 572–584. Zeebe, R.E., Wolf-Gladrow, D. (2001): CO2 in Seawater: Equilibrium, Kinetics, Isotopes. Elsevier Oceanography Series 65, Elsevier, Amsterdam, S. 346 ff. Zhang, T., Stammes, K., Bowling, S.A. (1996): Impact of Clouds on Surface Radiative Fluxes and Snowmelt in the Arctic and Subarctic. In: Journal of Climate, Vol. 9, 2110–2123.
Glossar
A AATSR (Advanced Along Track Scanning Radiometer): abbildender Infrarotsensor auf ENVISAT zur Präzisionsmessung der Meeres- und Landoberflächentemperaturen. Abbildender Laserscanner (imaging laser scanner): aktiver Sensor, der als Höhenmessgerät (Altimetrie) dient und gleichzeitig ein Geländebild erzeugt. Absinkinversion (Schrumpfungsinversion): entsteht durch großräumiges Absinken von Luft in Hochdruckgebieten. Dabei sinken Luftmassen eine große Strecke ab und erwärmen sich dabei trockenadiabatisch. Durch die Absinkbewegung kommt es in der Temperaturkurve zu einer Temperaturumkehr. Absinkinversionen sind meist großräumige Phänomene und typisch für dynamische Hochdruckgebiete (z.B. Subtropenhochs). Absorptionsbanden: Wellenlängenbereich des elektromagnetischen Spektrums, in dem die Strahlungsenergie durch Gase markant absorbiert wird. Wichtige Absorptionsbanden in der Atmosphäre sind vor allem die 6,3 μm-Wasserdampfbande, die 15 μm- und 4,3 μm-Kohlendioxidbanden sowie die 9,6 μmOzonbande, welche in Infrarotspektren deutlich hervortreten. ADEOS-II (Advanced Earth Observing Satellite), syn. Midori-II: japanischer Satellit mit acht Sensoren zur Beobachtung von Ozeanfarbe und Ozeantemperatur sowie Ozon und Landoberfläche. Nachfolger der vorzeitig beendeten ADEOS-Mission. adiabatisch: Vorgänge in der Atmosphäre aufgrund vertikaler Bewegungen, bei denen sich in einem als isoliert angenommenen Luftpaket physikalische Eigenschaften, wie z.B. Temperatur, Druck, Dichte oder Feuchtigkeit ändern, ohne dass zwischen dem Luftpaket und der Umgebungsluft oder der Erdoberfläche ein Wärmeaustausch stattfindet.
Aerosol: feste oder flüssige Partikel in der Atmosphäre, die eine Größe zwischen 0,01 und 10 mm aufweisen. Die Aerosole sind natürlichen oder anthropogenen Ursprungs. Sie beeinflussen das Klima direkt (durch Streuung und Absorption der Strahlung) und indirekt (als Kondensationskerne für die Wolkenbildung oder die Veränderung der optischen Eigenschaften der Wolken). Aerosole sind auch wesentlicher Bestandteil des Arctic und Tropical Haze. AIRS (Atmospheric Infrared Sounder): befindet sich an Bord des Aqua-Satelliten zur Erstellung von Temperaturprofilen und zur Messung von flüssigem und gasförmigem Wasser in der Atmosphäre. aktives System: Fernerkundungssystem, das seine eigene Strahlung aussendet, um eine Objekt aufzuspüren oder um ein Gebiet zu beobachten. Es empfängt die vom Objekt reflektierte oder ausgesandte Strahlung. Radar- bzw. Mikrowellensysteme sind aktive Systeme. Sie sind im Gegensatz zu passiven Systemen wetterunabhängig. Aktualitätsprinzip oder Aktualismus: Grundannahme zur Interpretation aller geologischen, atmosphärischen und ozeanischen Vorgänge. Das Prinzip geht von der stetigen Gültigkeit der physikalischen, chemischen und biologischen Gesetze aus. Es folgert, dass die geologischen Prozesse der Vergangenheit in vergleichbarer Weise wie heute abgelaufen sind. Grundsätzlich muss jede geologische und atmosphärische/ozeanische Forschung die Gültigkeit und Grenzen des aktualistischen Prinzips prüfen. Albedo: Verhältnis von reflektierter und gestreuter kurzwelliger Strahlung zur gesamten einfallenden Strahlungsenergie auf einen Körper. Albedo wird häufig als Prozentwert der einkommenden Strahlung ausgedrückt. Ein Körper, der alle Wellenlängen der Globalstrahlung, nicht nur die sichtbaren, vollständig absorbiert, wird als „absolut schwarzer Körper“ festgelegt.
326
Altimeter: Höhenmessgerät zur Erfassung der Höhe über einer bestimmten Oberfläche. Flugzeuge oder Satelliten nutzen Altimeter, die nach dem Laser-, Lidar- oder Radarprinzip arbeiten. Zielflächen zur Höhenbestimmung in der Klimaforschung sind Land-, Meer- und Eisoberflächen. Bei Lidar- und Laseraltimetrie werden stark gebündelte Lichtimpulse ausgesandt und die Laufzeit bis zum Empfang des reflektierten Impulses gemessen. Die halbe Laufzeit wird dann in Längeneinheiten konvertiert. Radaraltimetrie arbeitet in ähnlicher Weise, nutzt aber Mikrowellenfrequenzen. AMI (Active Microwave Instrument): aktiver CBand-Radarsensor auf den ERS-1 und ERS-2 -Satelliten. AMI kann in mehreren Modi arbeiten: 1. als Scatterometer zur Messung von Windfeldern, 2. im Wave-Mode zur Messung der Wellenhöhe auf der Meeresoberfläche und 3. als abbildender SAR-Sensor mit einer räumlichen Auflösung von etwa 30 m. AMSR (Advanced Microwave Scanning Radiometer): Sensor an Bord von ADEOS-II zur Messung von geophysikalischen Parametern mit überwiegend Wasserbezug (Wasserdampf, Niederschlag, Windgeschwindigkeit in Meeresoberflächennähe). Anomalie: allgemeine Bezeichnung für die Abweichung von der Regel. Der Anomaliebegriff wird in der Klimatologie häufig benutzt, um z.B. die Abweichung von der durchschnittlichen Niederschlagsmenge darzustellen (extreme Trockenheit oder Feuchte). anthropogen: durch den Menschen verursacht oder als Ergebnis menschlicher Aktivitäten gedeutet. Heute spricht man auch bereits von einem anthropogenen Zeitalter. Antizyklone (siehe auch Hochdruckgebiet): ein Hochdruckgebiet, in dem Winde auf der Nordhalbkugel im Uhrzeigersinn und auf der Südhalbkugel entgegen dem Uhrzeigersinn wehen. Aqua: polarumlaufender Satellit im Rahmen von EOS zur Ableitung genauer ozeanographischer und atmosphärischer Messdaten. Äquatorialer Gegenstrom: ostwärts gerichteter Meeresstrom, der als schmaler und langsam fließender Ast der tropischen Strömungskreise angesehen wird. Durch ihn werden Anteile der westwärts transportierten Wassermassen des Nord- und des Südäquatorialstromes zurück verfrachtet.
Glossar
Argo-Bojen: seit 2000 im Aufbau befindliches, multinationales System von Treibbojen (floats) zur Messung von Temperatur, Salinität und Wasserströmung der obersten Wasserschicht (ca. 2 km mächtige Profilmessungen). Enge Beziehung zur Treibbojenflotte des Satelliten Jason. Bestandteil der Klima- und Meeresbeobachtungssysteme (Global Climate Observing System/Global Ocean Observing System GCOS/GOOS) und liefert Daten für CLIVAR (Climate Variability and Predictability Experiment) und GODAE (Global Ocean Data Assimilation Experiment). ARGOS-DCS (-Remote Data Collection System): Telemetriekommunikationspaket zur Weiterleitung der Daten von Messbojen (ArgoBojen) und anderen weit verteilten automatischen Messeinrichtungen. Das ARGOS-DCS befindet sich an Bord der NOAA-Satelliten und der geostationären Satelliten (METEOSAT, GOES). ASAR (Advanced Synthetic Aperture Radar): ein moderner aktiver C-Band-Radarsensor (5 331 GHz) auf ENVISAT. ASTER (Advanced Spaceborne Thermal Emission and Reflection Radiometer): Instrument zur bildhaften Darstellung von Landoberflächentemperatur, Orographie, Emissionsvermögen und Reflektionsverhalten auf dem amerikanischen Terrasatelliten (Pendant zu Aqua). atmosphärische Fenster: Bereiche des elektromagnetischen Spektrums, in denen Strahlung nur schwach in der Atmosphäre absorbiert wird. Wellenlängenbereiche innerhalb derer die Atmosphäre für solare Ein- bzw. terrestrische Ausstrahlung durchlässig ist, treten dort auf, wo die Strahlungsabsorption durch Wasserdampf, Kohlendioxid und Ozon klein ist. Von Bedeutung sind die beiden Infrarotfenster in den Wellenlängenbereichen 3,4–4,1 μm und 8–13 μm. Der Wellenlängenbereich von 10,5–12,5 μm wird als Wasserdampffenster bezeichnet. atmosphärische Grenzschicht: im Mittel 1000 m mächtige Schicht der Atmosphäre, in unmittelbarem Kontakt zur Erdoberfläche. Aufgrund der Rauhigkeit der Erdoberfläche und der daraus resultierenden Reibung herrscht in ihr eine ungeordnete turbulente Strömung vor. In der atmosphärischen Grenzschicht
Glossar
findet der gesamte vertikale Austausch von Wärme, Wasserdampf und Impuls zwischen Erdoberfläche und Atmosphäre statt. Auftriebsgebiete: Meeresgebiete, in denen kalte Tiefenwässer aus ca. 100–300 m Tiefe nach oben steigen und die von Winden horizontal verfrachteten warmen Oberflächenwässer ersetzen (upwelling). Das aus Gründen der Massenerhaltung aufsteigende Wasser ist bis zu 8 °C kälter als das Ozeanwasser der Umgebung. Solche Gebiete befinden sich vor allem an den Westseiten der Kontinente (Kalifornien/Oregon, Peru/Nordchile, NW- und SWAfrika) und in allen drei Ozeanen entlang des Äquators (im Nordbereich des Äquatorialen Gegenstroms). AVHRR (Advanced Very High Resolution Radiometer): abbildender multispektraler Sensor aus der NOAA-Satellitenserie mit einer räumlichen Auflösung von etwa 1 km im Subsatellitenpunkt. Er liefert die zurzeit längste Datenreihe aus dem Weltall. B Bathymetrie: Messverfahren und Messmethoden zur Bestimmung der Wassertiefe, meistens auf Basis der Schallausbreitung im Wasser (z.B. Echolotsysteme auf Schiffen, die vertikal oder fächerartig Schallimpulse aussenden und deren Laufzeit zwischen dem Schwingersystem und dem Gewässergrund messen). biogeochemische Kreisläufe: Kreisläufe von Chemikalien wie Kohlenstoff, Stickstoff, Sauerstoff und Phosphor im Erdsystem, die für die Lebewesen und lebenserhaltenden Prozesse notwendig sind. C CCD (Charge Coupled Devices): Flächen- oder zeilenhaft angeordnete Sensorelemente in opto-elektronischen Abtastern zur Bildaufnahme. Ein Vorteil dieser Aufnahmetechnik ist, dass eine gesamte Bildzeile gleichzeitig erfasst wird und nicht wie bei opto-mechanischen Systemen (Pushbroom-Scanner, Landsat) ein Zeitversatz entsteht. CHAMP (Challenging Mini-Satellite Payload for Geophysical Research and Application): deutsches Satellitenprojekt zur Bestimmung des Gravitationsfeldes und Magnetfeldes der Erde, zur Ermittlung der Verteilung von Temperatur,
327
Feuchte und Druck in Tropo- und Stratosphäre sowie der Elektronendichte in der Ionosphäre. CLIVAR (Climate Variability and Predictability Experiment): internationales Programm zur Erforschung von Klimavariabilität und -vorhersage in Zeitskalen von Monaten bis Dekaden sowie der anthropogenen Klimabeeinflussung. CLIVAR ist eine der wichtigsten Komponenten des WCRP und wurde 1995 mit einer Laufzeit von 15 Jahren gestartet. Coriolis-Kraft: Bewegt sich ein Teilchen auf der sich drehenden Erde von einem Punkt zum anderen, so wird es abgelenkt. Die Kraft, die dies bewirkt, wird Coriolis-Kraft genannt (nach Gaspard Gustave de Coriolis). Auf der Nordhalbkugel geschieht die Ablenkung nach rechts, auf der Südhalbkugel nach links. Ein Beobachter, der sich nicht auf der drehenden Erde befindet, sieht das Teilchen sich geradlinig durch den Raum bewegend. Coastal Zone Color Scanner (CZCS): erstes Satelliteninstrument, das speziell für die Beobachtung der Ozeanfarbe gebaut wurde. Ist speziell für den Einsatz über Wasser optimiert (installiert auf dem Wettersatelliten Nimbus-7 der NASA). CTD: Bezeichnung für Conductivity (Leitfähigkeit), Temperature (Temperatur), Depth (Tiefe). Ein ozeanographisches Standardinstrument zur Messung der Leitfähigkeit, Temperatur und Wassertiefe. Mittels der Leitfähigkeit wird unter Berücksichtigung von Temperatur und Druck der Salzgehalt ausgerechnet. D Deckschicht (ozeanisch): auch isotherme Deckschicht genannt. Oberste Wasserschicht, die über eine bestimmte Fläche und Wassertiefe gleichmäßige Temperaturen ausweist. In den Tropen ist die bis über 25° C warme Deckschicht je nach Strömungsbedingungen bis zu 200 m mächtig. Die Untergrenze der Deckschicht bildet die Thermokline. DMSP (Defense Meteorological Satellite Program): meteorologisches Satellitenprogramm der U.S. Air Force. DMSP zeichnet im sichtbaren bis infrarotnahen Band (0,4 bis 1,1 μm) sowie im thermisch-infraroten Band (ca. 8 bis 13 μm) bei einer Auflösung von etwa 3 km auf. Die Daten sind zu einem großen Teil auch zivil zugänglich.
328
Dendrochronologie: Methode, die zur Altersbestimmung Jahresringe von Bäumen benutzt. Abstand der Jahresringe wird zudem als Temperaturindikator herangezogen. Diatomeen: Kieselalgen, die ca. seit dem Lias bekannt sind. Einzellige, photosynthetisch aktive Organismen, deren Zellwand aus amorphem Quarz und geringen Mengen Cellulose besteht. Diatomeen bilden häufig Kolonien und leben sowohl in Süß- als auch in Salzwasser. Wenn sie frei treibend in den oberen Schichten der Wassersäule vorkommen, sind sie Bestandteil des Planktons. Im Ozean kommen Diatomeen massenhaft in den küstennahen Gewässern der Kontinentalschelfe vor sowie in den äquatorialen und polaren Auftriebsgebieten. Mit anderen Planktonarten bilden sie das erste Glied der Nahrungskette im Meer. Ihre Photosynthesetätigkeit hat entscheidend zum Sauerstoffgehalt der Atmosphäre beigetragen. Doppler-Radar: häufig für Geschwindigkeitsmessungen von Objekten verwendet. Bei diesem Radar strahlt der Sender elektromagnetische Wellen auf einer festen Frequenz aus. Signale, die von sich relativ zur Antenne bewegenden Objekten reflektiert werden, besitzen aufgrund des Doppler-Effekts eine andere Frequenz. Das Verhältnis von Frequenzunterschied zu Sendefrequenz ist gleich dem Verhältnis von Zielobjektgeschwindigkeit zu Lichtgeschwindigkeit. Downwelling (Absinken): Bezeichnung für ein Zirkulationsmuster im Ozean, bei dem Oberflächenwasser vertikal in tiefere Schichten des Ozeans verlagert wird. Das Absinken ereignet sich dort, wo Winde Oberflächenwasser gegen eine Küste treiben oder gegen eine andere, gegenläufige Wassermasse. Im Unterschied zum Upwelling sind Gebiete mit Absinktendenzen durch geringe biologische Produktivität gekennzeichnet. 500-hPa-Druckniveau: auf diesem Druckniveau liegt die Hälfte der Masse der Atmosphäre jeweils unter und über dieser Fläche. Das 500 hPa-Niveau ist wichtig für das Wettergeschehen in tieferen Schichten, da die Winde in diesen Höhen die Sturmbahnen in tieferen Schichten bestimmen und damit eine enge Korrelation mit dem bodennahen Wettergeschehen haben. Die 500-300 hPa-Flächen sind das Niveau der Strahlströme (Jetstreams).
Glossar
E Earth Observing System (EOS): Programm der NASA zur Langzeitbeobachtung des Klimas, der marinen und terrestrischen Ökosysteme (wichtige EOS-Satelliten: Aqua, Aura, ICESat, Landsat 7, SORCE und Terra). Eisbohrkern: Methode in der Paläoklimatologie zur Ableitung von Proxydaten, um Klimaänderungen zu rekonstruieren. Eisbohrkerne werden in den Zentralbereichen von polaren Eisschilden und Eiskappen (Antarktis, Grönland) gezogen. Man geht von einer jährlichen Akkumulation mit nachweisbarer Jahresschichtung und der Abwesenheit von Schmelzwasser aus. Die Analyse kleiner Luftporen im Eisbohrkern liefert Daten über die Zusammensetzung der Atmosphäre zum Zeitpunkt der Schneeakkumulation bzw. Eisentstehung. Das Verhältnis der Sauerstoffisotopen (18O/16O) gibt Aufschluss über die Paläotemperatur, der Aciditätsindex (gemessen über die elektrische Leitfähigkeit) über die im Eis enthaltenen Gase aus Vulkanausbrüchen, und der Dust Veil Index (DVI) liefert Aussagen über die ebenfalls im Eis enthaltenen Staubpartikel (z.B. aus Vulkanausbrüchen). Ekman-Spirale: nach Vagn Walfried Ekman geprägter Begriff für die Tiefenabhängigkeit von Wasserbewegungen im Meer, die sich in einer vertikalen Spirale äußert. Elektrische Leitfähigkeit: Die Leitfähigkeit von Meerwasser ist von der Anzahl gelöster Ionen pro Volumeneinheit (Salinität) und der temperatur- und dichtebeeinflussten Beweglichkeit der Ionen abhängig. Die Leitfähigkeit wird in mS/cm (milli-Siemens pro Zentimeter) gemessen. ETM+ (Enhanced Thematic Mapper Plus): opto-mechanisches Abtastsystem an Bord von Landsat-7. ENSO: Abkürzung, die sich aus „El Nino“ und „Southern Oscillation“ zusammensetzt. ENSO ist der Ausdruck der zurzeit für das ozeanographische-meteorologische Phänomen (Wechsel von El Niño- und La Niña-Ereignissen und der normalen Phase) benutzt wird. Dabei steht El Niño und La Niña für die ozeanische und Southern Oscillation (SO) für die atmosphärische Komponente. SO stellt eine Art Druckschaukel zwischen dem südostasia-
Glossar
tischen Tiefdruckgebiet und dem südostpazifischen Hochdruckgebiet dar. Entwaldung: Prozesse der Umwandlung von waldbedecktem Land zu dauerhaft waldfreiem Land. Die Entwaldung führt in zweierlei Hinsicht zur Verstärkung des Treibhauseffektes: 1. Durch Verbrennen oder Abbau des Holzes wird Kohlendioxid freigesetzt. 2. Bäume, die einstmals der Atmosphäre Kohlendioxid entzogen haben, sind nicht mehr vorhanden und tragen nicht mehr zur Speicherung (Senke) des Kohlendioxids bei. ENVISAT (Environment Satellite): größter je in Europa gebauter Erdbeobachtungssatellit mit der Aufgabe globale Umweltveränderungen zu beobachten. ERS (European Remote Sensing Satellite): Es gibt zwei Satellitensysteme: ERS-1 und ERS-2 (Starts: 1991 bzw. 1995). Wichtigstes Instrument ist ein SAR, das eine 30x30m-Bodenauflösung erreicht. Es liefert Tag und Nacht und unabhängig von der Witterung Farbbilder von den Meeren, Küsten- und Polareisbereichen sowie vom Festland (wichtige Erkenntnisse zur Antarktis via ERS). euphotische Zone: oberste Schicht des Ozeans (bei sehr klarem Wasser bis ca. 100 m), in der das einfallende Licht Photosynthese wirksam ist und bevorzugt in Upwelling-Zonen eine starke Primärproduktion bewirkt. F Forcing: bezeichnet einen „Antrieb(sfaktor)“ oder eine „Auslösekraft“ und wird im Bereich der Klimaforschung auf Systeme bezogen. Man unterscheidet in einem System externes und internes Forcing. Externes Forcing bezeichnet hierbei Mechanismen bzw. Faktoren, die von Veränderungen im System nicht beeinflusst werden. In Bezug auf das Klimasystem werden beispielsweise Änderungen in der Solarstrahlung als externes Forcing bezeichnet. Zu internem Forcing gehören Vulkanausbrüche, biochemisches Forcing, Änderungen in der Eisbedeckung oder CO2-Emissionen. Als weiteres langfristiges internes Forcing gelten auch die Plattentektonik oder Änderungen in der Polarität des Erdmagnetfeldes. Front: Luftmassengrenze in der Troposphäre mit starkem Temperaturunterschied (Unstetigkeitsfläche in der Temperaturverteilung). Das
329
vereinfachte Modell der Front beschreibt eine geneigte barokline Schicht, die zwei Luftmassen mit unterschiedlicher Dichte und Temperatur trennt. Man unterscheidet Kaltfront und Warmfront. Fronten entstehen gekoppelt in Zyklonen, die auf der Westseite polare Luftmassen nach Süden und auf der Ostseite tropische Luftmassen nach Norden führen (Nordhemisphäre). Frühwarnsystem (Early Warning System, EWS): Einrichtungen bzw. Systeme, die eventuelle Gefahren (z.B. Dürren oder Hurrikane) frühzeitig als solche erkennen, und möglichst schnell (realtime) darüber informieren. EWS dienen der Gefahrenabwehr. G gekoppeltes Modell: auch gekoppeltes OzeanAtmosphäre-Modell genannt. Im Zusammenhang mit der Modellierung von Klima ist damit ein numerisches Modell gemeint, das sowohl atmosphärische als auch ozeanische Bewegungen und Temperaturen simuliert; berücksichtigt die wechselseitigen Effekte der beiden Komponenten. geostationäre Satelliten: Satelliten, die immer über demselben Punkt der Erdoberfläche liegen. Die Satelliten haben die gleiche Winkelgeschwindigkeit um die Erdachse wie die Erde. Zentrifugalkraft (abhängig von der Drehgeschwindigkeit) und Erdanziehung (abhängig vom Gewicht) müssen sich gegenseitig aufheben (z.B. METEOSAT 6 in ca. 35 800 km Flughöhe). GNSS (Global Navigation Satellite System): Bezeichnung für ein weltweit verfügbares System zur Positions- und Zeitbestimmung, das aus mehreren Satellitenkonstellationen sowie deren Komponenten besteht. Die erste Stufe (GNSS 1) basiert auf den vorhandenen Systemen GPS (amerikanisches System) und GLONASS (russisches System). Im Jahr 2002 wurde beschlossen im Rahmen von GNSS 2 ein eigenständiges ziviles europäisches Satellitennavigationssystem unter der Bezeichnung Galileo aufzubauen. GPS (Global Positioning System): Satellitengestütztes Navigationssystem. Vollständige Bezeichnung: NAVSTAR (Navigation System with Time and Ranging). Es wird seit Mitte der 70er-Jahre aufgebaut, unterhalten und weiterentwickelt.
330
GOOS (Global Ocean Observing System):. ein noch im Aufbau befindliches internationales Beobachtungssystem der Ozeane. Es stehen Fragen zu Ozean-Atmosphäre-Wechselwirkungen im Vordergrund. GRACE (Gravity Recovery and Climate Experiment): Projekt zur Bestimmung des irdischen Schwerefeldes und zur Beschreibung von Austauschvorgängen zwischen Land, Ozean und Atmosphäre (Nachfolgeprojekt zu CHAMP). Ziel ist es, ein hoch genaues Geoid zu erstellen.
H Halokline: Sprungschicht des Salzgehalts im Ozean in einer Tiefe von 300 bis 1 000 m. In ihr vollzieht sich eine starke vertikale Änderung der Salzkonzentration. In tropischen Breiten trennt sie salzreiches Oberflächenwasser von relativ salzarmem Tiefenwasser, in hohen Breiten ist das Oberflächenwasser hingegen relativ salzarm. HIRS (High-Resolution Infrared Radiation Sounder): Instrument auf NOAA-Satelliten, erfasst die Energie, die von der Atmosphäre emittiert wird, mit dem Ziel, ein vertikales Temperaturprofil von der Erdoberfläche bis in 40 km Höhe zu erstellen. Messungen werden in 20 Spektralbereichen des Infrarotbereichs durchgeführt. Hochdruckgebiet (Antizyklone): Luftmasse, in der hoher Luftdruck herrscht (in Bodennähe meist >1 000 hPa). Vom Zentrum nach außen nimmt der Druck ab, entsprechend strömt in Bodennähe Luft zum tiefen Druck hin ab (Divergenz). Auf der Nordhalbkugel durch die Coriolis-Kraft nach rechts abgelenkt. Nach ihrer Entstehung unterscheidet man zwei Typen von Hochs: 1. dynamische oder warme Hochs, die hoch (mehrere tausend Meter) in die Atmosphäre reichen und nahezu stationär und lange wetterwirksam sind (auch der subtropisch-randtropische Hochdruckgürtel gehört zu diesem Typ) und 2. thermische oder Kältehochs, die aus Kaltluftmassen von sehr geringer vertikaler Mächtigkeit bestehen und nicht sehr beständig sind(z.B. Polargebiete). Hurrikan: Synonym für einen tropischen Wirbelsturm. Regionale Begriffe sind: Taifun (China, Japan), Zyklon (Bengalen), Willy-Willy (Australien).
Glossar
hyperspektrale Scanner: abbildendes Spektrometer, das multispektrale Daten in sehr engen Spektralbereichen des sichtbaren Lichts, des nahen und mittleren Infrarots aufzeichnet. Allgemein werden 30–200 aufeinanderfolgende Bänder genutzt, um ein nahezu kontinuierliches Spektrums für jedes Bildelement abzuleiten. Damit können Objekte und deren Zustand genauer klassifiziert werden (MODIS, Hymap, Hyperion).
I IKONOS: erster kommerzieller Satellit mit einer räumlichen Auflösung von 1 m im panchromatischen Bereich und 4 m im multispektralen (Start im September 1999). Innertropische Konvergenzzone (ITC): oder äquatoriale Tiefdruckrinne ist; ein die Erde umspannendes Band tiefen Luftdrucks über den Gebieten mit den am stärksten erwärmten Wasser- und Landmassen in den Tropen. In der durch ein Luftdruckminimum geprägten ITC findet ein Zusammenströmen (Konvergenz) der sich hier auflösenden SO- und NO-Passate statt. Die geographische Lage der ITC (steiler Einfallswinkel der Sonnenstrahlen) und die Konvergenzvorgänge führen zu aufsteigender Luftbewegung. Im Mittel liegt sie bei 5° Nord. interannuell: in der Klimatologie häufig verwendet für die Veränderung des Atmosphärenzustands (engl. interannual) von „Jahr-zu-Jahr“. Inversion: als Grenze wirkende Luftschicht in der Atmosphäre, innerhalb derer die Temperatur mit der Höhe nicht ab- sondern zunimmt (Temperaturumkehr). Sie verhindern hoch reichende konvektive Vorgänge. Inversionen entstehen durch das Übereinanderführen verschiedener Luftmassen, durch die Ansammlung kalter Luft am Boden (Strahlungsinversion) und durch das Absinken sich erwärmender Luftmassen in Hochdruckgebieten (Absinkinversion). J Jason-1: amerikanisch-französischer Satellit mit ozeanographischer Ausrichtung (Start im Dezember 2001, Nachfolge- und Parallelprojekt zu Topex-Poseidon). Jetstream (Strahlstrom): Luftströmung mit sehr hohen Windgeschwindigkeiten (bis ca. 600
Glossar
km/h) in der oberen Troposphäre oder unteren Stratosphäre, die durch starke horizontale Temperaturunterschiede und Einfluss der Coriolis-Kraft ausgelöst wird. Auf beiden Hemisphären sind folgende Jetstreams zu finden: • Subtropenjetstream (STJ) über dem subtropischen Hochdruckgürtel etwa längs einer gedachten Linie von den Bermudas über die Kanaren, Nordafrika, den Persischen Golf, Indien, Südchina, den Pazifik bis Kalifornien. Auf der Nordhalbkugel liegt er im Sommer konstant auf ca. 40° N und im Winter ebenfalls konstant auf 30° N. Die mittlere Höhe liegt etwa 12 km über Grund, knapp unter der dortigen Tropopause • Polarfrontjetstream (PFJ, Höhe ca. 10 km) in den höheren Mittelbreiten (zwischen 50° und 75° Breite). Seine Lage ist eng an die der Polarfront gekoppelt und unterliegt deshalb starken Schwankungen. K Kalibrierung: Abgleichvorgang der Messgenauigkeit eines Instruments mit einem bekannten Standard. Kondensation: Übergang des Wassers vom gasförmigen (Wasserdampf) in den flüssigen Zustand. Die Energie, die für die Verdunstung benötigt und als latente Wärme im Wasserdampf gespeichert war, wird wieder freigesetzt (ca. 585 Kalorien pro Gramm Wasser bei einer Temperatur von 20 °C). Konvektion: Bezeichnung für den Prozess aufsteigender Luftmassen. L langwellige Strahlung: Strahlung, deren Wellenlängen größer als 4 μm ist; entspricht der Strahlung, die von der Erde und der Atmosphäre ausgesandt wird. Laser (light amplification by stimulated emission of radiation): bedeutet eine Lichtverstärkung durch stimulierte Strahlungsfreisetzung. Laserlicht kann im Spektralbereich zwischen Infrarot- und Ultraviolettstrahlung erzeugt werden und ist monochromatisch (eine Spektrallinie) sowie kohärent(alle Wellen bzw. Photonen breiten sich phasengleich aus). Aus diesem Grund lässt sich Laserlicht mit extrem hoher Intensität, äußerst geringer Strahlaufspaltung und hoher Farbreinheit (Frequenzschärfe) erzeugen.
331
M Meereis: bildet sich auf den Meeren bei etwa –1,9° C; in der Ostsee liegt der Gefrierpunkt bei etwa -0,53° C. Der unterschiedliche Gefrierpunkt ergibt sich aus dem Salzgehalt des Meerwassers, der in der Ostsee wesentlich geringer ist als in den offenen Meeren, wo der durchschnittliche Salzgehalt 35 Promille beträgt. Auf der Nordhalbkugel unterliegt die Meereisbildung auch aufgrund der Land-Meer-Verteilung enormen Schwankungen. Der Mindestwert liegt mit rund 8,2 Mio m2 im September, während das Maximum der Eisbedeckung mit etwa 16,4 Mio m2 im März oder April zu erwarten ist. Die Südhalbkugel ist im Jahresmittel mit circa 22,6 Mio m2 Meereis bedeckt. Meeresoberflächentemperatur (Sea Surface Temperature, SST): Die durchschnittliche Meerestemperatur beträgt 3,8 °C; sogar am Äquator beträgt die Durchschnitttemperatur der gesamten Wassersäule lediglich 4,9 °C. In vielen Ozeanregionen nehmen sowohl die Temperatur wie auch der Salzgehalt mit der Tiefe ab. Eine Temperaturabnahme bewirkt eine Dichtezunahme, folglich führt die gegebene Temperaturschichtung zu einer stabilen Dichteschichtung. Anderseits bewirkt eine Salzabnahme eine Abnahme der Dichte, was zu einer unstabilen Dichteschichtung führen würde. Da aber im Meer die Auswirkung einer Temperaturabnahme stärker ist als der Effekt der Salzabnahme, ist der Ozean stabil geschichtet. Die SST wird global durch den Wärmeüberschuss der Tropen gegenüber den höheren Breiten bestimmt. Daraus ergibt sich eine Differenz der SST zwischen Äquator und Polen von ca. 30° C. In den Tropen liegen die höchsten SST um 28° C, maximal 30° C. Dies ist beträchtlich kühler als die üblicherweise auf Land gemessene Höchsttemperatur von über 50° C. Als wichtiger Regulationsmechanismus für die maximale Ozeantemperatur wird die Wolkenbildung über den Ozeanen angenommen. Die Wolkenbildung nimmt bei SST von über 27,5° C stark zu. Die dichtere Wolkendecke erhöht die Albedo über dem Ozean und verhindert somit eine weitere Erhöhung der SST. MERIS (Medium Resolution Imaging Spectrometer): Nutzlast auf ENVISAT. Sensor wurde überwiegend für die Ozean- und Vegetationsüberwachung entwickelt. Sein abbildendes
332
Spektrometer misst die von der Erde reflektierte Sonnenstrahlung in 15 Spektralbändern aus dem VIS (sichtbaren Licht)und dem nahen Infrarot. MHS (Microwave Humidity Sounder): Mikrowellensensor auf den NOAA-TIROS- und MetOp- Satelliten zur Messung von atmosphärischen Feuchtigkeitsprofilen, Wolken- und Niederschlagsparametern. Mikrowelle: Bereich der elektromagnetischen Strahlung mit Wellenlängen zwischen ca. 1 000 μm und 1 m. Entspricht Frequenzen zwischen 300 GHz und 300 MHz. Strahlung dieser Art wird von den Materialien an der Erdoberfläche aufgrund ihrer Temperatur abgegeben. Diese Signale werden mit Mikrowellenradiometern empfangen und beinhalten Informationen über Schneebedeckung, Bodenfeuchte usw. MIPAS (Michelson Interferometer for Passive Atmospheric Sounding): horizontsondierendes (Limb Sounding) IR-Interferometer auf ENVISAT. Monsun: tropische Winde, die ihre Richtung jahreszeitlich um wenigstens 120° ändern. Sie überlagern die meridionale Hadley-Zirkulation und sind abhängig von der Wanderung der ITC. Der Wintermonsun über Indien ist gleichzusetzen mit dem tropischen Nordostpassat, der trockene, kühle Kontinentalluft über den indischen Subkontinent zur ITC führt. Im Sommer wandert die ITC über Indien nach Norden bis zum Himalaya, wodurch der südhemisphärische Südostpassat die Nordhalbkugel erreicht und aufgrund der Rechtsablenkung durch die Coriolis-Kraft auf der N-Halbkugel seine Richtung auf SW ändert. Die ozeanische Herkunft der Luftmassen führt über Indien und auch über SO-Asien zu den lebenswichtigen Monsunniederschlägen. N Nettoprimärproduktion (NPP): Nettomenge an CO2, die von der Vegetation in einer bestimmten Region aufgenommen wird; wichtiges Element im Gleichgewicht des Kohlenstoffaustausches zwischen Erde und Atmosphäre. O OCO (Orbiting Carbon Observatory): Die Mission im Rahmen von ESSP soll Daten über das
Glossar
atmosphärische CO2 liefern. In Verbindung mit Bodenmessungen erwartet man Aufschlüsse über natürliche und anthropogene CO2-Quellen und -Senken. Hoch aufgelöste globale Karten sollen die Kohlendioxid-Konzentrationen darstellen. OSTM (Ocean Surface Topography Mission): Nachfolgemission zu Jason-1. OSTM erlaubt operationelle Bestimmungen der Höhe des Meeresspiegels zu Forschungszwecken und für kommerzielle Anwendungen. Oszillation: zeitlich periodische Änderung einer oder mehrerer physikalischer Größen um einen Mittelwert, im weiteren Sinne auch Vorgänge, deren Zeitabhängigkeit mehr oder weniger stark von einer genauen Periodizität abweicht (Schwingungen). P Paläoklima: Klimaentwicklung der erdgeschichtlichen Vergangenheit, die nur durch Proxidaten (indirekte Daten) erschlossen werden kann. Als besonders geeignete Proxidaten gelten Sedimente mit Ablagerungen von tierischen und pflanzlichen Organismen, Lagerstätten, vulkanischen Ablagerungen, Meeresund Seespiegelstände, glaziale Ablagerungen, Periglazialerscheinungen, fossile Bodenhorizonte, Lößstratigraphien, Gletscherbewegungen, Inlandeisverbreitung und Flussterrassen Passate: bodennahe, beidseitig des Äquators bis ca. 25° N und S auftretende Winde, die zum Druckausgleich aus den Hochs der Wendekreise in Richtung der ITC strömen. Für die Südhalbkugel folgt daraus eine allgemeine Strömungsrichtung Südost bis Süd aus dem pazifischen Hoch. NO-Passat (Nordhemisphäre) und SO-Passat (Südhemisphäre) wehen beständig und sind 20–25 km/h schnell. In den Passatzonen sinkt Luft ab. Luft, die aufgrund von Erwärmung des Bodens aufsteigt, wird deshalb am weiteren Aufstieg gehindert, kann nicht abkühlen und nicht kondensieren und somit keine Niederschlagswolken bilden (Passatinversion). Passatinversion: in der Nähe der Subtropenhochs in etwa 500 m Höhe. Die Inversion steigt zur ITC hin bis auf 2500 m an. Die Passatinversion trennt relativ wasserdampfhaltige und kühlere Luft in der unteren Schicht von etwas wärmerer und trockenerer Luft in der oberen
Glossar
Schicht. Diese Absinkinversion unterbindet das Aufsteigen von am Boden erhitzter Luft und damit die Ausbildung von Konvektionswolken, welche die Voraussetzung für Regen bilden. Photosynthese: wichtigste Stoffwechselreaktion chlorophyllhaltiger (autotropher) Organismen (Samenpflanzen, Farne, Moose, Algen, Cyanobakterien und andere phototrophe Bakterien), bei der aus anorganischen Stoffen unter katalytischer Mitwirkung des Blattgrüns und unter Ausnutzung der Sonnenenergie organische Stoffe (Kohlehydrate) aufgebaut werden. Plankton: Summe aller Organismen, die sich in Seen oder Ozeanen schwebend bzw. „dahintreibend“ aufhalten. Diese Mikroorganismen und kleinwüchsige Pflanzen und Tiere können sich nicht mit eigenen Mitteln und eigener Kraft fortbewegen oder Wasserströmungen widerstehen. Die zum Plankton gehörenden Lebewesen bezeichnet man als Planktonten oder Plankter. Man gliedert das äußerst heterogene Plankton nach Phytoplankton (pflanzliches Plankton) und Zooplankton (tierisches Plankton). Pleistozän: Eiszeitalter der jüngsten Erdgeschichte, das vor ca. 2,3 Mio. Jahren einsetzte und vor ca. 10 000 Jahren vom Holozän abgelöst wurde. Das Pleistozän ist durch wenigstens 4 Eiszeiten und dazwischenliegende Warmzeiten gegliedert. Pollenanalyse: Methode, welche die in Sedimenten (vorwiegend Mooren) enthaltenen Blütenstaubablagerungen zur Rekonstruktion früherer Vegetationsbestände auswertet. Diese lassen Rückschlüsse auf das jeweilige Klima zu (z.B. Haselzeit, Buchenklima, etc.) R Radar: aktives Verfahren; arbeitet mit Mikrowellenstrahlung einer bestimmten Frequenz im Bereich zwischen etwa 1 und 100 cm Wellenlänge. Da Mikrowellen Wolken, Dunst und Rauch durchdringen sind Radarverfahren unabhängig von der jeweiligen Wetterlage. Radiometer: Gerät zur Feststellung und Messung von Wärmeenergiestrahlung, insbesondere von Infrarotstrahlung. Die Messdaten dienen der Erzeugung von Infrarotbildern, die die Verteilung der Meeresoberflächentemperaturen und die Bewölkung darstellen können.
333
radiometrische Auflösung: Maß für die kleinste mit einem Fernerkundungssystem noch unterscheidbare elektromagnetische Strahlung. Sie ist abhängig vom Detektorsystem und beträgt. Zwischen 64 Klassen (6 Bit = 26) und 2 048 Klassen (11 Bit = 211) bei den neueren Systemen (z.B. Ikonos). Rossbreiten: Name für die Zone des subtropisch-randtropischen Hochdruckgürtels, der aus mehreren dynamischen und somit hochreichenden Hochdruckgebieten besteht. Es ist der Bereich, in dem der polwärtige Ast der Hadley-Zelle absteigt. Die absteigende Luft bewirkt Wolkenauflösung und in der Folge Niederschlagsarmut. Die Zone ist ausgesprochen windarm (Kalmenzone). Zur Zeit der Segelschifffahrt war ein Weiterkommen extrem erschwert, die mitgeführten Pferde (Rösser) verendeten oder mussten notgeschlachtet werden. Rückkopplung: in sich geschlossene Kette von Ursache und Wirkung. Allgemein funktionieren Rückkopplungen ausgehend von einer Zustandsgröße über Flüsse und Entscheidungsglieder (Regler) und wirken auf die Zustandsgröße zurück, so dass sich der Zustand ändert. Eine negative Rückkopplung gibt die Veränderung so weiter, dass sich die Veränderung gegensinnig zur ursprünglichen Veränderung ergibt. Sie wird demnach reduziert oder gedämpft. Eine positive Rückkopplung bewirkt, dass eine Zustandsveränderung so weitergegeben wird, dass sich eine gleichsinnige, noch stärker wirkende Veränderung ergibt. Positive Rückkopplungen neigen zu ungebremstem Wachstum, während negative Rückkopplungen das Wachstum regulieren bzw. ein System in stabilen Zustand halten.
S Salinität: kennzeichnet den Salzgehalt des Meerwassers (Angabe in Gramm / kg Meerwasser); wird überwiegend durch die Messung der elektrischen Leitfähigkeit gemessen. Meersalz, eine Mischung aus verschiedenen Salzen, entstammt vorwiegend aus Vulkanausbrüchen, chemischen Reaktionen zwischen Meerwasser und heißen, neu gebildeten Krustengesteinen sowie Verwitterungsvorgängen auf Land. Die Zusammensetzung des Meersalzes ist seit Hunderten von Millionen Jahren kons-
334
tant. Die Dichteunterschiede des Meerwassers werden weniger durch die Salinität als durch die Temperatur bewirkt. Wenn salzhaltigeres Wasser über salzärmerem Wasser zu liegen kommt, muss die Temperaturdifferenz zwischen beiden Wassermassen groß genug sein, um eine stabile Schichtung (weniger dichtes Wasser über dichterem Wasser) zu gewährleisten. Polnahes Meerwasser weist die höchsten Salzgehalte weltweit auf. SAR (Synthetic Aperture Radar): abbildendes Radarsystem mit Blick seitlich zur Flugrichtung. Dabei wird unter Ausnutzung der Satellitenbewegung die effektive Antennengröße (Apertur) synthetisch vergrößert, wodurch sich eine räumliche Auflösung ähnlich wie bei optischen Instrumenten erreichen lässt. SSH (Sea Surface Height): Abstand an einem bestimmten Punkt zwischen der Meeresoberfläche und einem Referenzellipsoid. Die Meeresspiegelhöhewird mithilfe der Satellitenaltimetrie bestimmt. System: Begriff, der den ganzheitlichen Zusammenhang von Dingen, Vorgängen oder Teilen beschreibt (z.B. in der Natur oder vom Menschen geschaffen: politisches System). Nach physikalischen und kybernetischen Verständnis die Zusammenfassung mehrerer, im Allgemeinen untereinander in Wechselwirkung stehender Komponenten zu einer als Ganzes aufzufassenden Einheit. Es werden offene und geschlossene Systeme unterschieden, je nachdem, ob das System mit der Umgebung in Wechselwirkung steht oder nicht (Energieund Materieaustausch). Bei der Betrachtung des Klimasystems sind neben den statischen besonders die dynamischen Aspekte wichtig. T Telekonnektion: Bezeichnung für atmosphärische Wechselwirkungen zwischen weitgehend getrennten Regionen der Erde. Meist mit Witterungsanomalien einhergehend. Der britische Klimatologe Sir Gilbert Walker wies zu Beginn des 20. Jh. auf Zusammenhänge von Witterungserscheinungen und Klimaanomalien in weit auseinander liegenden Gebieten hin. Transmissiongrad: kennzeichnet die Durchlässigkeit der Atmosphäre für Sonnenstrahlung. Er ist stark wellenlängenabhängig, als Folge der Absorptionseigenschaften der in der At-
Glossar
mosphäre vorkommenden Gase, insbesondere Wasserdampf, Kohlendioxid und Ozon. Außerdem absorbieren Stickstoff und Sauerstoff, die den größten Anteil in der Zusammensetzung der Atmosphäre ausmachen, die ultraviolette Strahlung unter 0,3 μm fast vollständig. Treibboje: mit der jeweiligen Meeresströmung oberflächennah treibende Boje zur Messung von Temperatur und anderen Parametern. Satelliten können ihre Driftbahn verfolgen und die von der Boje ausgesandten Daten empfangen. Tropische Zirkulation: Die tropische Zirkulation der Atmosphäre besteht modellhaft aus einer meridionalen (Hadley-Zelle) und einer zonalen (Walker-Zirkulation) Zirkulation. Beide Zirkulationsmuster haben thermische Ursachen. V Verdunstung: Wechsel des Aggregatzustands (z.B. von Wasser) von flüssig zu gasförmig. Wasser verbraucht hierbei Wärmeenergie (Verdunstungskälte stellt sich am Ort der Verdunstung ein), die bei der Kondensation wieder frei wird. W Weltorganisation für Meteorologie (WMO): 1951 gegründete Unterorganisation der Vereinten Nationen (UN) mit Sitz in Genf. Die Aufgaben der WMO: 1. Koordination internationaler Zusammenarbeit in den Bereichen Meteorologie und Hydrologie (Aufbau von Messnetzen), 2. Standardisierung meteorologischer Beobachtungen, ihrer Auswertung und Publikation, 3. Verbesserung und Beschleunigung des weltweiten Datenaustauschs. X XBT (Expendable Bathythermograph): Verbrauchsbathythermograph, der von Schiffen ausgesetzt wird. Es ist ein profilierendes Instrument zur Echtzeitmessung der tiefenabhängigen Temperatur in den Ozeanen.
Akronyme
Diese alphabetische Liste enthält die im vorliegenden Buch verwendeten Abkürzungen. Weitere Begriffe und Fachbezeichnungen können in den Glossaren des IPCC (www.ipcc.ch) und weiteren einschlägigen Seiten im Internet nachgeschlagen werden.
AAMS AATSR ACMAD ACS ACSYS ADM-Aeolus AGRHYMET AIMES AIRS ALOS AMI AMMA AMOC AMP AMSR AND AO AOGCM AOPC APN APT AR4
Asian Aeronautical Meteorology Service Advanced Along Track Scanning Radiometer African Centre of Meteorological Application for Development Association of Caribbean States Arctic Climate System Study Atmospheric Dynamics Mission – Aeolus Regional Centre for Agricultural Meteorology and Hydrology Analysis, Integration and Modelling of the Earth System Atmospheric Infrared Sounder Advanced Land Observing Satellite Active Microwave Instrument African Monsoon Multidisciplinary Analysis Atlantic Meridional Overturning Circulation Applications of Meteorology Programme Advanced Microwave Scanning Radiometer ALOS Data Node Announcement of Opportunity Atmosphere-Ocean General Circulation Model Atmospheric Observation Panel for Climate Asia-Pacific Network for Global Change Research Automatic Picture Transmission IPCC Fourth Assessment Report
AREP ARGO ARGOS-DCS
ASAR ASCAT ASTER
ATN ATOVS ATS AVHRR BMBF BUFR C4MIP CACGP CALIPSO CAS CATCH CBS
Atmospheric Research and Environment Programme Array for Realtime Geostrophic Oceanography (Argos vieläugiger Riese in griech. Mythologie) Remote Data Collection System Advanced Synthetic Aperture Radar Advanced Scatterometer (EUMETSAT) Advanced Spaceborne Thermal Emission and Reflection Radiometer Advanced TIROSN Advanced TIROS Operational Vertical Sounder Application Technology Satellite Advanced Very High Resolution Radiometer Bundesministerium für Bildung und Forschung Binary Universal Form for data Representation Coupled Carbon Cycle Climate Model Intercomparison Project Commission on Atmospheric Chemistry and Global Pollution Cloud Aerosol Lidar and Infrared Pathfinder Satellite Observations WMO Commission for Atmospheric Sciences Coupling of the Tropical Atmosphere and Hydrological Cycle Commission for Basic Systems (of WMO)
336
CCD CDAS CDPT CEOP CEOS CERES CFMIP CGMS CHAMP CHRPT CIIFEN CILSS
CliC CLIPS CLIVAR CMA CMO CNES CNSA COMS COP COPES COSMIC
CSIRO
CWDS
Akronyme
Charge Coupled Devices Command and Data Acquisition Station China Delayed Picture Transmission Coordinated Enhanced Observing Period Committee on Earth Observation Satellites Clouds and the Earth’s Radiant Energy System Cloud Feedback Model Intercomparison Project Coordination Group for Meteorological Satellites Challenging MiniSatellite Payload China High Resolution Picture Transmission International Center on Research „El Niño“ Permanent InterState Committee for Drought Control in the Sahel (COMESA Common market for Eastern and Southern Africa) Climate and Cryosphere Project (WCRP) Climate Information and Prediction Services Climate Variability and Predictability Project (WCRP) China Meteorological Department Caribbean Meteorological Organization Centre National d’Etudes Spatiales China National Space Agency Communication, Oceanography and Meteorology Satellite Confernce of the Parties Coordinated Observation and Prediction of the Earth System Constellation Observing System for Meteorology, Ionosphere & Climate Commonwealth Scientific and Industrial Research Organisation (Australia) Cyclone Warning Dissemination System
DCP DIVERSITAS DLR
DMSP DOAS DoD DOE DPT DSB DVB EarthCARE EC ECMWF ECOWAS ECV EDC EMIC ENRICH ENSO ENVISAT EO EOC EOS EOS EOSDIS EPS ERBE ERBS ERS ESA ESSA ESSP ETM+
Data Collection Platform International Programme of Biodiversity Science Deutsches Zentrum für Luft und Raumfahrt (German Aereospace Centre) Defense Meteorological Satellite Program Differential Optical Absorption Spectroscopy Department of Defense (of the USA) U.S. Department Of Energy Delayed Picture Transmission Direct Sounder Broadcast Digital Video Broadcast Earth Clouds, Aerosol and Radiation Explorer European Commission European Centre for MediumRange Weather Forecasts Economic Community of West African States Essential Climate Variable (definiert von GCOS) EROS Data Centre (of the US Geological Survey) Earth system Model of Intermediate Complexity European Network for Research in Global Change El Niño Southern Oscillation Environmental Satellite (ESA) Earth Observation Earth Observation Center (of JAXA) Earth Observation Summit Earth Observing System Earth Observing System Data and Information System EUMETSAT Polar System Earth Radiation Budget Experiment (NASA) Earth Radiation Budget Satellite European Remote Sensing Satellite European Space Agency Environmental Science and Services Administration Earth System Science Partnership Enhanced Thematic Mapper Plus
337
Akronyme
EU EUMETNET EUMETSAT
FAO FAPAR FGGE FGGE FY G/T GAC GAIM GARP GCM GCM GCOS GCP GDS GECAFS GEO GEO GEOSS GEWEX GHG GMES GMS GNSS GOCE GODAE GOES GOMS GOOS
European Union Network of European Meteorological Services European Organisation for the exploitation of Meteorological Satellites Food and Agriculture Organization (UN) Fraction of Absorbed Photosynthetically Actice Radiation First GARP Global Experiment First GARP Global Experiment FengYun (FY1 und FY3 sunsynchronous, FY2 geostationary) Overall merit figure of a receiving system (dB/K) Global Area Coverage Global Analysis, Integration and Modelling Global Atmospheric Research Programme General Circulation Model global climate model Global Climate Observing System Global Carbon Project Global Data Stream Global Environmental Change and Food Systems Geostationary Earth Orbit Group on Earth Observation Global Earth Observation System of Systems Global Energy and Water Cycle Experiment (WCRP) Greenhouse Gas Global Change Programme Global Monitoring for Environment and Security Geosynchronous Meteorological Satellite Global Navigation Satellite System Gravity Field and Steady-State Ocean Circulation Explorer Global Ocean Data Assimilation Experiment Geostationary Operational Environmental Satellite Geostationary Operational Meteorological Satellite Global Ocean Observing System
GOS GOSAT GPCC GPM GPS GRACE GRDC GRP GRUAN GSICS GSN GSOP GTOS GTS GUAN GVAR GWP GWP GWSP HEPEX HiRID HIRS HRIDS HRIT HRPT HRUS HWRP HYDROS IABP IAHS IAI IASI
Global Observing System Greenhouse Gas Observing Satellite Global Precipitation Climatology Centre Global Precipitation Measurement mission Global Positioning System Gravity Recovery and Climate Experiment Global Runoff Data Centre GEWEX Radiation Panel GCOS Reference Upper-Air Network Global Space-Based Intercalibration System GCOS Surface Network Global Synthesis and Observations Panel Global Terrestrial Observing System Global Telecommunication System (of the WMO WWW) GCOS Upper Air Network GOES Variable Data Format Global Warming Potential Global Water Partnership Global Water System Project Hydrological Ensemble Prediction Experiment High Resolution Imager Data High Resolution Infrared Radiation Sounder (NOAA) High Resolution Image Dissemination Service High Rate Information Transmission High Resolution Picture Transmission High Rate User Station Hydrology and Water Resources Programme Hydrosphere State Mission International Arctic Buoy Programme International Association of Hydrological Sciences Inter-American Institute for Global Change Research Infrared Atmospheric Sounding Interferometer (EUMETSAT)
338
ICESat ICPAC ICSU IFAD IFOV IGAC IGAD IGBP IGeoLab IGOS IGRAC IHDP
IHE
IHO IHOPE IHP IIASA IMD INDOEX INSAT IOC IPAB IPCC IPY IRI IRS ISCCP
Akronyme
Ice, Cloud and Land Elevation SATELLITE (NASA) IGAD Climate Prediction and Application Centre International Council for Science International Fund for Agricultural Development Instantaneous Field Of View International Global Atmospheric Chemistry Intergovernmental Authority on Development International GeosphereBiosphere Programme (ICSU) International Geostationary Laboratory Integrated Global Observing Strategy International Groundwater Resources Assessment Centre International Human Dimensions Programme on Global Environmental Change Institute for Water Education (UNESCO) UNFCCCUnited Nations Framework Convention on Clinate Change International Hydrographic Organization Intergrated History of People on Earth International Hydrological Programme (UNESCO) International Institute for Applied Systems Analysis India Meteorological Department Indian Ocean Experiment Indian National Satellite Intergovermental Oceanographic Commission of UNESCO International Programme for Antarctic Buoys Intergovermental Panel on Climate Change International Polar Year International Research Institute for Climate and Society Indian Remote Sensing Satellite International Satellite Cloud Climatology Project
ISMASS ISRO ITOS IUGG JASON JAXA JERS JMA JPS JSC KARI KMA KNMI KOSC LAC LBR LEO LIDAR LRIT LRUS LST MAP MDD MDUS MetOp MetSat MERIS MHS MIPAS MJO MODAC MOP MOS MPT
Ice-Sheet Mass Balance and Sea Level Project of the SCAR India Space Research Organisation Improved TIROS Operational System International Union of Geodesy and Geophysics Joint Altimetry Satellite Oceanography Network Japan Aerospace Exploration Agency (formerly NASDA) Japanese Earth Resources Satellite Japan Meteorological Agency Joint Polar System Joint Scientific Committee Korea Aerospace Research Institute Korea Meteorological Administration Koninklijk Nederlands Meteorologisch Instituut Korea Ocean Satellite Center Local Area Coverage Low Bit Rate Low Earth Orbit Light Detecting and Ranging Low Rate Information Transmission Low Rate User Station Local Solar Time Mesoscale Alpine Programme Meteorological Data Distribution Medium Scale Data Utilisation Station Meteorological Operational Polar Satellite Meteorological Satellite (renamed Kalpana) Medium Resolution Imaging Spectrometer Microwave Humidity Sounder Michelson Interferometer for Passive Atmospheric Sounding Madden-Julian Oscillation Meteo/Ocean Data Application Center (Korea) Meteosat Operational Programme Marine Observatory Satellite Medium Resolution Picture Transmission
339
Akronyme
MSC MSG MSU MTG MTP MTSAT NA NAO NASA NASDA NCAR NCDC NCEP NEPAD NIR NMHS NOAA NPOESS
NPP NPP NRSA NRT NSIDC NWP OCGM OCO OECD OOPC OPAGIOS OSSE OSTM
Meteorological Satellite Center (Korea) Meteosat Second Generation Microwave Sounding Unit Satellite Instrument (NOAA) Meteosat Third Generation Meteosat Transition Programme Multifunctional Transport Satellite North Atlantic North Atlantic Oscillation National Aeronautics and Space Administration National Space Development Agency (of Japan) National Center for Atmospheric Research (USA) National Climatic Data Center (USA) National Center for Environmental Prediction New Partnership for Africa’s Development Near Infrared Spectral Range National Meteorological and Hydrological Service National Oceanic and Atmospheric Administration National Polar Orbiting Operational Environmental Satellite System Net Primary Productivity NPOESS Preparatory Program National Remote Sensing Agency (of India) NearRealTime National Snow and Ice Data Center Numerical Weather Prediction Ocean General Circulation Model Orbiting Carbon Observatory Organization for Economic Cooperation and Development Ocean Observations Panel for Climate Open Programme Area Group on the Integrated Observing Systems Observing System Simulation Experiment Ocean Surface Topography Mission
Processing & Archiving Centre (of ESA/Envisat) PAF Processing & Archiving Facilities (of ESA/ERS) PAGES Past Global Changes PARASOL Polarisation et Anisotropie des Réflectances au sommet de l’Atmosphère, couplées avec un Satellite d’Observation emportant un Lidar PDO Pacific Decadal Oscillation PDUS Primary Data User Station PGS Primary Ground Station POEM Polar Orbit Earth Observation Mission POES Polar Orbiting Operational Environmental Satellite POSEIDON Ocean Surface Topography Altimeter Experiment (NASA/CNES) R&D Research and Development R/SSC-CM Regional Specialized Satellite Centers for Climate Monitoring RDA Raw Data Acquisition station RosHydroMet Hydro Meteorological Service of the Russian Federation RosKosmos Aeronautics and Space Agency of the Russian Federation RTH Regional Telecommunication Hub (WMO WWW) SADC Southern African Development Community SALLJEX South American Low-Level Jet Experiment SAM Southern Annular ModesODES SAR Synthetic Aperture Radar SBSTA Subsidiary Body for Scientific and Technological Advice SCAR Scientific Committee on Antarctic Research SCIAMACHY Scanning Imaging Absorption Spectrometer for Atmospheric Cartography (ESA) SCOPE Scientific Committee on Problems of the Environment SCOR Scientific Committee on Oceanic Research SDUS Secondary Data User Station SEVIRI Spinning Enhanced Visible and Infrared Imager (EUMETSAT) SICA System for Central American Integration PAC
340
SMD SMOS SMS SNR SO SOLAS SOOP SOPAC SPARC SPOT SPREP SRES SSG SSH SSP SST START SWARM SYR TAO TAR TFSP THC THORPEX TIROS TOGA TOPC TOPEX TOS TOVS TRMM TSU TTL TWAS
Akronyme
Stored Mission Data Soil Moisture and Ocean Salinity Synchronous Meteorological Satellite Signal to Noise Ratio Southern Ocean Surface Ocean-Lower Atmosphere Study Ship of Opportunity Programme South Pacific Applied Geoscience Commission Stratospheric Processes And their Role in Climate Satellite Pour l’Observation de la Terre South Pacific Regional Environment Programme Special Report on Emission Scenarios (IPCC) Scientific Steering Group Sea Surface Height Sub Satellite Point Sea-Surface Temperature SysTem for Analysis, Research and Training The Earth’s Magnetic Field and Environment Explorers IPCC Synthesis Report Tropical Atmosphere and Ocean IPCC Third Assessment Report Task Force on Seasonal Prediction Thermohaline Circulation The Observing-System Research and Predictability EXperiment Television and InfraRed Observation Satellite Tropical Ocean and Global Atmosphere Terrestrial Observation Panel for Climate Topography Experiment TIROS Operational System TIROS Operational Vertical Sounder Tropical Rainfall Measuring Mision (NASA/JAXA) IPCC Technical Support Unit tropical tropopause layer Academy of Sciences for the Developing World
UARS UN UNEP UNESCO
UNFCCC USGS UV VAMOS WCASP WCDMP WCIRP WCP WCRP WDPMP WEFAX WG WGCM WGNE WGSF WGSIP WHO WMO WMP WOAP WOCE WSP WWRP WWW XBT
Upper Atmosphere Research Satellite United Nations United Nations Environment Programme United Nations Educational, Scientific and Cultural Organization United Nations Framework Convention on Climate Change US Geological Survey Ultraviolet Variability of the American Monsoon System WMO World Climate Applications and Services Programme WMO World Climate Data and Monitoring Programme World Climate Impact and Response Strategies Programme World Climate Programme World Climate Research Programme Natural Disaster Prevention and Mitigation Programme Weather Facsimile Working Group (IPCC Fourth Assessment Report) Working Group on Coupled Modelling Working Group on Numerical Experimentation Working Group on Surface Fluxes Working Group on Seasonal to Interannual Prediction World Health Organization World Meteorological Organization WCRP Modelling Panel WCRP Observations and Assimilation Panel World Ocean Circulation Experiment WMO Space Programme World Weather Research Programme World Weather Watch Expendable Bathythermograph
Index
A AATSR (Advanced Along Track Scanning Radiometer), siehe ENVISAT abbildendes Spektrometer 28 Abfall 270 Abflussspende, siehe ECV abgehende langwellige terrestrische Strahlung 78 ABI (Advanced Baseline Imager) 64 – siehe auch GOES-Programm absolute Feuchte 94 absolute Frostgrenze 143 absolute Vorticity 106, 114 Absorption 24, 78 Absorptionsbande 79, 85, 147 Absorptionskoeffizient 78 A1B-Szenario 181 AC (Radiation Budget Sensor) 64 Accumulation Mode 210 ACSYS 11 Adaptation 248 – siehe Klimapolitik Adaptation Fund 298 ADCS (Advanced Data Collection System), siehe MetOp-Programm, NPOESS-Programm additive Umweltschutztechnik 301 ADEOS (Advanced Earth Observing Satellite) 59 Adiabatik 149 adiabatische Prozesse 94 adiabatische Zustandsänderung 94 adiabatischer Temperaturgradient 94 Adipinsäuresynthese 173 ADM-Aeolus 51 Advektion (horizontaler Austausch) 86, 92 advektiver Luftmassentransport 94 Aerosol 11, 87, 180f – Sedimentationsgeschwindigkeit 210 Aerosoleigenschaft, siehe ECV Aerosolquelle, natürliche Anthropogene 210 Aerosol-Wolken-Interaktion 244f Agassizsee 259 Agenda-21 230 ageostrophische Bewegung 115 ageostrophische Komponente 149
ageostrophische Strömung 106 ageostrophischer Wind 105 Aggregatzustand 98 Agrargesellschaft 256 Ägypten 189 – siehe auch Flusstalkultur AIDS 222 Aikten-Klasse 210 Aktionsplan Anpassung 295 aktive Fernerkundungsmethode, siehe Laser, Radar aktuelle Evaporation 87 akuter Wassermangel 188 Albedo 80, 148 – spezifische 81 – siehe auch ECV Albedowert 81 Aleutentief 120 ALI (Advanced Land Imager), siehe EO-1-Programm Alkenon-Biomarker 255 allgemeine atmosphärische Zirkulation 80, 86, 109f Allgemeine Klimatologie 1 ALOS (Advanced Land Observing Satellite) 59 amerikansiches NASA-Programm 52–58 AMI (Active Microwave Instrument), siehe ERS AMIP-Projekt 238 AMMA 10 AMOC (Atlantic Meridional Overturning Circulation) 161 Amplitude 75, 147 Amsterdamer Deklaration zum Globalen Wandel 12 AMSU-A (Advanced Microwave Sounding Unit A) 64 – siehe auch MetOp-Programm, NOAA/POES-Programm AMSU-B (Microwave Sounding Unit B) 64 – siehe auch NOAA/POESProgramm Amundsen-Becken, siehe Arktische Becken anaerobe Prozesse 264 analytische Konzepte 279 Angewandte Klimatologie 1
Ångström, A. J. 121 Annex-I-Staaten 281 Anomalie 200 Anopheles 231 Anpassung an den Klimawandel 299 Anpassungsfähigkeiten 297 Anpassungskosten 278, 298 Anpassungslasten 297 Anpassungsmechanismen 252 Anpassungsstrategie 248 Antarktis 120 antarktischer stratosphärischer Strahlstrom 106 Anteil absorbierter fotosynthetisch aktiver Strahlung (fAPAR), siehe ECV anthropogene Einflüsse 81 anthropogene Ersatzgesellschaft 265 anthropogene Klimaveränderungen 4 Antipassat 116 Antizyklon 108, 116 antizyklonale Krümmung 108 antropogene Umwelteinflüsse 269 AOGCM 164 Aphel 77 – sonnenfernster Punkt 74 APS (Aerosol Polarimetry Sensor) 64 – siehe auch NPOESS-Programm Apsiden 77, 147 APT (Automatic Picture Transmission) 64 Aquarius, siehe ESSP-Missionen äquatoriale Kelvin-Welle 129 äquatoriale Tiefdruckrinne 116 äquatoriale Zonalströmung 119 äquatoriale Zonalzirkulation 118f Aquifer 187 Äquinoktialstand 77 äquivalente Chlorbelastung, siehe Gesamtchlor Äquivalenttemperatur 95, 102, 149 AR-2 8 AR-3 7 AR-4 5, 7, 153–155 Arctic Haze 211f Arctic Ocean Buoy Program (IABP) 120 ARGOS 41
342
– Definition 13 ARGOS-DCS (ARGOS Data Collection and localisation System) 64 ARGOS-Satelliten-System 127 arides Klima 143 Aridität 144 Arktis 119f, 205 – Aerosole und ihre Quellen 210 – Ozon 212f – Strahlungsverhältnisse 208 – Wolken und Niederschlag 209 Arktische Becken 216 arktische Erwärmung 206 Arktische Oszillation (AO) 135, 139f, 207 – negative Phase 140 – positiver arktischer Zufluss 216 Phase 140 arktische Stratosphäre 207 arktische Troposhäre 208 arktischer Dunst (Arctic Haze) 211f arktischer Ozean 214f arktischer Wolkentyp 209 arktisches Ozonbulletin 7 Arnon, D. I. 192 Arrhenius, S. A. 78, 268 Arten von Kondensation 98 Arthopoden 159 ASAR (Advanced Synthetic Aperture Radar), siehe ENVISAT ASCAT (Advanced Scatterometer) 64 – siehe auch MetOp-Programm ASSOD (Assessment of the Status of Human-unduced Soil Degradation in South and Southeast Asia) 200 ASTER (Advanced Spaceborne Thermal Emission and Reflection), siehe EOS-Terra/Aqua asymmetrische Moleküle 85 A1-Szenario-Familie 182 – A1B 181f – A1F1 181f – A1T 181f A2-Szenario 181 – -Familie 182 Atlantikum 257 – Hauptoptimum I 260 – Hauptoptimum II 260 – siehe auch Klimaoptimum des Holozän atlantische Meridionalzirkulation im Ozean (AMOC) 241f Atlantischer Strom 216 ATLAS-Bojen 127, 134 Atmosphäre 87 – Stockwerkeinteilung 73 – vertikaler Aufbau 72 – Zusammensetzung 71f
Index
Atmosphärenmodell 234 atmosphärische CH4-Konzentration 170 atmosphärische Extinktion 24 atmosphärische Fenster 24, 86, 148 atmosphärische Gegenstrahlung 82 atmosphärische Korrekturen 24 atmosphärische Schichtung – feucht-stabile 95 – stabile 95 – trocken-labile 95 atmosphärische Zirkulation 110 atmosphärische Zusammensetzung 72 atmosphärischer Halogenkohlenwasserstoff 173f atmosphärisches Chemiemodul 11 atmosphärisches Gesamtchlor 175 Atmospheric Observation Panel for Climate (AOPC), siehe GCOS ATMS (Advanced Technology Microwave Sounder) 64 – siehe auch NPOESS-Programm ATSR (Along Track Scanning Radiometer) SST-Daten, siehe SST ATSR-2 (AlongTrack Scanning Radiometer-2), siehe ERS Augenkrankheiten Ausschichtung 147 außertropische Monsunzirkulation 117 außertropische Tiefdruckzone 119 außertropische Westwindzone 113f außertropischer Monsun 118 autotrophe Respiration 167 AVCS (Advanced Vidicon Camera System) 64 Avery, D. T. 304 AVHRR Multi-Kanal SST-Datensatz, siehe SST AVHRR Pathfinder SST-Datensatz, siehe SST AVHRR/3 (Advanced Very High Resolution Radiometer) 64 – siehe auch MetOp-Programm, NOAA/POES-Programm AVNIR-2 (Advanced Visible and Near Infrared Radiometer-2) 59 AWIFS (Adavanced Wide Field Sensor), siehe IRS-Satelliten Azorenhoch, siehe subtropischer Hochdruckgürtel B Bali-Roadmap 283 Barentsee 214 barokline Welle 108 Baroklinität 113, 149 Barometer 92 barometrische Höhenformel 90f, 148
barotrop 113 barotrope Welle 114 Barotropie 113 Barotyp 149 Basalzellkarzinom 225 Baumring 145 Beaufortschelf 214 Beaufortwirbel 216 Bedeckungstyp 80 Beleuchtungsklima 74 Beobachtungssystem 14f Bergeron, T. 99 Bergeron-Findeisen-Prozess 98, 149 – Definition 99 Berliner Mandat 282 Beta-Effekt 115 betriebswirtschaftliche Investitionsrechnung, siehe KNA Bevölkerungswachstum 264f Bifurkation 201 Bildanalyse, siehe Fernerkundung biogeochemische Stoffkreisläufe 88 biogeophysikalische Wirkungsgrößen, Gesundheit 224 Bio-Inventar, siehe ENVISAT Bioklimatologie 2 biological pump 162 biologische Evolution 85 biologische Wirkungen der UV-Strahlung 226 Biomarker 256 BIOMASS 51 Biomasse, siehe ECV Biosphäre 87f, 159 Bioturbation 255 Bjerknes, J. A. B. 123 Bjerknes, V. F. K. 99, 123 black carbon 180 Blattflächenindex (LAI), siehe ECV blockierendes Hochdruckgebiet 113 blocking highs, siehe blockierendes Hochdruckgebiet Böden 88 Bodenart 88 Bodenfeuchte, siehe ASCAT, ECV Bodenmessnetz, siehe GSN Bodentemperatur 87 Bodentief 115 Bodentyp 88 Bodenverdunstung (Evaporation) 88 Bolzmann, L. 76 Borrelia burgdorferi sensu lato 224 Borreliose 231 Bottom-up-Ansatz 162 Boyle, R. 93 Brachezeit 266 Brandrodung 264 Breitenkreismittel 103 BRICS 281 Bronzezeit 257, 260f
343
Index
Bruttoinlandsprodukt (BIP), Definition 278 Bruttoprimärproduktion (BPP) 167 B1-Szenario 181f B2-Szenario 181 – Familie 182 business as usual-Szenario 181 C Calcit (CaCO3) 159 CALIPSO, siehe ESSP-Missionen Calvin, M. 192 Calvin-Zyklus 192 CAM-Pflanzen (crassulacean acid metabolism) 192f Carbon Dioxide Capture and Storage (CCS) 290 Carbonat-Kompensationstiefe 250 Carbonat-Silikat-Kreislauf 250 Carbonatverwitterung 250 C-Band 23, 30 CCD (Charge Coupled Device Camera) 64 C14-Datierung 263 Cellulose 171 Celsius 92 – Skala 91 Celsius, A. 92f CEOP (Co-ordinated Enhanced Observing Period) 10, 16 Ceratopogonidae 224 CERES (Clouds and the Earth‘s Radiant Energy System), siehe EOS-Terra/Aqua, TRMM CH4 153 – Isotope 171 – Quelle 191 – Senke 191 CHAMP (Challenging Mini-Satellite Payload) 57f Chapman, S. 213 Charney-Hypothese 197 Chitin 159 Chloraktivierung 214 Chlorkonzentration, stratosphärische 225 chronischer Wassermangel 188 CIE-Aktionsspektrum 227 Clausius-Clapeyron-Gleichung 90 Clausius, R. J. E. 89f Clean Development Mechanism 287–289 CliC 10 – Projekt 11f CLIMAderm 226, 230 „Climate Affairs“ 5 Climate Service Centers (CSC) 296 climate tipping points 237 Climate-Sensitivity-Parameter 157 CLINO, siehe Klimanormalperiode
CLIVAR 10 – Projekt 9f CloudSat, siehe ESSP-Missionen CMIS (Conical-scanning Microwave Imager/Sounder) 64 – siehe auch NPOESS-Programm C4MIP – Modelle (Coupled Carbon Cycle Climate Model Intercomparison Project) 164 – Simulation 244 CNES (Französische Weltraumagentur), siehe R&D-Programm CO2 – airborne fraction 160 – Äquivalent 284 – Düngungseffekt 194 – Konzentration 162 – Löslichkeit 87 – Partialdruck, siehe ECV – Senke 191 – weltweiter Ausstoß 297 COADS, siehe SST Coarse Mode (Riesenkerne) 210 COMS-Programm 38f Coordination Group for Meteorological Satellites (CGMS), siehe Koordinierungsforum CGMS COP-15-Tagung, Kopenhagen 7 COPES-Initiative 9 CoReH2O 52 Coriolis 56 – Kraft 87, 104, 149 COSMIC 58 COSMO 20 C3-Pflanzen 192 C4-Pflanzen 192 CrIS (Crosstrack Infrared Sounder) 64 – siehe auch NPOESS-Programm Cro-Magnon-Menschen 254 CryoSat 51 CryoSat-2 51 cut off effect 114 cut off process 113 2˚C-Ziel 283 D Dalton, J. 262 Dalton-Ansatz 100 Dalton-Minimum 262 DALY (Disability-adjusted Life Years) 221 – Konzept 222 Dampfmaschine 267 Dansgaard, W. 255 Dansgaard-Oeschger-Ereignisse 255 DCIS (Data Collection and Interrogation Service) 64 – siehe auch GOES-Programm
DCS (Data Collection Service) 64 – siehe auch NOAA/POESProgramm Degradation 266 Dehydrierung 214 Delayed (Action) Oscillator 129 demographische Entwicklung 265 demographischer Übergang 268f Denguefieber 221, 223f, 231 Denitrifizierung 214 DENKEN 5f Desertifikation 196 Destruent 167 deterministisches Chaos 90 Deuterium (schwerer Wasserstoff) 145, 171 Deutsche Anpassungsstrategie (DAS) 281 – Klimawandel 293 – Wissenschaftliche Ausgangslage 294 – Ziele 294 deutscher Strategieprozess Klimaanpassung, Meilensteine 296 Deutscher Wetterdienst (DWD) 17 DIC (Dissolved Inorganic Carbon) 161 Dichtesprungschicht 125 diffuse Himmelsstrahlung 78f diffuse Reflexion 78, 147 diffuse Strahlung 79 Diffusionswachstum 98 Diluvium 253 Dimethylsulfid (DMS) 210 direkte Sonnenstrahlung 78 direkte Strahlung 79 direktes GWP 285 Dissipation 88 Distickstoffoxid (N2O) 171 DTR (Diurnal Temperature Range) 186 Divergenz 105, 115, 149 Divergenztheorie (Zyklonentheorie) 108, 130f – und Konvergenztheorie 130f DIVERSITAS 12f – siehe auch ESSP DMSP-Programm, militärisches 44f Dobson-Einheit (Dobson Unit, DU) 72 DOC (Dissolved Organic Carbon) 162 Dolomit (CaMg(CO3)2) 159 DORIS (Doppler Orbitography and Radiopositioning Integrated by Satellite), siehe ENVISAT Downscaling 245 – dynamisches 245 – statistisches 245 Downwelling130
344
Drehimpuls 106, 108, 149 Dreifelderwirtschaft 266 Dreiperiodensystem 257 Dreisektorenhypothese 273 Dreißigjähriger Krieg 262 dritte Agrarrevolution 266 dritte industrielle Revolution 300 Druckgradientkraft 149 Drucktendenzgleichung 149 Dryas 254 – Zeit 254 Düngemitteleinsatz 173 Dunkelreaktion 192 Dünkirchener Transgression 259 Durchfallerkrankungen 223 dynamisches Downscaling 245 dynamisches Hoch- und Tiefdruckgebiet 107 E Earth Explorer Mission 51 Earth Observing System (EOS) 55f Earth Science Enterprise (ESE) 55 Earth System Science Partnership (ESSP), siehe Erdsystemforschung Earth System Science Pathfinder Programm (ESSP) 56–58 Earth-CARE 51 Earth-Watch-Mission 49 East Atlantic Pattern (EA) 138f East Atlantic - West Russia Pattern (EATL / WRUS) 139 East Pacific - North Pacific Pattern (EP - NP) 140 Ecoconstruction 301 ECV 18 – siehe auch wesentliche Klimavariable EEG 292 Effekte der Zerfallsprodukte 285 effektive Klassifikation 142 effektive Klimaklassifikation 143f Effizienzoption 291 Ehrlichiose 224 Einlagerung von CO2 283 Einstein, A. 76 Einteilungen der Radartechnologie 30 einzelnes Emissionsrecht 285 Eis-Albedo-Rückkopplung, Definition 12 Eisbohrkern 145 Eisdicke 217 Eisenzeit 257 Eis in der Arktis 216f Eisphase 149 Eisschild 88, 240 Eisstausee 259 Eiszeit/Warmzeit-Übergang 170 Eiszeitalter 253
Index
Ekmansches Gesetz 105 Ekman-Spirale 124 elektromagnetische Strahlung 22, 75 elektromagnetische Welle 75, 147 elektromagnetisches Spektrum 23 El Niño 118, 122f, 126 – betroffene Gebiete 135 – Ereignisse 133 – Jahr 126 – Phase 132 Emission 22, 82 Emissionshandel 280, 285 – Kernproblem 287 Emissionsminderungsmaßnahmen, Kosten 293 endogener Wasservorrat 188 Energie (Elektronenvolt [eV]) 23 Energieeffizienz 274, 280, 283 Energieeinsparverordnung (EnEV) 291 Energieformen 267 energieintensiver Industriesektor 286 Energiemeteorologie 2 Energiesparen 274 Energiesystemmodell (IKARUS) 293 ENSEMBLES-Porjekt 241 ENSO (El Niño-Southern Oscillation) 122, 123 – Beobachtungsregion 128 – Beobachtungssystem 127f – Entstehungstheorie 128f – Indizes 132f – Normaljahr 124 – Phänomen 122f, 150 – Regionen 127 – Theorie 127 enterische Fermentation 190 Entropie 89f Entscheidungsgrundlagen, Klimapolitik 5 Entwaldung, siehe CO2Konzentration Entwicklung, siehe ENVISAT ENVISAT (Environment Satellite) 45, 50 – -Mission 49 EO-1-Programm (Earth Observing-1) 54 EOS – Aqua 56 – Aura 55f – Programm (Earth Observing System) 55f – Terra 55f Eozän 249 epidemiologisches Potenzial 232 EPS/MetOp-Programm 45f ERA-40-Datensatz 16
ERBE (Earth Radiation Budget Experiment) 64 – siehe auch ERBS ERBS – (Earth Radiation Budget Satellite) 53 – (Earth Radiation Budget Sensor) 64 – siehe auch NPOESS-Programm Erdatmosphäre 71 – Obergrenze 73 Erdbahnparameter 77, 147 Erdbeobachtung, siehe Fernerkundung Erdgas 268 Erdgipfel 281 Erdmanagement 247 Erdoberflächeneinheit 81 Erdöl 268 Erdrevolution 74 Erdrotation 75 Erdsystem-Denken 3 Erdsystemforschung 12f, 60, 86 – siehe auch ESSP Erdsystemmodell 20 erneuerbare Energien 283, 291f, 301 Erneuerbares-Energien-Gesetz (EEG) 291 Erneuerbares-Energien-Wärmegesetz (EEWärmeG) 291 Ernteertrag 194 ERS (European Remote Sensing Satellite) 49 ERS-1/-2-Mission 49 erste Agrarrevolution 266 erste Hochkulturen 260 erste Verpflichtungsperiode des KP 282 erster Hauptsatz der Thermodynamik 94 Erster Twomey-Effekt 211 ERTS-1 (Earth Resources Technology Satellite-1), siehe LandsatProgramm erythemales Aktionsspektrum 227 ESA (Europäische Weltraumagentur, European Space Agency), siehe R&D-Programm ESA-Programm, europäisches 49 Essential Climate Variables (ECV) 17 ESSP 10, 12f – -Missionen 57 ETM (Enhanced Thematic Mapper), siehe Landsat-Programm Eurasian Pattern 122 EU EHS (Europäisches Emissionshandelsystem) 286 EU-15-Staaten 290 Euphrat- und Tigris-Becken 189
345
Index
Euprimaten 249 Eurasia-1-Muster 139 Eurasia-2-Muster 139 Europaen Centre for Medium-Range Weather Forecasts (ECMWF) 16 europäisches ESA-Programm 49 Europäisches Programm zur Klimaänderung (ECCP) 289 European Project for Ice Coring in Antarctica (EPICA) 170 eustatische Meeresspiegelschwankung 257 Evaporation 98, 149 Evapotranspiration 88, 98, 144, 149 Evolution 252 Evolutionsstammbaum, Hominiden 251 exogener Wasservorrat 188 experimenteller Satellitensensor 18 Expositionsunterschied 79 Expositionsverhalten, thermisch bedingtes 225 externe Mischung, siehe Aerosol Extinktion 78, 147 Extremereignis 200 Extremwertanalyse 201 Exzentrizität 77 F Fahrenheit 92 Fahrenheit, D. G. 93 Falkenmark, M. 188 FAR 5, 8 FCI (Flexible Combined Imager) 64 – siehe auch Meteosat FCKW 173 feedback 88, 148 Ferchault, R.-A 93 Fernerkundung 22 Fernerkundungsdaten 24f Fernerkundungssystem 22 Fernerkundungsverfahren 22 fernes Infrarot (FIR) 23, 30 Fernwirkung 89, 121, 135 Ferrel, W. 112 Ferrel-Zirkulation 112 Ferrel-Zone 112 Fertilität 268 Festpreisvergütung, siehe EEG feuchtadiabatischer Temperaturgradient 94 feuchte Passatzone 117 Feuchtgebiete 170 Feuchtsavanne 117 Feuereinwirkung, siehe ECV Final Warming 207 Findeisen, T. R. W. 99 FirstYear Ice (FYI) 217 Flandrische Transgression 256f Fleer, H. 121
FLEX 52 flexible Instrumente 287 – siehe auch Kyoto-Protokoll Fliehkraft 105 Flohn, H. 121, 142f flüchtige organische Verbindung, siehe VOC Fluorkohlenwasserstoffe (HFC) 173f Flusseinzugsgebiet 189 flüssige PSC-Tröpfchen 214 Flusssystem 188 Flusstalkultur 260 FLUXNET-Stationen 244 Foraminiferen 159, 255 – Gattung Hantkenina 249 fossile Energieträger 268 fotolytische Spaltung 73, 85 Fotorespiration 192 Fotosynthese 192f Fotosyntheseprozess 88 fotosynthetische Organismen 24 FPR (Fiat Plate Radiometer) 64 französisches CNES-Programm 59f Frequenz 23, 75, 147 Frontalzone 111, 113, 149 „Fruchtbarer Halbmond“ 257 Fruchtwechselwirtschaft 266 Frühsommer-Meningoenzephalitis (FSME) 224 frühtransformative Phase 268 fühlbare Energieflüsse 83 fühlbare Wärme 82, 148 FY-1- und FY-3-Programm 47f FY-2- und FY-4-Programm 36f G Gashydrat 159 GCM, siehe Klimamodell, globales GCOS (globales Klimabeobachtungssystem) 8, 10, 17f, 21f – Projekt 16 GCP 13 Gebäudesanierung 292 Gebirgsgletscher 88 Geburtsraten 268 GECAFS 13 GECOS Implementation Plan (GIP) 27 Gegenstrahlung 82 Geiger, R. O. R. W. 144 gekoppeltes Atmosphäre-OzonModell 234 gekoppeltes globales AtmosphäreOzean-Zirkulationsmodell 164 Geländemodell der Antarktis, siehe Tandem-Modus Gelbfieber 224 gelöster anorganischer Kohlenstoff, siehe DIC
gelöster organischer Kohlenstoff, siehe DOC Gemeinsame Projektumsetzung (Joint Implementation, JI) 287 gemeinsames CO2-Budget, siehe EU-ETS GEMES 268 General Circulation Model (GCM) 234 generatives Verhalten 269 genetisch-dynamische Klimaklassifikation 142f Geo 17 Geographisches Informationssystem, siehe GIS Geoid 57 Geoinformationssystem (GIS), Definition 26 geologische Speicherung von Kohlendioxid 290 Geopotenzialdifferenz 137 GEOSAR (Geostationary Search and Rescue) 64 – siehe auch GOES-Programm GEOSS 13, 17 geostationäre meteorologische Satellitenprogramme 29f geostationäre Satelliten 25, 39 geostrophischer Wind 105, 149 Geosystem 87 geothermische Energie 83 GERB (Geostationary Earth Radiation Budget Experiment) 31–33, 64 Gesamtchlor 177 Gesamtozongehalt 229 Gesamtstrahlungsbilanz 82 geschlossenes System 94 gesellschaftliche Destabilisierung 298 gesellschaftliche Entwicklung 184 gesellschaftlicher Entwicklungstrend 185 Gesundheit – biogeophysikalische Wirkungsgrößen 224 – direkter Wirkungskomplex 224 – indirekter Wirkungskomplex 224 Gesundheitsrisiko 223 GEWEX 10 – -Projekt 10 GGAK-M (Space Environment Monitor) 65 Gipfeltreffen, G7-/G8-Staaten 296 GIS 145 Glantz, M. H. 5 Glashauseffekt 78 GLASOD (Global Assessment of Human-induced Soil Degradation Database) 200
346
Gleichbehandlung, Verkehrsträger 293 Gletscher – und Eisschilde 219 – siehe auch ECV Gliederung, Holozän 260 GLM (Geostationary Lighting Mapper) 65 – siehe auch GOES-Programm Global-Change-Forschung 13 Global Earth Observation System of Systems (GEOSS) 13 global governance 5, 248, 293, 296f Global Numerical Weather Prediction Model (GME) 229 Global Temperatur Potential (GTP) 284 Global Warming Potential (GWP) 156 globale Kohlendioxidflüsse 160 globale Nahrungsmittelproduktion 195 globale Ozeanbeobachtungssysteme (GOOS) 15 globale Regierungsweise 296 globale Strahlungsbilanz 82 globale Strukturpolitik 296 globale Umweltpolitik 280 globale Verdunstungsrate 148 globaler Wasserhaushalt 185 globales Beobachtungssystem (GOS) 21, 29 globales Klima 4 globales Klimabeobachtungssystem (GCOS) 22 – siehe auch GCOS globales Klimamodell (Global Circulation Model) 20 globales Ozeanbeobachtungssystem (Global Ocean Observing System), siehe GOOS globales terrestrisches Beobachtungssystem (Global Terrestrial Observing System), siehe GTOS globalisierte Wirtschaftsstruktur 272 Globalisierung 154, 272 Globalmodell ECHAM5/MPI-OM 234 Globalstrahlung 79f, 148 Globalstrahlungsverteilung 78 GMES (Global Monitoring for Environment and Security) 52 GMS-und MTSAT-Programm 36 Gnitzen, siehe Ceratopogonidae GOCE 51 GOCI (Geostationary Ocean Color Imager) 65 – siehe auch COMS-Programm GODAE, siehe SST GOES-Programm 33–35
Index
Golfstrom 138 GOME (Global Ozone Monitoring Experiment) 15 – siehe auch ERS GOME-2 (Global Ozone Monitoring Experiment-2) 65 – siehe auch MetOp-Programm GOMOS (Global Ozone Monitoring by Occultation of Stars), siehe ENVISAT GOMS/Elektro-Programm 36 gonotrophischer Zyklus 232 GOOS 17 GOSAT (Greenhouse gas Observing Satellite) 59 GOSTAplus, siehe SST GPM „core“ 58 GRACE (Gravity Recovery and Climate Experiment) 57 – siehe auch ESSP-Missionen Gradientkraft 104 GRAS (GNSS Receiver for Atmospheric Sounding) 65 – siehe auch MetOp-Programm Greenland Ice Sheet Project (GISP) 255 Grenzflächenklima 4 Grönland 120 grönländisches Eisbohrprojekt (GRIP) 255 Gross Domestic Product (GDP) 278 Großraumklima 4 Großwetterlage 116 Grünbuch 299 Grundwasser, siehe ECV Grundwasseraquifer 187 Grundwasserleiter, siehe Aquifer GSN Monitoring Centre 17 GSN-Station 17 GTOS 17 GVHHR (Geostationary Very High Resolution Radiometer) 65 GWP (Global Warming Potential) 284 GWSP (Global Water System Project) 13 H Hadley, G. 111f Hadley-Zirkulation 94, 149 Hadley-Zone 111 Halley, E. 112 halogenierte Kohlenwasserstoffe 174 Halokline 125 Halone 174 Handel mit Emissionszertifikaten, siehe Emissionshandel Hantkenina 249 Häufigkeitsausprägung 201 Hautkrebs 223, 225
Hautkrebsinzidenz 225 HDI (Human Development Index) 221 Heinrich-Ereignis 255 hemisphärischer Zonalindex, siehe NAO HES (Hyperspectral Environmental Suite) 65 – siehe auch GOES-Programm heterogene Kondensation 98, 149 heterogene Nukleation 210 Heterosphäre 91 heterotrophe Atmung 161 heterotrophe Respiration 167 heterotrophe Respirationsrate 166 Hettner, A. 142 Hicks, J. R. 279 high-index phase 132 High-Index-Typ 116, 150 HIRDLS (High Resolution Dynamics Limb Sounder), siehe EOS-AURA HIRS 245 HIRS-3 (Highresolution Infrared Sounder-3), siehe NOAA/ POES-Programm HIRS-4 (Highresolution Infrared Radiation Sounder-4) 65 – siehe auch MetOp-Programm Hitzewelle 201 Hockeyschläger-Kurve 303 – Kontroverse 304 Höhenlandwirtschaft 262 Höhle Chauvet-Pont-d’Arc 254 Holozän 257 – Gliederung 260 Homo – erectus 252 – habilis 252 – neanderthalensis 253 – sapiens 253 – sapiens sapiens 254 homogene Kondensation 98, 149 homogene Nukleation 210 homologer Klimatyp 142 Homosphäre 91 horizontale Temperaturverteilung 95 horizontale Vergenz 115 horizontaler Austausch (Advektion) 92 Horizontsondierung 27 HRV-Kameras (Instrument Haute Résolution Visible) 60 Hudson Bay 260 Human Development Index (HDI) 273 Humboldt-Strom 124 humides Klima 143 Humidität 144 hydrologischer Kreislauf 187
347
Index
Hydrosol 87 Hydrosphäre 87, 159 Hydroxyl-Radikal (OH) 170 Hyperion, siehe EO-1-Programm Hypsometer 93 I IASI (Infrared Atmospheric Sounding Interferometer) 65 – siehe auch MetOp-Programm ICESat (Ice, Cloud and Land Elevation Satellite) 56, 217 ICOADS 133 ICSU 7, 17 ideales Gas 90 IGBP 12f – siehe auch ESSP IHDP (International Human Dimension Program) 12f, 275 – siehe auch ESSP IMAGER (GOES Imager In SAT Imager MTSAT Imager) 65 – siehe auch GOES-Programm Imager 28 IMG (Interferometric Monitor for Greenhouse Gases), siehe ADEOS IMO (International Meteorological Organization) 6 Index der menschlichen Entwicklung, siehe HDI indirekte Effekte, siehe GWP indirekter Aerosol-Strahlungsantrieb 180 indirektes GWP 285 indisches ISRO-Programm 61f Indus 260 Industrie, ökologische Modernisierung 300 industrielle Revolution 264, 266f Infektionskrankheiten 221 Infrarot (MWIR + TIR) 30 Inlandeis 88 innere Energie 94 Innertropische Konvergenz (ITC) 104, 111, 117 Innertropische Konvergenzzone (ITCZ) 117 innovationsorientierte Klimapolitik 300 innovationsorientierte Umweltpolitik 300–302 INSAT- und KALPANA-Programm 37f integrierte regionale Konzepte 295 integrierter Umweltschutz (cleaner/ clean technology, resource management) 301 integriertes Küstenzonenmanagement 295 interannuelle CO2-Variabilität 161
Intergovernmental Panel on Climate Change, siehe IPCC interhemisphärischer CO2-Gradient 162 Interministerielle Arbeitsgruppe Anpassung (IMA Anpassung) 295 International Council for Science (ICSU) 16 International Social Science Council (ISSC) 275 Internationale Gruppe zur Erdbeobachtung (EO) 7 internationale Klimapolitik 280 internationale Sicherheit 298 internationales Beobachtungssystem 17 internationales Kommunikationsnetz GTS 18 Internationales Polarjahr 120 Internationales Polarjahr 2007/08 7 internationales Programm antarktischer Bojen (IPAB) 12 interne Mischung, siehe Aerosol interregionale Bevölkerungsmigration 271 INTERSUN-Projekt 230 intransitive Phase 89 Intransitivität 89, 148 intraregionale Bevölkerungsmigration 271 Inversion, Definition 97 Inversionsmodell 162f Inversionsschicht 73, 94 Inzidenz 225 IOC 17 IPCC 4, 7–9 – Klimareport 153 – Reports, siehe AR4, FAR, SAR und TAR IR (Infrared Instrument) 65 IRAS (Infrared Atmospheric Sounder) 65 IRFS-2 (IR Sounding Spectrometer) 65 irreversibler Prozess 202 IRS (Infrared Sounder) 65 – Satelliten 61 – Programm 62 – siehe auch Meteosat IRS-P4 (OceanSat) 61f IRS-P5 (CartoSat-1) 61f IRS-P6 (ResourceSat-1) 61f Isallobare 115 ISCCP 245 Islandtief 137 Isobare 90, 113 isobare Atmosphäre 71 Isotherme 83, 96, 113 – Definition 97 Isothermie 95
Isotopenzusammensetzung 255 ISRO (Indische Weltraumagentur), siehe R&D-Programm J Jäger und Sammler 256 Jahr des Wassers 190 Jahreszeiten 77 JAMI (Japanese Advanced Meteorological Imager) 65 – siehe auch GMS- und MTSATProgramm Japan Meteorological Agency (JMA) – Index 134 – siehe auch Japanischer Wetterdienst – siehe auch Re-Analyse Japanischer Wetterdienst 17, 28 japanisches JAXA-Programm 57f JASON (Joint Altimetry Satellite Oceanography Network) 60f Jason-1 61, 128 Jason-2 61 JAXA (Japanische Weltraumagentur), siehe R&D-Programm JERS (Japanese Earth Resources Satellite) 58 Jetstream 94, 105 – äquatorialer (AEJ) 106 – East-Asian- (EAJ) 140 – Polarfront- (PFJ) 106, 113f – Subtropen- (STJ) 106 – tropischer (TJ) 106 JMA 18 – Index 132 Joint Implementation 287f – Projekt 286 Jordan-Wassereinzugsgebiet 189 Julian, P. 135f Junge, C. 213 Junge-Schicht 213 Jüngere Dryas-Zeit 256 just-in-time production 272 K Ka-Band 30 Kaldor, N. 279 Kaldor-Hicks-Kriterium 279 Kalmenzone 111 Kältewüste 210 Kaltfront 109 Kaltlufttrog 116 Kaltphase 134 Kambrium 85 Kanada-Becken, siehe Arktische Becken Kanal 30 Känozoikum 85 Karasee 214 katabatischer Fallwind 119
348
katalytischer Ozonabbau 214 Kaufkraftparität 278 K-Band 30 Keeling-Kurve 160 Kelvin (K) 91f Kelvin, Lord 92f, 130 Kelvin-Welle 129 Kerogene 159 KGI-4C (Space Environemt Monitor (particles) 65 Kieselalgen (Diatomea) 250 kinetische Gastheorie 90 Kippelement (tipping elements) 89, 307 Kipppunkt (tipping point) 90 Kirchhoff, G. R. 76 klassischer Zonalindex, siehe NAO Kleine Eiszeit 259, 261f Klima 3 – Aktionsplan-Alpen 295 – Hot-Spots 237 Klimaanzeiger 145 Klimaelement 86, 148 Klimafaktor 81, 86 – Mensch 248, 257 Klimaforschung, Meilensteine 7f Klimaforschungsprogramme 5 Klimageographie 2f Klimaindikator 88 Klimainformationssystem 238 Klimaklassifikation 86, 142f Klimakonferenz Kopenhagen (COP-15), siehe Post-KyotoAbkommen Klimamodell 5, 19f, 183, 234 – dynamisches 234 – globales 20 – regionales 20 – statistisches 234 Klimamodellierung 19f Klimamodellmetrik 238 Klimanormalperiode 3, 16 Klimaoptimum, Holozän 257 Klimapolitik 248, 277f – europäische 289f – nationale 291f Klimaprojektion 234 Klimaproxy 144f Klimarahmenkonvention (UNFCCC) 16, 277, 280 Klimaschutzkosten 283 Klimaschutzmaßnahme 182 Klimaschutzstrategie 279 Klimasystem 3, 87, 148 – anthropogenes, siehe Erdsystemmodell – biologisch-chemisches, siehe Erdsystemmodell – physikalisches, siehe Erdsystemmodell
Index
Klimaszenarien (Projektionen) 298 Klimat (Infrared Imaging Radiometer) 65 Klimatologie – Allgemeine 1 – Angewandte 1 – Definition 3 – Regionale 1 – Spezielle 1 – Theoretische 1 klimatologische Trockengrenze 144 klimatologisches Messnetz 14 Klimawandel 4 – Kosten 278 – und Desertifikation 152, 196f – und Ernährung 152 – und Gesundheit 152 – und Landwirtschaft 190f – und Wasser 187f – Wetteranomalien und Singularitäten 200f klimawirksame anthropogene Tätigkeiten 283f KMSS (High-resolution VIS/NIR Radiometer) 65 KNA (Kosten-Nutzen-Analyse) 279 Koagulation 98 Koaleszenz 98 Kohle 268 Kohlendioxid (CO2) 153, 159f – siehe auch Absorptionsbande, ECV Kohlenstoff, siehe ECV Kohlenstoffaufnahme 161 Kohlenstoff-Isotypen-Verhältnis 249 Kohlenstoffkreislauf 88, 158f – -Feedback 165 Kohlenstoffquelle 166 Kohlenstoffsenke 166 Kohlenstoffsenkenpotenzial 163 Kohlenstoffspeicher 167 Kohlenstoff-Stickstoff-Verhältnis 194 KomPass 296, 299 Kompetenzzentrum Klimafolgen und Anpassung (KomPass) 296, 299 Kondensation 210 – Arten 98 – heterogene 98 – homogene 98 Kondensationsniveau, Definition 97 Kondensationswärme 82 Konduktion 216 Konsument 167 kontinentales Klima 86 Kontinentalitätsgrad 87 Kontinentalverschiebung 249 Konvektion (vertikaler Austausch) 92
Konvektionsniederlagen 116 konvektive Hebung/Senkung 94 Konvergenz 106, 115, 149 Koordinierungsforum CGMS 27, 29 Kopenhagener Konsens 272 Köppen, W. P. 143f Köppen-Geiger-Klimaklassifikation 144 Korallensediment 145 Kornreife 196 Kosten – der Emissionsminderungsmaßnahmen 293 – des Klimawandels 278 – externe 280 – Nutzen-Analyse 272, 279 Kraft-Wärme-Kopplungs-(KWK-) Anteil 292 Kraft-Wärme-Kopplungsgesetz (KWK-G) 291 Kraftwerksbestand 292 kristalline Wolke 209 Kryosphäre 12, 87f, 159 Ku-Band 30 Kulturpflanzenaufwuchs 194 Kunstdünger 266 kurzlebiges Treibhausgas 157 kurzwellige einfallende Sonnenstrahlung 78 kurzwellige Strahlung 79 kurzwelliges Infrarot (SWIR) 23, 30 kurzwelliges Licht 78 küstennahe Wüste 124 kybernetisches World-3-Modell 273 Kyoto-Minderungsziel 290 Kyoto-Protokoll (KP) 282, 280 L LAC (LEISA Atmospheric Corrector), siehe EO-1Programm Ladogasee 259 Landbedeckung, siehe ECV Landdegradation 196 Landflucht 266 Landkohlenstoffkreislauf 165 Landmassen, siehe ENVISAT Land-Meer-Verteilung 118 Landnutzungsveränderung 173 Landnutzungswandel 186 Landoberflächenprozesse 243f Landsat-Programm 53f Landsat-1-Satellit 26 Landschaftsklima 4 Landwirtschaft, Strukturwandel 266 landwirtschaftliche Flächennutzung, siehe CO2-Konzentration landwirtschaftlicher Wasserverbrauch 188 langlebiges Treibhausgas 157, 175
349
Index
– siehe auch ECV langwellige Strahlung 23 langwelliges Licht 78 La Niña 118, 126 – Ereignisse 133 – Phase 132 Laptewsee 214 Laser 22 Lastenteilung (Burden Sharing) 290 latente Energieflüsse 83 latente Wärme 82, 148 Laurentischer Eisschild 260 L-Band 30 lean production 272 Least Developed Countries Fund 298 Lebensweise 185 Lee (Windschatten) 88 Leishmaniose 224 Lena, siehe arktischer Zufluss Level of Scientific Understanding (LOSU) 157 LI (Lightning Imager) 33, 65 Libby, W. F. 263 Licht, sichtbares 22 Lichtreaktion 192 Licht-Schatten-Kontrast 79, 148 Lichtstreuung 78 LIDAR, Definition 24 Liebig, J. von 266 Limb-Sounder 27 Lineardimension 78 LIS (Lightning Imaging Sensor), siehe TRMM LISS (Limb Imaging Self Scanning Sensor), siehe IRS-Satelliten Lithosphäre 87f, 159 Little Green Data Book 2007 283 LOE (Low Ozon Events) 225 Lokalklima 4 Lomonossow-Rücken 215 Long-living Greenhouse Gases (LLGHG) 175 Lorenz, E. N. 89f low-index phase 132 Low-Index-Typ 116, 150 LRR (Laser Retro Reflector), siehe ERS, ENVISAT Luftdruck 90, 148 – siehe auch ECV Lufttemperatur, siehe ECV Luv (Anströmungsbereich) 88 Lyme-Borreliose 224 Lysokline 250 M Mäanderströmung 114 Mackenzie, siehe arktischer Zufluss Madden, R. 135f
Madden-Julian-Oszillation (MJO) 135f MADRA (Microwave Analysis & Detection of Rain & Atmospheric Structures), siehe Megha-Tropiques Major Warming 207 Makarow-Becken, siehe Arktisches Becken Makroklima 4 Malaria 221, 223f, 231 maligne Melanom 225 Margules, M. 116 marine Transgression 257 maritimes Klima 87 Marrakesch Accords 286 Maschenweite, IPCC-Reports 5 massenspezifisches Radiative Forcing (RF) 284 Massentierhaltung 169, 266 Massenverlust, siehe Gletscher und Eisschilde Maunder, E. W. 262 Maunder-Minimum 262 MEA 280 Meadows, D. L. 272f mechanische Wärmetheorie 90 Mechanismen, Niederschlagsbildung 98 Mechanismus für umweltgerechte Entwicklung (Clean Development Mechanism, CDM) 287 Meereis 88 – siehe auch ECV Meereisbedeckung 218 Meereshöhe, siehe ECV Meereskohlenstoffkreislauf 165 Meeresoberflächenhöhe (Sea Surface Height, SSH) 134 Meeresoberflächentemperatur, siehe SST Meeresspiegelanstieg 154 Meersalz 87 Megastädte 271 Megha-Tropuiques 61 Mehrebenensystem, politisches 296 Meilensteine, deutscher Strategieprozess Klimaanpassung 296 Mensch – Klimafaktor 248 – Umweltbeziehung 185 Menschheit, Polarisierung 271 Menschwerdung (Hominisation) 249 MEOS (Monocular Electrooptical Stereo Scanner), siehe IRS-Satelliten meridionale Energieflüsse 83 meridionale Umschichtungszirkulation, siehe AMOC meridionale Zirkulationsform 150
meridionaler Energietransport, siehe Zyklogenese meridionaler Temperaturgradient 84, 114 meridionaler Wärmetransport 116 meridionaler Zirkulationstyp, siehe Low-Index-Typ MERIS (Medium Resolution Imaging Spectrometer), siehe ENVISAT MERSI (Medium Resolution Spectral Imager) 65 Mesoklima 4 Mesopotamien, siehe Flusstalkultur Mesosphäre 73, 147 Mesozoikum 85 Messnetz 14 MESSR (Multispectral Electronic Self Scanning Radiometer) 58 Messung der Temperatur 92 Metabolismus 256 Meteorologie 3 Meteor-Programm 46f Meteosat Third Generation (MTG) 33 Meteosat-Programm 31–33 Methan 153, 169f – siehe auch ECV Methanemission 190, 243 Methanhydrat 159 Methankonzentration 264 Methylbromid 174, 177 MetOp-Programm 44–46 Metosat-Radiometer 31 MHS (Microwave Humidity Sounder), siehe MetOp-Programm, NOAA/POES-Programm MI (Meteorological Imager) 65 – siehe auch COMS-Programm Microlab-1 58 MIDORI-II, siehe ADEOS Mie-Streuung 78, 147 Mikroklima 4 Mikrowellen (EHF) 23, 30 Milanković, M. 77 Milanković-Zyklen 77 militärisches DMSP-Programm 44f Millimeter (Teil von MW) 30 Minderungskosten 278 mineralisches Aerosol 211 Minor Warming 207 MIPAS (Michelson Interferometer for Passive Atmospheric Sounding), siehe ENVISAT MISR (Multiangle Imaging Spectro Radiometer), siehe EOS-Terra/ Aqua MITI (Ministry of International Trade and Industry) 300 Mitigation 248
350
– siehe auch Klimapolitik Mittelalterliches Klimaoptimum 261 Mittelalterliches Optimum 259 mitteltransformative Phase 269 mittelwelliges Infrarot 30 Mittelwertlage 201 mittlere Atmosphäre, siehe Mesosphäre, Stratosphäre mittlere globale Oberflächentemperatur 83 mittlere Strahlungstemperatur 83 mittleres Infrarot (MIR) 23 MIVZA (Imaging Microwave Radiometer) 65 MJO (Madden-Julian-Oszillation) 132 MLS (Microwave Limb Sounder), siehe EOS-AURA Modelle zur Verdunstungsberechnung 100 modernes Optimum 259, 262f MODIS (Moderate Resolution Imaging Spectroradiometer), siehe EOS-Terra/Aqua MODIS-SST-Daten, siehe SST Modus 200 Molden, D. 190 Mollusken 159 Monsun 117 Monsunzirkulation 116f Montreal-Gase 174 Montreal-Protokoll 7, 173, 225 MOPITT (Measurement Of Pollution In The Troposphere), siehe EOS-Terra/Aqua Mortalität 268 MOS (Marine Observatory Satellite) 58 – siehe auch IRS-Satelliten MR-900B (Television Camera) 65 MR-2000M1 (Television Camera) 65 MRIR (Medium Resolution Infrared Radiometer) 65 MSGI-5EI (Space Environment Monitor (irradiances) 66 MSG-Satellit 31 MSMR (Multifrequency Scanning Microwave Radiometer), siehe IRS-Satelliten MSS (Multispectral Scanner), siehe Landsat-Programm MSSCC (Multi-color Spin Scan Could Camera) 66 MSU (Microwave Sounding Unit) 66 MSU-E (High-resolution VIS/NIR radiometer) 66 MSU-GS (Elektro-GOMS Imager) 66 – 10-Kanal-VIS/IR-Radionmeter, siehe GOMS/Elektro-Programm
Index
MSU-MR (VIS/IR Imaging Radiometer) 66 MTG (Meteosat Third Generation) 33 MTVZA (Imaging/Sounding Microwave Radiometer) 66 Müllentsorgung 169 multikriterielles Problem 279 multilaterale Umweltabkommen 296 – siehe auch MEA multipolare Weltordnung 298 Multispektralscanner (MSS) 26 multivariater ENSO-Index (MEI) 132f Multiyear Ice (MYI) 217 Muschelkalkmeer 257 MVIRI (Meteosat Visible Infrared Imager) 66 MVISR (Multichannel Visible and Infrared Scanning Radiometer) 66 – siehe auch FY-1- und FY-3Programm MWHS (Micro-Wave HuMitteity Sounder) 66 MWR (Micro Wave Radiometer), siehe ENVISAT, ERS MWRI (Micro-Wave Radiation Imager) 66 MWTS (Micro-Wave Temperature Sounder) 66 N nachgeschalteter Umweltschutz 301 nachhaltige Entwicklung (sustainable development) 273 nachindustrielle Gesellschaftsentwicklung 273 Naher Osten 189 nahes Infrarot (NIR) 23, 30 Nährstoff, siehe ECV Nahrungsmittelproduktion, weltweite 195 Nansen-Becken, siehe Arktische Becken NAO (North Atlantic Oscillation) 122 – High-Index-Ausprägung 137 – Low-Index-Ausprägung 137 NASA (Amerikanische Weltraumagentur, National Aeronautics and Space Administration) 18, 56 – siehe auch R&D-Programm NASA-Programm, amerikanisches 52–58 Nassreisanbau 191 NAT – (Nitric Acid Trihydrate) 207 – (Salpetersäuretrihydrat) 213 National Center for Environmental Prediction (NCEP) 16
National Climatic Data Center (NCDC) 16 nationale Klimapolitik 291f nationale Strategie 293 nationaler Allokationsplan, siehe EU EHS 286 Nationales Klimaschutzprogramm 291 Nationales Klimaschutzprogramm 2005 293 natürlicher Treibhauseffekt 83, 86, 148 Naturraumpotenzial 196 NCEP Reynolds SST, siehe SST negative NAO-Phase 137, 139 negative Rückkopplung 89 – feedback 88 negative Strahlungsantriebe (negative forcing) 155 negative Wechselwirkung (feedback) 155 neolithische (jungsteinzeitliche) Revolution 256 Nesting 235 Nettobiomproduktion (NBP) 167 Nettoökosystemproduktion 167 Nettoprimärproduktion (NPP) 166f Netzwerkbildung 5 Newcomen, T. 267 nichtendemische Malariagebiete 222 nicht-erneuerbare Energieformen 267 nichtlineare Systemveränderung 239 Niederschlag, siehe ECV Niederschlagsbildung, Mechanismen 98 Niederschlagsrate 103 Niederschlagsverteilung 185 Niedrigozonereignisse, siehe LOE Nile Basin Initiative 189 Nimbus-Programm 52f Niño3-Index 134 NOx – Bindung 88 – Emission 88 NOAA-Niño-Index, siehe ONI NOAA/POES-Programm 41–43 Nordatlantik-Oszillation (NAO) 135, 137–139, 206 Nordatlantikstrom 138 nordatlantisches Tiefenwasser (NADW) 216 nördlicher Wendekreis 77 Nord-Ost-Monsun (Wintermonsun) 117 Nordostpassat 111, 117f Nordpolarmeer 216 Nord-Süd-Konflikt 282 Normalbedingungen 71
351
Index
Northern Hemispheric Annular Mode (NAM), siehe Arktische Oszillation (AO) N2O-Senke 191 Notestein, F. W. 268 North Pacific Oscillation (NPO) 122 NPOESS-Programm 44 Nukleation 98, 149, 210 numerische Exzentrizität 147 numerische Wettervorhersage 19 O Ob, siehe arktischer Zufluss Yenisey Oberanlieger 188 Oberanrainer 188 Oberflächenbeschaffenheit 81 Oberflächen-/Haloklinenwasser 215 oberflächennahe Strömung, siehe ECV Oberflächentemperatur (MODIS LST, SST) 75 – siehe auch ECV Obergrenze der Erdatmosphäre 73 objektspezifische Spektralsignatur 24 Observation and Assimilation Panel (WOAP) 27 ocean conveyer belt 256 Ocean Surface Topography Mission (OSTM) 128 Oceanic Observation Panel for Climate (OOPC), siehe GCOS OCM (Ocean Color Monitor), siehe IRS-Satelliten OCO, siehe ESSP-Missionen OECD (Organisation für wirtschaftliche Zusammenarbeit und Entwicklung) 281 Oeschger, H. 255 Okean-Mission 63 Okklusion 109 Okkultation 27 ökoklimatische Gliederung 144 ökologische Industriepolitik 300 ökologische Modernisierung der Industrie (greening of industry) 300 ökologischer Generalist 252 ökonomische Instrumente 277 Oligozän 249 OLI-Sensor (Operational Land Imager), siehe EO-1-Programm OM 225 OMI (Ozone Monitoring Instrument), siehe EOS-AURA OMPS (Ozone Mapping and Profiler Suite) 66 – siehe auch NPOESS-Programm ONI (Oceanic Niño Index) 126, 132, 134 operationelle geostationäre Satelliten 29f
operationeller Satellitensensor 18 OPS (Optical Sensor) 59 Optimum 259 optische Dicke 211 optischer Bereich 30 organische Aerosole 180 Orogenese 249 Ostgrönlandstrom 215 OSTM (Ocean Surface Topography Mission) 61 – siehe auch Jason-2 Ostsee 259 Ostsibirische See 214 Ostwindzirkulation 119f Oszillation 121 Outgoing Logwave Radiation (OLR) 134 oxygene Fotosynthese 192 Ozeandaten 242 Ozeane 87 Ozeanfarbe 14 – siehe auch ECV ozeanisches Klima 86 Ozeansediment 145 Ozon (O3) 86, 173 – siehe auch Absorptionsbande, ECV Ozonabbau 11, 73, 176 Ozonloch 7, 11, 113, 225 – siehe auch ENVISAT Ozonminilöcher, siehe OM Ozonschicht 176 Ozonvorhersage 229 P Pacific North American Pattern (PNA) 140 Packeisbildung 218 Paffen, K. 144 Paläoklimatologie 2, 145, 259 Paläolithikum (Altsteinzeit) 253 Paläozoikum 85 PALSAR (Phased Array L-Band Synthetic Aperture Radar) 59 Palynologie 257 PAN (Panchromatic Camera), siehe IRS-Satelliten Panspermie-Lehre 78 Parametrisierung 19–21 – Definition 19 PARASOL (Polarization and Anisotropy of Refelctances for Atmospheric Science coupled with Observations from a LIDAR) 61, 61 Pareto, V. 279 Pareto-Optimierung 279 Partialdruck 210 Partialdruckdifferenz 87 Partnerschaft zur Erdsystemforschung (ESSP) 12
Passatgrundschicht 116 Passatinversionsschicht 116 Passatoberschicht 116 Passatwind 117 Passatwüste 117 Passatzirkulation 116f passive Fernerkundung 22 passive Referenzszenarien, siehe SRES Pauperismus 266 pazifische Dekaden-Oszillation (PDO) 139 Pazifisch-Nordamerikanische Telekonnektion (PNA) 136 Pazifisch-Südamerikanische Telekonnektion (PSA) 140 P-Band 30 Pektin 171 Penck, A. 144 Pencksche Trockengrenze 144 Penman-Monteith-Modell 101 Perihel 77 – sonnennächster Punkt 74 Perihellänge 77, 147 Permafrost 88 – siehe auch ECV Permafrostböden 88 Permafrostgebiet 219 Perustrom 124 Pessimum – der Bronzezeit 259 – der Völkerwanderungszeit 259 Pflanzenverdunstung (Transpiration) 88 Phanerozoikum 85 – Definition 85 Phytoplankton 24, 250 – siehe auch ECV Planck, M. 76 Planckscher Strahler 75 planetare Albedo 82 planetarische Frontalzone 107 planetarische Welle 114 planetarische Zirkulation 80, 109 Plankton 255 Plattenepithelkarzinom 225 Pleistozän 253, 257 plötzliche Stratosphärenerwärmung 207 Pluviometrischer Index 144 PNA (Pacific North American Pattern) 122 polare Eisregionen, siehe ENVISAT polare Stratosphärenwolke (Polar Stratospheric Clouds, PSC) 207, 213 polare Waldgrenze 143 polarer Vortex 207 polares Hochdruckgebiet 119 Polarfront 111, 114, 212
352
Polargebiet, siehe polares Hochdruckgebiet Polarisierung der Menschheit 271 Polarkreis 83 Polarnacht 77, 119 Polartag 77, 119 polarumlaufende meteorologische Satellitenprogramme 41–48 polarumlaufender Satellit 25 Polarwirbel, siehe stratosphärischer Vortex POLDER (Polarization and Directionality of the Earth‘s Reflectances) 61 – siehe auch ADEOS Political Freedom Index (PFI) 273 Politik der Wachstumsbegrenzung 274 Politikberatung 303 politischer Entscheidungsprozess 283f politischer Umsetzungsprozess 287 politisches Mehrebenensystem 296 Pollenanalyse 145 Pollution Management 301 positive NAO-Phase 137, 139 positive Rückkopplung 89 – feedback 88 positive Strahlungsantriebe (positive forcing) 155 positive Wechelwirkung (feedback) 155 Post-Kyoto-Abkommen 283 Post-SRES-Szenarien 182 posttransformative Phase 269 potenzielle Energie 94 potenzielle Evaporation 87 potenzielle Landschaftsverdunstung 102 potenzielle Verdunstung 100, 102 PR (Precipitation Radar), siehe TRMM Präformationstheorie 93 PRARE (Precise Range And Rangerate Equioment), siehe ERS prätransformative Phase 268 Präzessionen, siehe Erdbahnparameter Precipitation Effectiveness Index 143 PREMIER 52 Primärenergie 267f Primärenergieverbrauch, Definition 268 primärer Klimafaktor 86, 148 Primärproduzent 167 Primaten 249 Primordialatmosphäre 71 Prioritätenliste 272 PRISM (Panchromatic Remote
Index
Sensing Instrument for Stereo Mapping), siehe ALOS R&D-Programme, Forschung und Entwicklung 48 Pro-Kopf-Verbrauch, weltweiter 272f Proxy-Indikatoren 303 Prozess, irreversibler 202 PSCs 11 PSC-Typ II 214 PSC-Typ Ia 213 PSC-Typ Ib 213 Pull-Faktoren 271 Puls-Quellen 284 Push-Faktoren 271 Pyknokline 125 Pyknometer 92 Pyranometer 228 Q Q-Fieber 224 quasi-barotrope Schicht 115 Quasi-Biennial Oscillation (QBO) 141f quasistabiler Klimazustand 89 Quellgase 73, 147 QuikSCAT 56 R RA (Radar Altimeter) 17 – siehe auch ERS RA2 (Radar Altimeter-2), siehe ENVISAT Radar 22 Radartechnologien, Einteilungen 30 Radiative Forcing (RF) 151, 153, 155–157 Radiokohlenstoffdatierung, Definition 263 Radiomet (Radio-Occultation Sounder) 66 Radiometer 25, 28, 31 – MVIRI 31f Radiowellen – (UHF) 23 – (VHF) 23 Raumfahrtagentur, siehe ESA, JMA, NASA Rayleigh-Strahlung 78 Rayleigh-Streuung 147 RBV (Return Beam Vidicon), siehe Landsat-Programm reale Wertschöpfung 278 realitätsnahe Temperaturkurve 303 Re-Analyse 15f Réaumur, R.-A. F de 92 Recycling 270, 301 Reduktionsverpflichtung 285 Reduktionsziele 282 Referenzstation 18
Reflektionsstrahlung 22 Reflexion 22 Reflexionsvermögen, siehe Albedo regenerative Energiequellen 267 Regenwald 117 Regenwaldmonitoring, siehe ENVISAT Regierungsweise, globale 296 Regional/Specialised Satellite Centres for Climate Monitoring (R/SSC-CM) 27 Regionale Klimatologie 1 regionale Temperaturverteilung 84 regionales Klimamodell 20 Regionalisierung 142 Regionalklima 4 Reibungskraft 104, 149 Reisanbau 169 relative Feuchte 94 – Definition 97 relative Vorticity 106 relatives Treibhauspotenzial, siehe CO2-Äquivalent Relief 88 REMO 20, 234 Remote Sensing, siehe Fernerkundung resilience 238, 277 Resource Management 301 Respiration 162 Resurs-Mission 63 Revelle-Faktor (Revelle buffer factor) 163 Rickettsiose 224 Ridged Ice (Packeis) 217 Riesenkerne 210 Rio-Gipfel 281 Risikomanagement 245 RMS (Radiation Measurement System) 66 Rocky Mountains 114 Römerzeit 261 Römisches Optimum 259 RosKosmos (Russische Weltraumagentur), siehe R&D-Programm – Programm 63 Rossbreiten 111 Rossby, C.-G. A. 114, 130 Rossby-Welle 108, 114, 129 Rot 30 Rubisco 192 Rücken 114 Rückkopplungen 148 – negative 87 – positive 87 Rußpartikel 180 RWK-2 (Space Environment Monitor) 66 Ryd, V. H. 108 Ryd-Scherhag-Effekt 107, 149
353
Index
S SAC-C 58 Sachverständigenrat für Umweltforschung (SRU) 301 SAG-II (Startospheric Aerosol and Gas Experiment), siehe ERBS SAGE-III (Stratospheric Aerosol and Gas Experiment - III) 66 Sahelanthropus tchadensis 252 Sahelzone 197, 200 Salinität 217 SALLJEX 9 Salzgehalt 243 – der Meeresoberfläche, siehe ECV SAPHIR (Sondeur Antmospherique du Profil d‘Humidite Intertropicale par Radiometrie), siehe Megha-Tropiques SAR (Synthetic Aperture Radar) 5, 58, 154 – Altimetrie 49 – Radarsystem 49 SARSAT (Search and Rescue Satellite Aided Tracking System) 65 – siehe auch MetOp-Programm, NOAA/POES-Programm, NPOESS-Programm Satelittensysteme, Klima- und Global-Change-Forschung 26f Satellit – geostationärer 25 – POEM 45 – polarumlaufender 25 Satellite Inter-Calibration System (GSICS) 27 Satelliteninstrumente 28 Satellitenmission – Forschung und Entwicklung (R&D) 29 – operationelle 28 Satellitenprogramme – geostationäre meteorologische 29f – polarumlaufende meteorologische 41–48 Sättigungsdampfdruck 94, 149, 210 Sättigungsdefizit 100 Sauerstoffisotope 145 Säulenhöhe 71 S-Band 23, 30 SBUV/2 (Solar Backscatter Ultraviolett/2) 66 – siehe auch NOAA/POESProgramm Scandinavian Pattern (SCAND) 139 Scanner 28 ScaRaB (Scanner for Radiation Budget) 66 – siehe auch Megha-Tropiques Scatterometer 28 Schelf 214
Schelfmeer 214 Scherhag, R. T. A. 108 Schiefe der Ekliptik 74, 77, 147 Schistosomiasis 231 Schlüsseltechnik 253 Schlüsselthemen 152, 185 Schmetterlingseffekt 90 Schneebedeckung 219 – siehe auch ECV Schneedecke 218 Schnee-Eis-Albedo-Rückkopplung 89 Schneemächtigkeit 219 Schnee-Wasser-Äquivalent 219 Schwächung des Immunsystems 223 schwarze Strahler, siehe schwarzer Körper schwarzer Körper 75 Schwarzes Meer 257, 259 Schwarzkörperstrahlung 85 schwefelhaltiges Aerosol 211 Schwefelhexafluorid (SF6) 173f Schwellenwert 203 schwereres Wasser 145 Schwerkraft 104f, 149 SCIAMACHY (Scanning Imaging Absorption Spectrometer for Atmospheric Cartography) 243 – siehe auch ENVISAT SCOPE 52 SeaSat-Mission 53 SeaStar 56 Sechstagekrieg 189 Sedimentationsgeschwindigkeit, Aerosol 210 seesaw 129 Seesediment 145 Seespiegelstände, siehe ECV Sehvermögen, menschliches 22 Seidenstraße 261 sekundärer Klimafaktor 86 Selektionsdruck 251 selektive Absorption 78, 147 SEM (GEO) (Space Environment Monitor) 66 – siehe auch FY-1- und FY-3Programm, GOES-Programm SEM/2 , siehe MetOp-Programm, NOAA/POES-Programm semidirekter Aerosoleffekt 180 Senkenpotenzial 161 Sentinel-1 bis 5, siehe GMES SESS (Space Environment Sensor Suite) 66 – siehe auch NPOESS-Programm Severjanin (X-band Synthetic Aperture Radar) 66 SEVIRI (Spinning Enhanced Visible Infrared Imager) 31f, 66, 245 SFM-2 (Ultraviolett spectrometer) 67
Sibirienhoch 208 sichtbar und nahes Infrarot (VIS + NIR) 30 sichtbarer Bereich 30 sichtbares Licht (VIS) 22f Signal-Rausch-Verhältnis (Signal-to-Noise-Ratio) (SNR) 31 Silberwurz 254 Silikatverwitterung 250 Singer, S. F. 304 Singularität 132, 201 Skalenhöhe 91 SM (Infrared Sounding Radiometer) 67 SMOS 51 SO2 11 solarer Energiefluss 82 Solarkonstante 74, 147 SOLAS 10 Solstitialstand 77 solubility pump 162 Sommermonsun 117 Sommersolstitium 77, 79 Sommersonnenwende, siehe Sommersolstitium Sonnenflecken 262 Sonnenstrahlung 74 – kurzwellige einfallende 78 sonnensynchroner Satellit 41 SOUNDER (GOES Sounder INSAT Sounder) 67 – siehe auch GOES-Programm Sounder (Sondierer) 28 Southern Oscillation (SO) 118f, 122, 150 – Index (SOI) 132 sozial-ökologische Forschung 274 sozioökonomische Entwicklung, siehe SRES-Szenarien SPARC 10 – -Projekt 10f spättransformative Phase 269 Special Climate Change Fund 298 spektraler Bereich 30 – siehe auch spektrales Band, Kanal spektrales Band 30 Spektralradiometer 228 Spektrum 75, 147 Spezielle Klimatologie 1 spezifische Albedo 81 spezifische Feuchte, Definition 97 SPM (Solar Proton Monitor) 67 Spörer, G. 262 Spörer-Minimum 262 sporogonischer Zyklus 232 SPOT (Satellite Pour l’Observatzion de la Terre) 60 – Vegetation-Sensor 60 Sprungschicht (Thermokline) 124, 130
354
Spurenbestandteile der Atmosphäre 71 Sputnik-1 25 SR (Scanning Radiometer) 67 SRES (Special Report on Emissions Scenarios) 181 – Szenarien 181, 183f SSCC (Spin Scan Cloud Camera) 67 SSM/I (Special Sensor Microwave/ Imager) 67 – siehe auch DMSP-Programm SSMIS (Special Sensor Microwave – Imager/Sounder) 67 SSM/T (Special Sensor Microwave/ Temperature), siehe DMSPProgramm SSM/T2 (Special Sensor Microwave/ Humidity) 67 – siehe auch DMSP-Programm SST (Sea Surface Temperature) 242 SSU (Stratospheric Sounding Unit) 67 stabile atmosphärische Schichtung 95 stabile Isotope 145 Stabilisierungsszenarien, siehe Post-SRES-Szenarien Standardnormale, siehe Klimanormalperiode Standortklima 4 starke Umweltinnovationen 302 statistisches Downscaling 245 Stefan, J. 76 Stefan-Bolzmann-Gesetz 76 Steinkohle 267 Steinzeit 257 Sterberaten 268 stereoskopische Aufnahme, siehe OPS Stern-Review 298 Stickoxid 171f Stickstoff-Deaktivierung 214 Stickstoffdünger 173 Stockwerkeinteilung der Atmosphäre 73 stomatäre Verdunstung 101 Storyboards 181 STR (Scanning TV Radiometer) 67 – siehe auch GOMS/ElektroProgramm Strahlung – abgehende langwellige terrestrische 78 – direkte 79 – diffuse 79 strahlungsaktive Gase 78, 147 strahlungsaktive Spurengase 87 strahlungsaktive (= strahlungsabsorbierende, asymmetrische) Moleküle 86
Index
Strahlungsantrieb 155f, 306 strahlungsbedingte (aktinische) Wirkung 224 Strahlungsbilanz 11 Strahlungsflussdichte 156 Strahlungshaushalt 80, 82 – siehe auch ECV Strahlungsklima 79 Strahlungsklimatologie 2 Strahlungskühlung 93 Strahlungsverhältnisse, Arktis 208 Stratigraphie 259 – Definition 249 Stratopause 73 Stratosphäre 10f, 73, 147 Stratosphärenerwärmung, plötzliche 207 stratosphärische Chlorkonzentration 225 stratosphärische Temperaturabschätzung 186 stratosphärische Wolken 11 stratosphärische Zirkulation 112 stratosphärischer polarer Winterwirbel (polar vortex) 113 stratosphärischer Vortex (Polarwirbel) 207 stratosphärisches Ozon 175 Stratospheric adjusted Radiative Forcing (RF) 157 Streuung 22, 24, 78 Stromsparen 292 Strömung, siehe ECV Subduktion 249 Sublimationswachstum 149 Submillimeter (Teil von FIR) 30 Submillimeterwellen 23 Substitutionsoption 291 subtropischer Hochdruckgürtel 116 südlicher Wendekreis 77 Südostasien-Oszillation (SEO) 136 Südostpassat 111, 117 Südpazifikstrom 124 Südpazifische Konvergenzzone (SPCZ) 125 – Definition 127 Süd-West-Monsun (Sommermonsun) 117 Sulfat-Aerosol 180 superexponentiell 265 Supplementaritätsprinzip 288 S-VISSR (Stretched Visible and Infrared Spin Scan Radiometer) 67 – siehe auch FY-2- und FY-4Programm Swarm 51 SXI (Solar X-ray Imager) 67 – siehe auch GOES-Programm symmetrische Moleküle 85
synoptisches Messnetz 14 System der Erdbeobachtung 16 System for Analysis, Research und Training (START) 13 Systemdenken 3 Systemzustand 307 Szenario IS92a 181 T tägliche Temperaturamplitude, siehe DTR Tandemmodus 49 TANSO-CAI (Thermal And Nearinfrared Sensor for Carbon Observations Cloud And Aerosol Imager), siehe GOSAT TANSO-FTS (Thermal And Nearionfrared Sensor for Carbon Observations Fourier Transform Spectrometer), siehe GOSAT TAO-(Tropical Atmosphere Ocean-) Messnetz 127 TAO/TRITOB-Messnetz 127 TAR 5, 154f Taupunkttemperatur, Definition 97 TBC 222 technikferne Handlungsbereiche der Umweltpolitik, siehe Biodiveristät, Bodenschutz Technologietransfer 4, 287 technologische Entwicklung 184 Telekonnektion 89, 121, 150 Temperatur 91 – Messung 92 Temperature Efficiency Index 143 Temperaturkonstruktion, letzte 1000 Jahre 305 Terrestrial Observation Panel for Climate (TOPC), siehe GCOS terrestrisch-thermischer Energiefluss 82 Tertiärisierung 272 TES (Tropospheric Emission Spectrometer), siehe EOS-AURA Theoretische Klimatologie 1 thermales Infrarot 30 thermisch bedingtes Expositionsverhalten 225 thermische Absorption 82 thermische Abstrahlung 82 thermische Konvektion 94 thermischer Äquator 97 thermisches IR 23 thermodynamischer Vorgang 94 thermodynamisches System 89 thermohaline “Pumpe” 138 thermohaline Strömungskomponenten (oceanic conveyor belt) 87 thermohaline Zirkulation 88, 137f – Definition 256
355
Index
Thermokline 124f Thermometer 92 Thermosphäre/Ionosphäre 74 Thompson, W. S. 130, 268 Thomsen, C. J. 257 Thomson, W. Sir 92, 93 thresholds 237 Tiefenzirkulation 216 tipping points 239, 307 TIROS 26 TM (Thematic Mapper), siehe Landsat-Programm TMI (TRMM Microwave Imager), siehe TRMM TOGA (Tropical Ocean Global Atmosphere) 60 – Messnetz 127, 9 Tolerable Windows Approach 279f TOMS (Total Ozone Mapping Spectrometer) 67 – siehe auch ADEOS top of atmosphere (TOA) 134 Top-down-Ansatz 162f TOPEX/Poseidon 61, 128 – El-Niño-Index 132, 134 – siehe auch TOGA und WOCE Topoklima 4 top-soil-moisture, siehe ASCAT TOU/SBUS (Total Ozone Unit & Solar Backscatter Ultraviolett Sounder) 67 Tracergas, Methylchloroform 171 transdisziplinärer Forschungsansatz 248 Transformationsprozesse 268 Transgression, marine 257 Transitivität 89, 148 Transmission 78 Transpiration 98, 149 Transpolardrift 215f TRAQ 52 Treibhauseffekt 78 Treibhausgasbulletin 7 Treibhausgase 4, 10 TRMM (Tropical Rainfall Measuring Mission) 56–58, 127 – Projekt 127 trocken-adiabatischer Temperaturgradient 94 trockene Passatzone 117 Trockengebiet 197 Trockenheitsindex 87 Troll, C. 144 Tropenkrankheiten 224 Tropenzone 77 Tropical Rainfall Measuring Mission (TRMM) 127 Tropical-Atmosphere-Ocean-Bojen (TAO) 15 tropische Monsunzirkulation 117
tropische Wirbelstürme 87 tropischer Feuchtwald 117 Tropischer Ozean – Globale Atmosphäre (TOGA) 15 Tropopause 11, 73 Troposphäre (Wettersphäre) 73, 147 troposphärisches Ozon 175 Tschadsee 260 Tschuktschensee 214 TSIS (Total Solar Irradiance Sensor) 67 – siehe auch NPO-Programm TV (Television Camera) 67 U UARS (Upper Atmospheric Research Satellite) 53 Übergang der Energiesysteme 268 UHF-Band 30 Ultraviolett 30 – UV-A) 23 – UV-B)23 – UV-C 23 – weiches UV 23 Umsetzungsstau 297 umweltbedingte Wanderungen (Migration) 270 Umweltindustrie 301 Umweltinnovation 301 Umweltökonomie 300 Umweltpolitik, technikferne Handlungsbereiche, siehe Biodiveristät, Bodenschutz Umweltschäden 151 UN Convention to Combat Deserification (UNCCD) 196f UNEP 7f, 17 UNESCO, Definition 15 UNFCCC 8, 18 United Nations Environment Programme (UNEP) 268 UN-Klimakonferenz – Bali (Indonesien) 7 – Poznan (Polen) 7 UN-Klimaschutzprojekt 288 UN-Konferenz für Umwelt und Entwicklung (UNCED) in Rio de Janeiro (Brasilien) 8, 277 Unterernährung 223 Upwelling 87, 124f Uratmosphäre 85 urbaner Wärmeinseleffekt 186 Urnebel 71 Urpassat 116 Ursprungsmensch 252 UV-B-Einstrahlung 228 UV-Belastung 227 UVI 227 – -Wert 227 UV-Index (UVI) 226f
– Vorhersagemodell 229 UV-Messnetz 226 UV-Messstation 227 UV-Strahlung 11, 226 – biologische Wirkungen 226 V Vakuumultraviolett – extremes UV 23 – Schumann-UV 23 VAMOS 9 VAS (VISSR Atmospheric Sounder) 67 V-Band 30 VCS (Vidicon Camera System) 67 Vegetation 88 Vegetationsmodell 166 Vegetationsperiode 194 Vegetationswechsel 265 Vektoren 221, 231 Verbrennung fossiler Energieträger, siehe CO2-Konzentration Verdampfungswärme 82 Verdunstung 98 Verdunstungsberechnung, Modelle 100 Verdunstungsrate 103 Verdunstungsverfahren – nach Haude 100 – nach Penman 101 – nach Thornthwaite 100 – nach Turc 101 Vergraupelung 98 Verkehr 292 Verkehrsträger, Gleichbehandlung 293 Verlagerung 292 Vermeidungsstrategie 248 Versiegelung 195 Verstädterung 186, 189 Verstädterungsprozess (Urbanisierung) 270 Versteppung 211 – siehe auch ENVISAT vertikale Temperaturverteilung 73 vertikaler Aufbau der Atmosphäre 72 vertikaler Austausch (Konvektion) 92 Vertragsstaatenkonferenz (Conference of the Parties, COP) 282 Verursacherprinzip 287 VHRR (GEO) (Very High Resolution Radiometer) 67 – siehe auch INSAT- und KALPANA-Programm Viehhaltung 190 VIIRS (Visible/Infrared Imager Radiometer Suite) 67 – siehe auch NPOESS-Programm
356
VIRR (Visible and Infrared Radiometer) 67 VIRS (Visible and Infra-Red Scanner), siehe TRMM VISSR (Visible-Infrared Spin Scan Radiometer) 67 VOC (Volatile Organic Compounds) 163 Völkerwanderung 261 vollhalogenierte Fluorkohlenwasserstoffe (PFC) 173f Vorticity 106, 149 – Gleichung 114 VTIR (Visible and Thermal Infrared Radiometer) 58 VTPR (Vertical Temperature Profile Radiometer) 67 Vulnerabilität 297 W Wachstumsperiode 196 Wachstumsrate 265 Walker, G. T. Sir 118f, 122f, 137 Walker-Zirkulation 118f, 150 Wärmeflussdichte der Erde 82 Wärmekraftmaschine 90, 267 warmer Hochdruckkeil 116 Warmfront 109 Warmphase 134 washout 157 Wasserdampf (H2O), siehe Absorptionsbande, ECV – IR 23 – Transport 82 Wasserdekade 190 Wasserhaushalt 240 – globaler 10 Wasserhaushaltsgleichung 144 Wasserknappheit 188 – Index (WKI) 188 Wassernutzung, siehe ECV Wassertemperatur 87 Wasserverlust durch Verbrauch 187 Watt, J. 267 W-Band 30 WBGU 5f WCASP 7 WCC 6 WCDMP 7 WCP 10 – siehe auch Weltklimapropramm WCRP 4, 7, 9–13 – siehe auch ESSP Wechselwirkungen 14, 87 Weingeistthermometer 93 Wellenhöhe, siehe ECV Wellenlänge 23 Weltbevölkerung 265, 270f Weltdatenzentrum Abfluss, siehe World Data Center System
Index
Weltentwicklungsprogramm UNDP 273 Weltgetreideproduktion 196 Weltgipfel für nachhaltige Entwicklung, Johannesburg (Südafrika) 7 Welthandel 274 Welthandelsorganisation (WTO) 296 Weltklimaforschungsprogramm, siehe WCRP Weltklimakonferenz 6 – erste 8 – Genf 8 – Kyoto 8 Weltklimaprogramm 6–14 Weltkonferenz – UN 296 – zur Katastrophenabwehr, Kobe (Japan) 7 Weltordnungspolitik 296 Weltorganisation für Meteorologie, siehe WMO weltweite Nahrungsmittelproduktion 195 weltweiter Ausstoß, CO2 297 weltweiter Pro-Kopf-Verbrauch (Konsum) 272f Wendekreiswüste 117 wesentliche Klimavariable 18 – siehe auch ECV Westküsteneffekt 97 Westnil-Fieber 231 Westpazifische Telekonnektion (WP) 136 westpazifisches Pattern (WP) 140 Westwinddrift 104, 108, 149 Westwindzone 108, 111 Wetterdienst 17 Wettersatelliten 27 WETTREG 20, 234 WGCM 10 WGNE 10 WGSF 10 WGSIP 10 Wien, W. K. W. 76 Wiensches Verschiebungsgesetz 75 WiFS (Wide Field Sensor), siehe IRS-Satelliten Windgeschwindigkeit, siehe ECV Windrichtung, siehe ECV Wintermonsun 118 Wirbelgröße 106, 149 wirtschaftliche Entwicklung 273 Wirtschaftsräume (EU, ASEAN, NAFTA) 272 Wirtschaftsstruktur 272 Wirtschaftswachstum 272 wissenschaftliche Ausgangslage, DAS 294 Witterungsanomalien 201
WMO 3, 6, 8, 17 – Regional Assoziation, siehe RA WOCE (World Ocean Circulation Experiment) 9, 60 Wohlfahrtsökonomie 272 Wolf, J. R. 262 Wolf-Minimum 262 Wolken 87 – und Niederschlag, Arktis 209 Wolkenbildung 185 Wolkeneigenschaft, siehe ECV World Climate Data and Monitoring Programme (WCDMP) 16 World Data Center System (WDC-System) 16 World Ocean Circulation Experiment (WOCE) 13 World Weather Records (WWR) 16 Wüsten-Albedo-Wechselwirkung 197 WWWP (World Weather Watch Programme) 6 Wyrtki, K. 128 X X-Band 23, 30 Z Zechsteinmeer 257 Zenit 77 Zenitalregen 116 Zerfallsprodukte, Effekte 285 Zirkulationssystem 94 Zivilisationsdynamik 151, 247, 269f zonale Zirkulationsform 150 – siehe auch High-Index-Typ zonaler Temperaturgradient 84 Zonenklima 4 Zooplankton 250 Züricher Zeitreihe 262 zusammengesetztes Klimaelement 87 Zustandsgleichung für ideale Gase 91 zweite Agrarrevolution 266 Zweiter Hauptsatz der Thermodynamik 90 Zweiter Twomey Effekt 211 zwischenbetriebliche Arbeitsteilung 272 zyklisches Salz 87 Zyklogenese 109, 115 Zyklon 108