Grundlagen der Meteorologie

Meteorologie

 

Meteorologie (altgriechisch μετεωρολογία meteōrología „Untersuchung der überirdischen Dinge oder Himmelskörper“[1]) ist die Lehre der physikalischen und chemischen Vorgänge in der Atmosphäre und beinhaltet auch deren bekannteste Anwendungsgebiete – die Wettervorhersage und die Klimatologie.[2][3]

Über die Atmosphärenphysik, die Klimaforschung und der Verbesserung der Methoden zur Wettervorhersage hinausgehend untersucht die Meteorologie also auch chemische Prozesse (z. B. Ozon­bildung, Treibhausgase) in derLufthülle und beobachtet atmosphärische Himmelserscheinungen. Sie wird zu den Geowissenschaften gezählt und ist an den Universitäten (siehe Meteorologiestudium) oft den Instituten für Geophysik bzw. der jeweiligen Fakultät für Physik angegliedert.

 

 

Geschichte der Meteorologie

Ursprünge

Wetterbeobachtung war schon für unsere als Nomaden lebenden Vorfahren von Interesse. Beobachtung und Aufzeichnung des lokalen Wetters war – und ist bis heute – für Bauern eine wichtige Grundlage für grundlegende Entscheidungen: wannsät man, wann erntet man.

·                    Je früher man sät, desto länger die mögliche Vegetationsperiode bis zur Ernte; bei früherem Säen drohen aber zugleich Einbußen durch Wettereinwirkungen auf die junge Saat.

·                    Je später man erntet, desto größer der Ertrag. Gleichwohl kann es besser sein, die Ernte etwas früher einzubringen, z. B. um sie vor einem nahenden Unwetter oder einer Schlechtwetterperiode in Sicherheit zu bringen

Wetterbeobachtung und -forschung kann auch militärischen Zwecken dienen. Beispielsweise war für Seeschlachten eine zutreffende Prognose von Windrichtung und -stärke nützlich oder sogar entscheidend.

Die Entdeckung Amerikas war der Auftakt für die „Eroberung der Weltmeere“. Der zunehmende interkontinentale Schiffsverkehr brachte viele neue Erkenntnisse über Wetterphänomene. Auf den Schiffen wurde das Wetter detailliert beobachtet und im Logbuch aufgezeichnet.

Frühe theoretische Ansätze lieferte Albertus Magnus: In seiner Abhandlung De natura locorum beschrieb er die Abhängigkeit der Eigenschaften eines Ortes von seiner geographischen Lage. Solche Ansätze wirkten weiter, sichtbar etwa in einer kurzen Darlegung der theoretischen Klimatologie durch den Wiener Astronomen Georg Tannstetter (1514).[4]

Eine erste Revolution in der Wetterkunde setzte zwischen 1880 und 1900 ein, als die meteorologischen Dienste einzelner Staaten ihre Wetterdaten mittels drahtgebundener und drahtloser Telegraphie austauschen konnten und so ein zeitnaher Datenvergleich möglich wurde. Dadurch konnten erstmals synoptische Wetterkarten erscheinen.

20. Jahrhundert[

Nach der Erfindung von Luftfahrzeugen (die erste Montgolfière flog 1783) konnte man mit Ballonen das Wetter in den unteren Luftschichten besser erforschen (siehe auch Wetterballon; Hauptartikel: Chronologie der Luftfahrt).

Ab der Erfindung des Motorflugs 1909 nahm die Bedeutung der Wetterforschung zu. Flugzeuge wurden zu wichtigen Forschungsgegenständen, mit denen man Wetter (z. B. „Wolken von oben“) großräumig beobachten bzw. fotografieren und Wetterdaten messen konnte.

Im Ersten Weltkrieg wurden zahlreiche Flugzeuge eingesetzt; zunächst zur Aufklärung; später auch zum Abwerfen von Bomben. Die Flugzeugtechnik (z.B. maximale Flughöhe, Reichweite, Geschwindigkeit) entwickelte sich sehr schnell (siehe z. B. Luftstreitkräfte (Deutsches Kaiserreich), Französische Luftstreitkräfte, Royal Air Force).

Im Zweiten Weltkrieg wurde das in den 1930er Jahren entwickelte Radar eingesetzt; es ermöglichte die Gewinnung neuartiger Wetterbeobachtungsdaten (siehe Wetterradar).

Während des Zweiten Weltkriegs vergrößerten alle kriegführenden Nationen ihre Luftstreitkräfte massiv (sie erwiesen sich an vielen Fronten als kriegsentscheidend); die ersten Düsenflugzeuge wurden gebaut; große Mengen von Wetterdaten wurden gesammelt. Man entwickelte und baute Jagdflugzeuge, die besonders hohe Dienstgipfelhöhen erreichen konnten. z. B. erreichten das deutsche Flugzeug Ta 152 oder der sowjetischen Jak-9PD etwa 14 km Höhe; noch kurz zuvor konnten maximal etwa 4 km Höhe erreicht werden.

Die Wehrmacht unterhielt von 1941 bis 1945 Wetterstationen in der Arktis.

Nach dem Krieg begann der Kalte Krieg; viele Länder unternahmen große Anstrengungen zur Erforschung des Wetters (z. B. das US-Projekt „Thunderstorm“). Außerdem entwickelte und baute man Aufklärungsflugzeuge, die so hoch fliegen konnten, dass sie von gegnerischen Bodenraketen zu dieser Zeit nicht erreicht werden konnten. Das SpionageflugzeugLockheed SR-71 hat eine Dienstgipfelhöhe von 24.385 Metern.

Die Wetterforschung in großen Höhen diente vor allem der Raumfahrt, insbesondere der bemannten Raumfahrt (siehe auchDer Wettlauf ins Weltall im Kalten Krieg), und der Entwicklung von Interkontinentalraketen. 1957 startete die Sowjetunion die erste funktionsfähige Interkontinentalrakete; wenige Wochen später brachte sie mit Sputnik 1 und Sputnik 2 zwei Satelliten in den Weltraum und löste so im Westen den „Sputnik-Schock“ aus.

Ein wesentlicher Meilenstein für die Wetterforschung war der Einsatz von Wettersatelliten. Der erste wurde 1960 gestartet; von 1960 bis 1966 starteten die USA insgesamt 10 TIROS-Satelliten. Von 1968 bis 1978 starteten sie acht (davon ein Fehlstart) NIMBUS-Satelliten. Sie hatten auch Infrarotkameras an Bord. Damit kann man – auch nachts – Wetterphänomene (z. B. Wolken) filmen und quantifizieren, wie viel Wärme erwärmte Teile der Erdoberfläche (Landmassen, in geringem Maße auch Wasserflächen) nachts ins Weltall abstrahlen (siehe Erde#Globaler Energiehaushalt). DieSatellitenmeteorologie gilt als eigenständiges Teilgebiet der Meteorologie.

Bekannte Wetterforscher waren z. B.

·                    Karl Ludwig Gronau (1742–1826)

·                    Wilhelm Jacob van Bebber (1841–1909)

·                    Ludwig Friedrich Kämtz (1801–1867)

·                    Karl Schneider-Carius (1896-1959)

21. Jahrhundert

Einen Quantensprung in der Wettervorhersage ermöglichen die rasanten Fortschritte in der Elektronischen Datenverarbeitung („EDV“) und die schnell wachsende Rechenleistung. Immer größere Datenmengen von immer mehr Meßstationen werden verarbeitet. Die ausgeklügelten Algorithmen, nach denen sie ausgewertet werden, erfordern gewaltige Rechenanlagen. Dadurch werden die Vorhersagen präziser und auch detaillierter in ihrer lokalen Auflösung.[5][6][7]

Allgemeines

 

Zwar ist der Hauptfokus der Meteorologie auf die großskaligen dynamischen Prozesse innerhalb der heutigen Erdatmosphäre gerichtet, jedoch sind die im Rahmen eines besseren Verständnisses der Wetterdynamik entwickelten Modellvorstellungen desselben auch auf andere Systeme übertragbar.

Man zählt daher auch begrenzte Raumklimate bzw. Stadtklimate, extraterrestrischeAtmosphären oder Atmosphären vergangener Erdzeitalter (Paläoklimatologie) zu den Studienobjekten der Meteorologie. Diese spielen jedoch meist nur in der Forschung eine größere Rolle, wo sie auch teilweise als „Spielwiese“ zur Verbesserung derjenigen Modelle dienen, die auch die derzeitige Erdatmosphäre beschreiben. Man versucht daher, durch genaue Beobachtungen der Erdatmosphäre eine gesicherte Datengrundlage auszubilden und gleichzeitig diese Daten für die Schaffung eines immer besseren Verständnisses meteorologischer Prozesse heranzuziehen.[9]

Viele Methoden, Herangehensweisen und Ideen der dynamischen Meteorologie entspringen der allgemeinen Fluiddynamikund finden weitere Anwendung in Meereskunde, Geophysik und Ingenieurwissenschaft sowie in fast allenUmweltwissenschaften.

Die Meteorologie ist – abgesehen von der Wetterbeobachtung (Wetterkunde) – eine junge Wissenschaft. Sie besitzt einen außerordentlich interdisziplinären Anspruch, vereint also sehr viele verschiedene Wissenschaften in sich. Wissenschaftliche Fachgebiete, die von der Meteorologie genutzt oder berührt werden, sind:

·                    Physik (Fluiddynamik, Thermodynamik, Elektromagnetismus, Optik)

·                    Mathematik (Numerik, partielle Differentialgleichungen, Funktionalanalysis, Lineare Algebra)

·                    Informatik (Programmiersprachen, Algorithmik, Behandlung großer Daten­mengen, Just-in-Time-Verfahren, Visualisierung)

·                    Chemie (Ozon­chemie, Stickstoff­chemie, Kohlenstoff­chemie)

·                    Geowissenschaften (Klimatologie, Paläoklimatologie, Glaziologie)

·                    Biologie (Climate Impact, Einfluss von Bewuchs auf Wetter/Klima)

Die Meteorologie lässt sich nach verschiedenen Richtungen unterteilen, wobei sich einige von ihnen stark überschneiden.

Teilgebiete

nach Verfahren

nach räumlichen Gegebenheiten

nach angewandten Techniken

allgemeine Meteorologie

Aerologie

Satellitenmeteorologie

theoretische Meteorologie

Aeronomie

Aeronomie

experimentelle Meteorologie

Grenzschicht-Meteorologie

LIDAR-Meteorologie

angewandte Meteorologie

·                    synoptische Meteorologie

·                    Flugmeteorologie

·                    technische Meteorologie

·                    Biometeorologie

·                    Agrarmeteorologie

 

 

 

 

Mikrometeorologie

 

Maritime Meteorologie

 

Alpine Meteorologie

 

Glaziale Meteorologie

 

Polare Meteorologie

 

Mittelbreiten-Meteorologie

 

Tropische Meteorologie

 

Diese Zusammenstellung ist nicht vollständig. Insbesondere beschäftigt sich die Meteorologie nicht nur mit derTroposphäre, also der untersten Schicht der Atmosphäre, sondern auch mit Stratosphäre und in beschränktem Umfang sogar mit Mesosphäre und Thermosphäre.

Datenquellen und Datenqualität

Die wichtigste Aufgabe und zugleich das größte Problem der Meteorologie als empirischer Wissenschaft besteht in der Erfassung, Bearbeitung und insbesondere in der Bewertung und dem Vergleich von Daten. Im Unterschied zu anderen Naturwissenschaften kann man in der Meteorologie dabei nur für eine kleine Minderheit von Fragestellungen kontrollierbare Laborbedingungen herstellen. Meteorologische Datenerfassung ist daher in der Regel an die von der Natur vorgegebenen Rahmenbedingungen geknüpft, was die Reproduzierbarkeit von Messergebnissen einschränkt und insbesondere denReduktionismus auf geschlossene, durch eine Messung beantwortbare, Fragestellungen erschwert.

 

Die wichtigsten Grundgrößen sind:

·                    Lufttemperatur

·                    Luftfeuchtigkeit (Taupunkt)

·                    Luftdruck

·                    Luftdichte

·                    Windrichtung bzw. Hauptwindrichtung

·                    Windstärke (phänomenologisch) bzw. Windgeschwindigkeit (Vektor, horizontal und vertikal)

·                    Niederschlagsart

·                    Niederschlagsmenge

·                    Bewölkung

·                    Sichtweite

·                    Globalstrahlung

·                    Albedo

Viele dieser Messwerte werden in Klimagärten erhoben.

Diese Größen werden in verschiedenen Standardformaten zum Datenaustausch bereitgestellt. In der Luftfahrt wird beispielsweise der Meteorological Aviation Routine Weather Report (METAR)-Code genutzt, für die Übertragung meteorologischer Daten von Landstationen der SYNOP FM12/13-Code, auf See gewonnene Daten werden mit dem Ship-Code verschlüsselt. Zur Klassifizierung der Ausprägung eines Parameters können unterschiedliche Hilfsmittel eingesetzt werden, für Wind beispielsweise kann die Beaufortskala oder die Sichtmarkentabelle einer Wetterstation dienen. Meteorologische Daten werden abhängig vom jeweiligen Status einer Wetterstation im Messnetz (als Klimastation, Niederschlagsmessstation oder synoptische Station) stündlich oder 2 bis 3 Mal am Tag (um 7, 12, 19 Uhr oder 7 und 19 Uhr) gewonnen und international ausgetauscht sowie national verarbeitet. Die Daten werden durch eine Vielzahl von meteorologischen Messgeräten erfasst, wobei die folgende Aufzählung nur die wichtigsten Beispiele aus dieser Vielfalt auflistet:

 

·                    Thermometer bzw. Thermograph (Temperatur bzw. Temperaturschreiber)

·                    Hygrometer bzw. Hygrograph (Luftfeuchtigkeit bzw. Lufteuchteschreiber)

·                    Thermohygrograph (Temperatur/Luftfeuchtigkeitschreiber)

·                    Barometer bzw. Barograph (Luftdruckmesser bzw. Luftdruckschreiber)

·                    Niederschlagsmesser bzw. Regenmesser/Ombrometer (Niederschlagsart/Niederschlagsmenge)

·                    Anemometer (Windgeschwindigkeit) bzw. Windsack (Windstärke/Windrichtung)

·                    Windfahne (Windrichtung)

·                    SODAR (Windgeschwindigkeit/Windrichtung)

·                    Aerograph(In Europa nicht üblich) oder der Anemograph bzw. Schreiber für Windrichtung und Windgeschwindigkeit

·                    Niederschlagsradar (Doppler-Radar)

·                    Wettersatellit

·                    Lysimeter (Versickerungs-Verdunstungs-Verhältnis → Evapotranspiration)

·                    Netradiometer/Netto Radiometer (Strahlungsbilanzmesser)

·                    Pyranometer (Globalstrahlungssensor)

·                    Albedometer (Reflexstrahlungsmesser)

Aus der Vielzahl von Messgeräten, der Art der Messgrößen und den Zielen ihrer Verwendung ergeben sich zahlreiche Probleme.

Für die Messgröße Niederschlag beispielsweise sind verschiedene Messgeräte zur Erfassung von Regen, Tau, Schnee und Hagel weit verbreitet und praxiserprobt. Aus methodischen Gründen wird die Erfassung von flüssigem (Regen, Tau) und festem (Schnee, Hagel) Niederschlägen unterschieden und die Messgröße daher nach den erfassten Niederschlagsarten klassifiziert angegeben. Die Messgenauigkeit der marktgängigen Verfahren zur Bestimmung des flüssigen Niederschlages kann mit ca. 30 % angesetzt werden, die des festen Niederschlages ist nicht besser. Andere Hydrometeore werden durch Ansaugen einer Luftmenge oder durch die Ablagerung an Stäben erfasst und volumetrisch bestimmt.

Die Qualität der Niederschlagsmessungen wird in erster Linie durch die Parameter Wind, Lufttemperatur, Aufstellungshöhe über Grund, Verdunstung und Aufstellort beeinflusst. Die Frage ihrer Vergleichbarkeit beziehungsweise der notwendigen Korrekturen ist Gegenstand wissenschaftlicher Diskussionen; für verschiedenste Niederschlagsmesser sind bereits zahlreiche Vergleiche durchgeführt worden (siehe hierzu WMO bzw.CIMO).

Auch die Messung der anderen meteorologischen Größen ist mit ähnlichen, wenn auch geringeren Problemen behaftet: beispielsweise konnte lange Zeit die vertikale Komponente der Windgeschwindigkeit nicht richtig erfasst werden und auch heute noch ist die Messung vertikaler Gradienten sehr aufwändig. Man beschränkt sich daher auch meist auf Bodenmessungen, wobei man je nach Messgröße standardisierte Bodenabstände von meist zwei oder zehn Metern anwendet. Zu beachten ist hierbei, dass eine einzelne meteorologische Messung nahezu bedeutungslos ist und die Wetterdynamik in größeren Raumskalen nur durch eine Vielzahl von Messungen verstanden und prognostiziert werden kann. Diese Messungen müssen hierfür jedoch vergleichbar sein, weshalb die Normung und Standardisierung von Messgeräten und Messverfahren in der Meteorologie sehr wichtig ist, aufgrund vielfältiger praktischer Probleme jedoch nur bedingt umgesetzt werden kann. Man spricht daher auch von Messnetzen und der Einrichtung von Wetterstationen. Diese befolgen in der Regel die VDI-Richtlinie 3786 oder andere, teilweise weltweit durch die World Meteorological Organizationstandardisierte Richtlinien.

Zu einer räumlichen Vergleichbarkeit der Daten, die zur Wettervorhersage notwendig ist, kommt jedoch auch eine zeitliche Vergleichbarkeit, die unter anderem für Klimaprognosen eine entscheidende Rolle spielt. Wird die Entwicklung der Messgeräte und damit der Messgenauigkeit bei der Analyse teilweise sehr alter Daten nicht berücksichtigt, so sind diese Daten wissenschaftlich beinahe wertlos, weshalb weltweit oft veraltete und seit Jahrzehnten unveränderte Messgeräte noch sehr weit verbreitet sind. Auch ist dies eine Kostenfrage, denn es ist hier nicht immer sinnvoll, die modernsten und damit teuersten Messgeräte zu verwenden, da diese nur für einzelne Länder bzw. Institute bezahlbar sind. Zudem ist jeder Wechsel der Messapparatur mit einem Wechsel der Datenqualität verknüpft, was bei längeren und sehr wertvollenMessreihen von vielen Jahrzehnten bis wenigen Jahrhunderten leicht zu falsch postulierten bzw. interpretierten Trendsführen kann. Es wird also oft zugunsten der Vergleichbarkeit auf eine höhere Genauigkeit verzichtet. Bei einer globalen Erwärmung von wenigen Grad Celsius sind diese sehr alten Daten meist wenig hilfreich, da schon ihr Messfehler in der Regel den Effekt dieser möglichen Temperaturänderungen übersteigt. Ein großer Teil der Argumente von sogenannten „Klimaskeptikern“ basiert auf dieser teilweise umstrittenen Datenlage, es existieren jedoch auch andere natürlicheKlimaarchive mit wesentlich genaueren Daten über sehr lange Zeiträume. Mit der Diskussion um die Aussagekraft von Temperaturaufzeichnungen hat sich u. a. das BEST-Projekt an der Universität Berkeley beschäftigt.

Es ergibt sich also die Notwendigkeit, bedingt durch standortspezifische, personelle und messtechnische Faktoren, Messdaten kritisch zu hinterfragen und diese richtig einzuordnen. In der Meteorologie steht hierbei die räumlicheDatenanalyse im Vordergrund, in der ansonsten eng verwandten Klimatologie spielt hingegen die zeitliche Datenanalyse (Zeitreihenanalyse) die Hauptrolle.

Strahlungsmessung

Die Gewinnung von physikalischen Größen aus Messungen in verschiedenen Bereichen des elektromagnetischen Spektrums ist eine Herausforderung, die nur mit großem technischen Aufwand sowie durch Einsatz von Modellen gelingt.

Satellitenmessung[

Ein wichtiges Hilfsmittel für Meteorologen, speziell der Satellitenmeteorologie, bilden heutzutage die Satelliten, insbesondere die Wetter- und Umweltsatelliten. Man unterscheidet hierbei geostationäre Satelliten, die in einer Höhe von 36'000 km stationär über der Erde verankert sind, und Satelliten, die auf einem LEO in 400 bis 800 km die Erde umkreisen. Aufgrund der großflächigen Erfassung von Messdaten lassen sich mit Satelliten globale Zusammenhänge erfassen und damit letztendlich auch verstehen.

Nur mittels Satelliten ist es heutzutage möglich, Informationen in Form von Beobachtungen auf globaler Basis und täglich aufgelöst über die Atmosphäre zu erlangen. Insbesondere den Zustand und die Zusammensetzung der oberen Atmosphäre (Stratosphäre, Mesosphäre, Thermosphäre) kann man nur wirkungsvoll durch den Einsatz von Satelliten untersuchen.

Hohe räumliche und zeitliche Auflösung von Satellitendaten ist wünschenswert, da man dadurch in die Lage versetzt wird, effektiv Atmosphärenbestandteile und deren Änderung zu überwachen. Satellitendaten leisten beispielsweise bei der Überwachung der Entwicklung der Ozonlöcher wertvolle Dienste, indem man aus Satellitenmessungen direkt den Gehalt von Ozon pro Höhe und pro Tag sehr genau abschätzen kann. Viele andere atmosphärische Spurengase werden auf diese Weise überwacht (beispielsweise Methan, Kohlendioxid, Wasserdampf), aber auch Druck und Temperatur in derAtmosphäre können so sehr genau und räumlich exakt bestimmt werden. Die fortschreitende Entwicklung der Instrumente und der Trend zu kleinen hoch spezialisierten Satelliten macht es darüber hinaus möglich, auch anthropogen induzierte Störungen der Atmosphärenzusammensetzung zu verfolgen. Zusammen mit in-situ durchgeführten Messungen (beispielsweise per Ballon) und Modellrechnungen ergibt sich so nach und nach ein immer geschlosseneres Bild des Zustandes der Erdatmosphäre.

Troposphärische Satellitendaten werden genutzt, um Erkenntnisse über Regionen zu erhalten, die keiner anderen Messmethode zugänglich sind. Ein Beispiel sind Niederschlagsschätzungen oder Windgeschwindigkeitsbestimmungen über den Ozeanen. Dort hat man kein enges Messnetz zur Verfügung und war lange Zeit auf großflächige Datenextrapolationenangewiesen, was selbst heute noch dazu führt, dass bei stark maritim geprägten Wetterlagen, beispielsweise an der Westküste Nordamerikas, wesentlich geringere Vorhersagequalitäten erreicht werden können als bei kontinental bestimmten Wetterlagen. Alle nicht satellitengestützten Datenerhebungen auf dem Ozean stammen hierbei aus Schiffs- oder Bojenmessungen beziehungsweise von Messstationen auf vereinzelten Inseln. Kenntnisse zu den Wetterverhältnissen über den Ozeanen können daher zu einer Verbesserung der Gesamtvorhersagen von Niederschlagsereignissen an Küstenführen. Dies ist gerade für vom Monsun betroffene Länder, wie Indien, eine lebenswichtige Information.

Satellitendaten werden, beispielsweise über die sogenannte Datenassimilierung, als Grundlage in der Klimatologie genutzt, um deren Modelle zu verbessern bzw. zu stützen und eine umfassende und gleichmäßige Datenerfassung zu ermöglichen.

Die Arbeit mit Satellitendaten erfordert weitreichende Kenntnisse in der Datenverarbeitung und der damit zusammengehörenden Technik und der Techniken (beispielsweise effiziente Programmierung). Große Datenmengen (heutzutage im Bereich von Terabytes) müssen empfangen, weitergeleitet, gespeichert, verarbeitet und archiviert werden.

Modelle und Simulationen[

Besonders in der Klimatologie (Klimamodell), aber auch in der Meteorologie (Numerische Wettervorhersage) undFernerkundung spielen Modelle eine herausragende Rolle. Sie gewinnen ihre Bedeutung durch verschiedene Faktoren:

·                    Mit zunehmender Entwicklung der Messtechnik und dem steigenden Anspruch an Wettervorhersagen steigt auch dieDatenmenge enorm an. Dadurch ist eine schriftliche Auswertung der Daten auf Wetterkarten nicht mehr ausreichend. Vereinfachte Modelle und Rechnersimulationen sind daher schneller, kostengünstiger und ermöglichen erst die umfangreiche Datenauswertung.

·                    Der Zeiträume in denen viele Effekte, beispielsweise Meeresspiegelschwankungen, auftreten sind enorm lang und können nur mit Modellen simuliert werden. Sie sind nicht direkt beobachtbar und zudem existieren keine durchgehenden und qualitativ ausreichenden Messreihen für solche Zeiträume. Meteorologen haben also in der Regel kein Labor, in dem sie Messungen durchführen können, und sind daher auf theoretische Modelle angewiesen. Diese müssen daraufhin wiederum mit real beobachteten Effekten verglichen werden. Ausnahmen sind beispielsweise dieKlimakammer AIDA des Forschungszentrums Karlsruhe und die Klimakammer am Forschungszentrum Jülich.

Das Design von Modellen ist ebenso eine Herausforderung, wie deren inhaltliche Gestaltung. Nur Modelle, welche dieNatur möglichst adäquat beschreiben, sind in Forschung wie Praxis sinnvoll einsetzbar. Da solche Modelle wegen der Komplexität des modellierten Systems leicht ganze Rechenzentren beschäftigen können, ist eine effiziente Algorithmik, also die Natur vereinfachende statistische Annahme, ein wichtiger Punkt bei der Entwicklung der Modelle. Nur auf diese Weise können Rechenzeit und somit die Kosten überschaubar gehalten werden.

In den 20er Jahren des 20. Jahrhunderts hat der Mathematiker Lewis Fry Richardson Methoden entwickelt, mit Hilfe derer die enorme Komplexität mathematischer meteorologischer Modelle angegangen werden konnten. Diese sind heute noch häufig die Grundlage meteorologischer Simulationen (Simulationsmodell) auf Supercomputern. Diese dienen daher auch nicht ohne Grund in sehr vielen Fällen zur Simulation der Wetter- bzw. Klimadynamik, wobei diese ihre Grenzen, trotz teilweise gigantischer Größendimensionen, schnell erreichen.

Es lassen sich verschiedene Arten von Atmosphärenmodellen grob unterscheiden: Strahlungstransfermodelle (bspw. KOPRA), Chemietransportmodelle (bspw. ECHAM) und dynamische Modelle. Der Trend geht jedoch zu integrierten Modellen oder „Weltmodellen“, die die gesamte Natur nachzeichnen (SIBERIA 2).

Bei der Verbesserung der Qualität der Modelle fließen, wie überall in der physikalischen Modellierung, sowohl statistische Verfahrensweisen als auch experimentelle Beobachtungen, neue Ideen usw. in das Verfahren ein. Ein bekanntes Beispiel hierfür ist die Entwicklung, die zur Erkenntnis geführt hat, dass die Veränderung von Spurengasmengen in der Atmosphäre (bspw. Kohlendioxid oder Ozon) zu einer „ungesunden“ Wärmeentwicklung der Biosphäre führen können (bspw.Treibhauseffekt, Abkühlung der Stratosphäre). Auch die Entdeckung des Ozonloches und die Verstärkung des Augenmerks der Wissenschaftler auf die damit zusammenhängende Atmosphärenchemie fällt in diese Kategorie.

 

Einfachstes meteorologisches Modell und zugleich die erste Bewährungsprobe für alle neuentwickelten Modelle zur Wettervorhersage ist die simple Übertragung des aktuellen Wetters auf die Zukunft. Es gilt hierbei der einfache Grundsatz eines konstanten Wetters, man nimmt also an, das Wetter des nächsten Tages wird dem des aktuellen Tages entsprechen. Dies wird als Persistenzprognose bezeichnet. Da Wetterlagen oft lange nahezu gleich bleibend sind, hat diese einfache Annahme bereits eine Erfolgswahrscheinlichkeit von circa 60 %.

Bitte geben Sie die Zeichenfolge in das nachfolgende Textfeld ein.

Die mit einem * markierten Felder sind Pflichtfelder.