Wettervorhersage
Die Wettervorhersage bzw. der Wetterbericht wird von staatlichen und privaten Wetterdiensten geleistet. Die Voraussetzung dazu liefert die Meteorologie als Disziplin der Naturwissenschaft.
Ziel der Wettervorhersage ist die Prognose eines Zustandes der Atmosphäre zu einer bestimmten Zeit an einem bestimmten Ort oder in einem bestimmten Gebiet. Dabei sind tatsächlich nicht nur Wettererscheinungen, die sich am Boden auswirken, gemeint, sondern es wird die gesamte Erdatmosphäre betrachtet.
Erstellung
Als physikalisches Ereignis lässt sich das Wetter durch entsprechende Naturgesetze beschreiben. Die grundlegende Idee einer Wetterprognose ist es, aus einem bereits vergangenen und dem aktuellen Zustand der Atmosphäre, unter Anwendung der bekannten physikalischen Regeln, einen Zustand in der Zukunft abzuleiten.
Die mathematischen Konstrukte, welche diese physikalischen Regeln beschreiben, sind allerdings sogenannte nichtlineare Gleichungen. Das bedeutet, dass bereits kleine Änderungen im Ausgangszustand zu relativ großen Veränderungen am Ergebnis der Rechnung führen können (siehe auch: Schmetterlingseffekt).
Es wird im Wesentlichen zwischen einer manuellen oder synoptischen Wettervorhersage und einer numerischen Wettervorhersage unterschieden, wobei heute immer noch eine Kombination beider Verfahren zur Anwendung kommt. Dies hängt damit zusammen, dass auch aktuelle numerische Prognosemodelle unzureichende Ergebnisse liefern. Um die lokale Klimatologie von Wetterstationen zu berücksichtigen, werden heutzutage den numerischen Berechnungen noch statistische Verfahren nachgeschaltet, wie z. B. die MOS-Verfahren Model Output Statistics.
Die Daten über den aktuellen Zustand der Atmosphäre kommen von einem Netz von Bodenmessstationen, die Windgeschwindigkeit, Temperatur, Luftdruck und Luftfeuchtigkeit sowie Niederschlagsmengen messen. Zusätzlich werden auch Daten von Radiosonden, Wettersatelliten, Verkehrsflugzeugen und Wetterschiffen verwendet. Problematisch ist dabei die unregelmäßige Verteilung dieser Beobachtungen und Messungen, sowie die Tatsache, dass in geringer entwickelten Ländern und über den Ozeanen relativ wenige Messstationen vorhanden sind.
Bezugszeit für einen Tag im Wetterbericht (Mo, Di, Mi,…) ist in der Regel 23:51 UTC des Vortages bis 23:50 UTC.[1] Da die Tiefsttemperaturen eines Tages in der Zeit um den Sonnenaufgang herum zu messen sind, bezieht sich das Tagesminimum im Wetterbericht auf diese Zeit und wird daher manchmal auch Frühwert genannt.[2] Ein Beispiel: Die Nacht von Samstag auf Sonntag soll besonders kalt werden, mit der tiefsten Temperatur kurz vor Sonnenaufgang. Diese Temperatur findet man im Wetterbericht dann als Tagesminimum vom Sonntag.
- Vorhersagesymbol: „sonnig“
- Vorhersagesymbol: „wechselhaft“
- Vorhersagesymbol: „bedeckt“
- Vorhersagesymbol: „Regenschauer“
- Vorhersagesymbol: „Regen“
- Vorhersagesymbol: „Gewitter“
- Vorhersagesymbol: „Schneefall“
Verlässlichkeit
Heute ist eine Prognose für die kommende Woche ungefähr so zuverlässig, wie sie es vor dreißig Jahren für den nächsten Tag war. Die 24-Stunden-Vorhersage erreicht eine Eintreffgenauigkeit von gut 90 %. Die Treffsicherheit für die kommenden 3 Tage beträgt etwas mehr als 75 %.
Die Zuverlässigkeit schwankt jedoch sehr stark in Abhängigkeit von der Wetterlage. So ist es bei einer stabilen Winterhochdrucklage manchmal problemlos möglich, eine Woche mit 90 % Sicherheit zu prognostizieren. Dagegen liegt die Prognosegüte bei einer instabilen Gewitterlage im Sommer oft deutlich unter 70 % für 24 Stunden. Ebenfalls muss man bei der Prognosegüte zwischen Temperatur und Niederschlag unterscheiden. Temperaturen können deutlich genauer als Niederschlag prognostiziert werden.
Seit 1968 ist die Qualität der DWD-Modellvorhersagen stetig gestiegen. Neue, leistungsfähigere Rechner und verbesserte Wettermodelle wie auch verbesserte Satellitendaten führten oftmals zu einem sprunghaften Anstieg der Genauigkeit in Richtung Optimum (1,0), wie hier am Beispiel der Bodendruckvorhersagen. Ab 1978 konnten statt zwei dann vier Vorhersagetage gerechnet werden, ab 1991 sogar sieben Tage. 2008 war eine Sieben-Tage-Vorhersage besser als die Zwei-Tage-Vorhersage zu Beginn des Computerzeitalters 1968. Eine sehr gute Übersicht über die historische und heutige Genauigkeit von Unwetterwarnungen und Wettervorhersagen ergibt die Broschüre Wie gut sind Wettervorhersagen? des Deutschen Wetterdienstes.[3] Mit einer Trefferquote von über 90 Prozent sagt der Deutsche Wetterdienst heute die Temperatur des folgenden Tages voraus, vor 30 Jahren betrug dieser Wert nur gut 70 Prozent; bei der Windgeschwindigkeit sind die Angaben in über 95 Prozent korrekt, bei der Niederschlagsmenge in über 80 Prozent der Fälle.[4]
Gründe für die fehlende Verlässlichkeit
Teilweise ist die Wettervorhersage nicht so verlässlich, wie die Allgemeinheit und verschiedene Fachgebiete es sich wünschen.[5] Dies hängt vor allem mit zwei Ursachen zusammen:
- der unvollständigen Kenntnis des tatsächlichen Geschehens in der Erdatmosphäre.
- Was geschieht genau in der Atmosphäre? → Grundlagenforschung. Noch unverstandene Wetterphänomene müssen erforscht werden. Beispiel: Wie interagieren Eigenschaften des Bodens (Wärme, Feuchtigkeitsgehalt, Albedo) mit den tieferliegenden Luftschichten?
- Wo und wann geschieht etwas in der Atmosphäre? → Nicht alle benötigten Daten werden erhoben, und wo sie erhoben werden, geschieht dies zwangsläufig mit Lücken. Beispiele: Nicht überall stehen Wetterstationen, Gebirgstäler werden von Wetterradars nicht immer abgedeckt, die Zahl der Wetterballons ist aufgrund der Kosten sowohl in der räumlichen als auch zeitlichen Abdeckung begrenzt.
- Wie geschieht etwas in der Atmosphäre? → Die tatsächlichen meteorologischen Zusammenhänge müssen in ein genügend genaues rechnerisches Modell übersetzt werden. Diese reflektieren die jeweiligen Fortschritte in der Grundlagenforschung wie auch der Rechenkapazität der Computer (Das Rechengitter hat derzeit typischerweise eine Maschenweite von 1 km - 20 km). Die mittleren Effekte der Vorgänge die auf kleineren Skalen als der Rechengitterweite stattfinden (z. B. Schmelzen eines Hagelkorns) müssen mittels vereinfachenden Näherungen (sogenannten Parametrisierungen) beschrieben werden.
- der grundsätzlich nicht vorhersehbare Anteil des Wettergeschehens → Chaosforschung, Schmetterlingseffekt. Unter welchen Umständen resultiert eine kleine Ungenauigkeit im Wettermodell bzw. in den Messwerten in einer sehr ungenauen Prognose?
Aus Gründen der Rechenzeit und der großen anfallenden Datenmengen können die beteiligten Luft- und Wassermassen noch nicht mit zufriedenstellender Genauigkeit berücksichtigt werden. Es spielen zu viele einzelne Faktoren eine Rolle, deren Zusammenspiel man bis dato und auch in näherer Zukunft nicht vollständig analysieren kann. Daher machen lokale Einflüsse wie Gebirge und ihre unregelmäßig geformten Hänge, Effekte unterschiedlicher Einstrahlung durch „falsch“ berechnete Bewölkung, der Bewuchs (Wald zu Acker!) oder das Gestein so viel aus, dass die Treffsicherheit für die nächsten 4 bis 7 Tage erheblich sinkt. Das theoretische Limit der Wettervorhersage wird heute bei 14 Tagen angenommen.[6] Darüber hinaus befindet man sich im Bereich der Klimavorhersage, wie der subsaisonalen, saisonalen oder dekadischen Vorhersage, und kann nur noch statistische Aussagen über längere Zeiträume treffen, aber keine konkreten Ereignisse mehr seriös vorhersagen.[7]
Aus den vorhandenen Datenmodellen lassen sich für unterschiedliche Vorhersagebereiche dennoch sehr zuverlässige Vorhersagen für wetterabhängige Branchen erstellen. Der Deutsche Wetterdienst hat ein Vorhersagemodul für die Kornfeuchte bei vollreifem Getreide erstellt. Dieses Modell sagt mit hoher Genauigkeit die Kornfeuchte von Getreide anhand von Bodenfeuchte, Luftfeuchte und Sonneneinstrahlung vorher. Die Vorhersagezeit reicht 5 Tage in die Zukunft. Die Vorhersagen werden nur in der Zeit der Getreideernte im Sommer erstellt.
Die Theorie der Meteorologie ist zwar durch die Gasgesetze, die Thermodynamik und die Strömungslehre weitgehend geklärt, kann aber durch kleinräumige Effekte von bis zu Kilometer-Dimensionen nicht alle Luftbewegungen mit ausreichender Genauigkeit berechnen. So kann beispielsweise an einem sonnigen Tag die Temperatur über dunklen und hellen Flächen um mehrere Grad differieren. Ähnliches tritt zwischen Sonnenseite und Schattenseite eines Gebirgskammes auf oder zwischen Gewässern und festem Boden.
Wetter-Apps
Wetterprognose-Apps sind sehr beliebt, und sie sind auf vielen Smartphones vorinstalliert (z. B. "Weather" auf iPhones). Die Apps beziehen ihre Prognosen nicht selten aus dem öffentlich zugänglichen und kostenlosen GFS-Modell der US-amerikanischen NOAA. Dies hat für den Benutzer den Vorteil, dass Prognosen für die gesamte Welt verfügbar sind, und für den Anbieter den, dass softwaretechnisch keine Integration mit regionalen Wetterprognosen notwendig ist.[8] Jedoch arbeitet GFS mit einem 28 km × 28 km-Raster, was zum Beispiel eine genaue Abbildung von Gebirgszügen verunmöglicht – sie erscheinen im meteorologischen Modell als Hochebenen. Die Wetterprognose für Sion zum Beispiel – 515 m über Meer, mitten in den Alpen gelegen und einer der wärmsten Orte der Schweiz – entsteht dann über eine Anpassung an frühere Erfahrungswerte, und nicht direkt aus dem Wettermodell.
Des Weiteren wird kritisiert, dass Wetter-Apps selten darüber aufklären, wo deren Grenzen liegen. Zum Beispiel werden langfristige Prognosen oft gleich präsentiert wie die wesentlich zuverlässigeren kurzfristigen Prognosen. Auch fehlen oft Hinweise darauf, wie oft und zu welchen Zeitpunkten die Prognosen erneuert werden.[8]
Wet bias
Das sogenannte „Nässe-Bias“ ist eine absichtlich eingeführte systematische Verzerrung in den Wetterprognosen. Sie sorgt dafür, dass nasseres Wetter vorausgesagt wird, als (statistisch gesehen) tatsächlich eintrifft.
Geschichte
Die Abschätzung der zukünftigen Wetterentwicklung interessiert die Menschen seit Jahrtausenden und ist Gegenstand intensiver Erfahrung (siehe: Wetterzeichen) und zunehmender Forschung.
Versuche, das Wetter vorherzusagen, sind seit dem Altertum überliefert und dürften noch länger zurückreichen, wenn man bedenkt, wie stark Menschen – besonders in der Landwirtschaft – von Niederschlag und Temperatur abhängig waren.
Sogenannte Lostage, als Bauernregel bekannt, sind als Versuch anzusehen, analog den scheinbar immer wieder gleich ablaufenden Jahreszeiten die Zeiten dazwischen weiter in wetterrelevante Abschnitte zu unterteilen. Man ging davon aus, dass an Lostagen – ähnlich einem Knoten in einem Entscheidungsbaum – das Wetter und die Witterung, abhängig vom Zustand an diesem Tag, einen gewissen weiteren Verlauf nehmen würden, der aus Überlieferungen und später Aufzeichnungen ermittelt werden könne. Die wissenschaftlich fundierte Wettervorhersage begann übrigens mit ähnlichen Methoden: Man versuchte in der Zeit vor der Telegraphie, im Wetter kurzfristige Muster zu erkennen und zum Beispiel aus den Niederschlägen, der Temperatur und dem Luftdruck der letzten drei Tage das Wetter von Morgen vorauszusagen.
Technische Fortschritte
Otto von Guericke erkannte im Jahr 1660 erstmals den Zusammenhang zwischen Abfallen des Luftdrucks und Aufzug eines Unwetters. Einfache Hygrometer waren auch schon früher bekannt – etwa die „Wetterdistel“, deren aufgerollte Blütenblätter eine erhöhte Luftfeuchtigkeit anzeigen und so vor Regen warnten.
Ein europäisches Stationsnetz mit gleichzeitigen Beobachtungen für die synoptische Methode entstand bald nach 1800. Fehlende Kommunikationsmöglichkeiten verhinderten aber ihren Siegeszug: Reiter und Postkutschen waren nämlich mit 60 bis 120 Kilometern pro Tag zu langsam, um die Messdaten in nützlicher Frist zu einer entfernten Großstadt zu befördern – die Geschwindigkeit von Wetterfronten beträgt nämlich etwa 30 bis 60 km/h.
Der erste entscheidende Umbruch in der Wettervorhersage geschah somit durch die flächendeckende Ausbreitung der Telegraphennetze im 19. Jahrhundert. Die kommerzielle Telegraphie entstand 1835, flächendeckende Netze in europäischen Ländern gab es um 1855, und die erste Ost-West-Telegraphenverbindung in den USA kam im Jahre 1861 zustande. Dank Telegrammen konnte man die Messdaten je nach Windrichtung dem Wetter „vorausschicken“, was erste brauchbare Wetterprognosen ermöglichte: Die Londoner Times veröffentlichte 1861 die ersten Wetterprognosen, und erste Wetterkarten wurden im selben Jahr publiziert.
Zwei Briten, Francis Beaufort und Robert FitzRoy, sind eng mit der Verbesserung der Wetterprognosen verknüpft. Beaufort entwickelte die nach ihm benannte Wind-Skala, und FitzRoy leitete im Board of Trade eine Abteilung, welche Wettermeldungen von Schiffskapitänen sammelte. Im Jahre 1859 geschah das Unglück des Schiffes Royal Charter, welches in einem schweren Sturm kenterte. Dies veranlasste FitzRoy, Wetterkarten zu zeichnen, und fünfzehn Wetterstationen an Land lieferten Daten für Sturmwarnungen, die dann wiederum per Telegraphen an die Häfen weitergeleitet wurden. In der Industrialisierung, während der 1870er Jahre, wurde das Telegraphennetz schließlich so weit ausgebaut, dass synoptische Wettervorhersagen ermöglicht wurden. In Ergänzung zur Telegraphie mussten auch standardisierte Begriffe für Wetterlagen und Wolkentypen erschaffen werden (1802 erste Klassifizierung durch Luke Howard, 1896 veröffentlichte die World Meteorological Organization den International Cloud Atlas als erstes Standardwerk). Um 1900 entstanden viele nationale Wetterdienste, die in Kooperation eine großräumige synoptische Wettervorhersage entwickelten. Im Jahre 1911 sendete das britische „Met Office“ über das Radio erste Sturmwarnungen zu Händen von Seeleuten, und der nordatlantische Eis-Warndienst entstand als Folge des Titanic-Unglücks 1912.
Da für Wetterprognosen aktuelle Messwerte unerlässlich sind, wurde schon früh an automatischen Wetterstationen gearbeitet, um Wetterdaten von abgelegenen Gebieten zu erhalten. So baute die deutsche Kriegsmarine im Spätjahr 1943 in Kanada eine batteriebetriebene Wetterstation auf, die während sechs Monaten alle drei Stunden Messwerte senden sollte.
Das zukünftige Wetter wird berechnet
Der englische Wissenschaftler Lewis Fry Richardson entwarf 1922 die erste Idee zur Wettervorhersage mittels „Computern“. (Früher war „Computer“ die Bezeichnung für einen Menschen, der Berechnungen anstellt, so etwa in der Landesvermessung.) Er stellte sich vor, die gesamte Atmosphäre der Erde könne man in Abteilungen unterteilen; die Grenzen zwischen diesen Abteilungen werden durch die Höhe über Meer sowie durch die Breiten- und Längengrade definiert. In jeder dieser Abteilungen „sitzt“ ein Mensch, der bestimmte lineare Gleichungen anwendet. Er berechnet aus dem physikalischen Zustand seiner eigenen sowie benachbarter Abteilungen (Windgeschwindigkeit, Windrichtung, Luftfeuchte, Temperatur…) Vorhersagewerte für sein Abteil und gibt die Resultate seinen benachbarten Abteilungen weiter, damit diese den nächsten Berechnungsschritt durchführen können. Dieses Grundprinzip – die Unterteilung der Atmosphäre in Kompartimente, die jeweils zu Beginn der Berechnung mit tatsächlichen, gemessenen Startwerten initialisiert werden – wird heute noch angewendet.
Heutzutage ist die Wettervorhersage ohne leistungsfähige Rechner undenkbar, und in den 1950er und 1960er Jahren war die Meteorologie die treibende Kraft hinter dem Bau der ersten Supercomputer. Von der Computertechnik her interessant ist, dass bei der Wetterprognose die identischen Rechenschritte unzählige Male ausgeführt werden müssen – nämlich für jedes der Kompartimente einmal. Somit eignen sich Parallelrechner, welche Operationen gleichzeitig (parallel) anstelle nacheinander (seriell) durchführen, besonders für die Wettervorhersage. Da aber die Geschwindigkeit der einzelnen Computer-Prozessoren seit den 2010er Jahren kaum noch erhöht werden kann, verfügen die leistungsfähigsten Computer der Welt ohnehin über Tausende von Prozessoren bzw. Prozessorkerne, die gleichzeitig an denselben Aufgaben rechnen.
Die Bedeutung von Supercomputern und einer ausreichenden Datengrundlage wurde durch den Hurrikan Sandy (2012) unterstrichen. Während der amerikanische National Weather Service auf einem Rechner verschiedene Prognosemodelle betrieb, besaß das europäische ECMWF ein leistungsfähigeres Rechenzentrum, welches nur mit einem Modell arbeitete. Während das ECMWF bereits sieben Tage vorher – und mit geringer Irrtumswahrscheinlichkeit – prognostizieren konnte, dass der Hurrikan aufs amerikanische Festland stoßen wird, hielt das Modell des NWS dies für unwahrscheinlich. Dank dem besseren ECMWF-Modell konnte die Katastrophenwarnung wesentlich früher herausgegeben werden[9] – allerdings haben spätere Berechnungen gezeigt, dass das ECMWF-Modell ohne die Daten der polaren Wettersatelliten zum selben Ergebnis wie der NWS gekommen wäre.[10]
Mehr und bessere Daten
Seit den 1950er Jahren wurde die Datengrundlage der rechnerischen Wettervorhersage ebenfalls verbessert, so zum Beispiel durch Wettersatelliten, ein Netz von Radiowettersonden und Wetterradars. Dabei stieg der relativ zuverlässige Vorhersagezeitraum in mittleren Breiten von etwa 3 Tagen auf 4–5 Tage, was für viele Sparten der Wirtschaft, im Verkehr oder im Bauwesen sowie für Planungen in der Landwirtschaft eine merkliche Verbesserung bedeutete.
Auch die Automatisierung und die Vernetzung der Wetterstationen brachte große Fortschritte. Während Wetterstationen früher noch von Fachleuten betrieben und unterhalten werden mussten, senden moderne Wetterstationen die Daten automatisch an die Wetterdienste. Wetterstationen mit einer eigenen Stromversorgung (Solarzellen und Akkus) und einem Satellitenmodem können auch in den abgelegensten Gebieten aufgestellt und jahrelang betrieben werden.
Neuere Entwicklungen in den Datenwissenschaften ermöglichen es etwa, in den Messwerten selbst Muster zu erkennen und zum Beispiel herauszufinden, welche Messstationen unter welchen Umständen die bedeutendsten oder die zuverlässigsten Werte liefern. So lassen sich auch mit privaten, kaum standardisierten Wetterstationen nützliche Erkenntnisse gewinnen.
Übersicht über die Entwicklungen
Fortschritte in der Wetterprognose geschahen seit den 1950er Jahren – ohne eine zeitliche Reihenfolge aufzustellen – durch:
- Messstationen
- Stationen sind zahlreicher geworden, dichteres Netz
- Messung zusätzlicher Parameter wie Smogpartikel (die als Kondensationskeime für Niederschlag dienen)
- automatische Übermittlung der Messwerte
- Wetterballone
- heute auch mit GPS
- Wetterradars
- für die kurzfristige Prognose
- um die Regenmengen-Messungen der Wetterstationen zu ergänzen
- Fähigkeit, zwischen verschiedenen Niederschlagsarten und -intensitäten zu unterscheiden
- verbesserte Simulationsmodelle wie z. B. das Non-hydrostatic Mesoscale Model im Rahmen des Weather Research and Forecasting Model
- spezialisierte Prognosen und Wettermodelle
- Hurrikanwarnungen, Lawinenwarnungen
- Einschätzung der Waldbrandgefahr, voraussichtliche Ausbreitung von Waldbränden
- Flutwarnungen, indem die vorausgesagte Niederschlagsmenge mit der Abfluss-Kapazität von Flüssen kombiniert wird (siehe Hydrologie)
- Vegetationsprognosen z. B. für Landwirte und Pollen-Allergiker
- Fernerkundung durch Satelliten
- nicht nur das sichtbare Licht, sondern auch das Infrarotspektrum wird nun ausgewertet
- Vegetationsanalysen – der unterschiedliche Pflanzenbewuchs beeinflusst die Erwärmung des Bodens und die Verdunstung von Wasser, beides Faktoren, welche wiederum das Wetter beeinflussen
- verbesserte topographische Modelle (SRTM), um Wind und Steigungsregen besser zu modellieren
- leistungsfähigere Computer
- für mehr Modellläufe innerhalb derselben Zeit: Stimmen die Prognosen überein, auch wenn man die Startwerte leicht verändert? (→ Ensemble-Modelle)
- ermöglicht eine Verkleinerung des Rasters bei den Rechenmodellen, um die Zuverlässigkeit der Modelle zu erhöhen
- Beispiele: Global Forecasting System der NOAA: weltweit 28 km × 28 km bzw. 70 km × 70 km,[11] europaweit 3 km × 3 km bei bestimmten Modellen der Firma meteoblue,[12] COSMO-DE des Deutschen Wetterdienstes 2,8 km × 2,8 km mit 50 Höhenschichten,[13] MeteoSchweiz COSMO-1 mit 1,1 km × 1,1 km[14][15], AROME der ZAMG in Österreich 2,5 × 2,5km[16]
- (Online-)Wetterdienste
- Lokale Wetterprognosen, z. B. durch die Anpassung einer großräumigen Prognose an die lokalen Begebenheiten mittels Erfahrungswerten
- Entstehung privater Wetterdienste; Konkurrenzkämpfe
- verändertes Freizeitverhalten der Bevölkerung (Outdoorsport zum Beispiel) bedingt genauere Prognosen: Die Menschen möchten schon am Montag wissen, ob das Wochenendwetter gut ist
Ausblick in die Zukunft:
- Die Verkleinerung des Gitters, bedingt durch leistungsfähigere Computer, erlaubt noch genauere und noch langfristigere Prognosen.
- Die heutigen Rastergrößen (4 km × 4 km) sind oftmals größer als typische Gewitterzellen. Mit verkleinerten Gittern (z. B. 1 km × 1 km) lassen sich kleinräumige Phänomene wie die Konvektion von Luftmassen überhaupt modellieren, und somit der Entstehungsort und -zeitpunkt von Gewittern[13] Ähnliches kann auch für Tornados gesagt werden, für die bislang noch keine brauchbaren Prognosemodelle existieren.
- Noch besseres Verständnis meteorologischer Effekte, insbesondere das Zusammenspiel des Bodens mit den untersten Schichten der Atmosphäre.
Wettervorhersage in den Medien
Deutschland
Im deutschen Fernsehen:
- Bei Wetterkarten im Fernsehen und in Zeitungen ist es üblich, das Sende- oder Verbreitungsgebiet grafisch hervorzuheben. So ist bei der Wetterkarte im Ersten Deutschland farblich von den Nachbarländern abgesetzt; in den Karten der Regionalsendungen des WDR ist die Landesgrenze von Nordrhein-Westfalen erkennbar.
- Bei den beiden großen Fernsehsendern (Das Erste und ZDF) ist die grafische Hervorhebung Deutschlands erst seit der Wiedervereinigung 1990 üblich. Davor kam sowohl in der Tagesschau als auch in heute eine Mitteleuropakarte ohne Grenzen zum Einsatz.
- Trotz der deutschen Teilung wurde in den Wetterberichten von Das Erste und ZDF das Wetter für beide deutschen Staaten vorhergesagt, was am auffälligsten durch eine gesamtdeutsche Verwendung der Wettersymbole zum Ausdruck kam. Während in der Wetterkarte des Ersten einige westdeutsche Großstädte und Berlin eingezeichnet waren, war auf der ZDF-Karte auch Leipzig zu finden. Der Begriff DDR wurde nicht verwendet, stattdessen hieß es „im Osten“, analog zu „im Norden“ oder „im Südwesten“ für Regionen in der damaligen Bundesrepublik.
- Bis in die 1960er-Jahre wurde auf der Wetterkarte der Tagesschau Deutschland in den Grenzen von 1937 dargestellt.
- Nach dem parlamentarischen Beschluss der Wiedervereinigung führte zuerst die Tagesschau eine Wetterkarte ein, die das klar umrissene Gebiet des wiedervereinigten Deutschlands zeigte.
- Die Deutschland-Wetterkarte der 20-Uhr-Tagesschau enthielt am 30. März 2008 folgende Städte: Kiel, Hamburg, Hannover, Köln, Frankfurt, Stuttgart, München, Rostock, Berlin und Dresden. In der 19-Uhr-heute-Karte waren es statt Hannover, Köln und Frankfurt jedoch Kassel, Bonn und Saarbrücken (in anderen heute-Ausgaben wird eine detailliertere Karte mit weiteren Städten eingeblendet).
Österreich
Österreich wird längs vom Alpenhauptkamm durchzogen, der eine deutliche Wetterscheide bildet. Oft treten Wettererscheinungen nur regional auf, was auf einer Umrisskarte Österreichs samt den Bundesländergrenzen gerne durch einen Präsentator mit die Gebiete überstreichenden Handgesten oder per Fingerzeig etwa durch Bernhard Kletter veranschaulicht wurde oder wird. Die Daten werden von den staatlichen Wetterdiensten ZAMG bzw. Austrocontrol (Flugwetter) erhoben und Prognoserechnungen (AROME-Modellkette und INCA-Nowcasting)[17], Wetterberatung und -warnung durchgeführt. Daneben gibt es einige private Wetterdienste z. B. UBIMET mit eigenen Messstellen sowie weitere Behörden (Umweltämter, hydrologische Dienste, Straßenmeisterei, Lawinenwarndienste, die meteorologische Messungen durchführen). Es gibt 5 Wetterradare (Wien-Flughafen, Salzburg, Innsbruck, Zirbitzkogel, Valluga)[18] und 4 Wetterballonstartplätze (Wien, Graz, Linz, Innsbruck)[19] sowie mehrere hundert weitgehend automatisierte Bodenstationen[20]. Der staatliche Rundfunk ORF besitzt für die Vorhersage eine eigene Wetterredaktion (ähnlich dem ZDF in Deutschland) der auch erfahrene Meteorologen angehören.
In frühen Jahren, etwa um 1970, noch in Schwarz-Weiß, war in der Rückwand des Studios ein weniger als 1 m breiter Bildschirm eingelassen, auf den von hinten Wettersymbole und Temperaturwerte hell projiziert wurden. Die aufkommenden Farbfernsehkameras verlangten nach größerer Beleuchtungsstärke, die nur mehr durch Frontprojektion auf einen retroreflektierenden Schirm erzielt werden konnte, was jedoch an den Konturen des im Projektionsstrahl stehenden Moderators Schatten mit sich bringt. Mit der digitalen Bildverarbeitung wurde es später möglich, zwei Bewegtbilder live zusammenzusetzen. Der Präsentator scheint vor einer Wand mit der Fernsehbildbreite füllenden Wetterkarte zu stehen und auf sie zu schauen, während er einmal links und danach rechts im Bild steht, um mit Gesten Gebiete im Osten bzw. Westen des Landes zu veranschaulichen oder auf besprochene Symbole zu zeigen. Tatsächlich ist die Studiorückwand jedoch einfärbig grün oder blau, um die Wetterkarte samt bewegten farbigen Elementen dort ins zu übertragende Gesamtbild hineinzurechnen, wo der Moderator den einfarbigen Hintergrund nicht abdeckt. Der Moderator steht dabei seitlich (einmal links und einmal rechts) von der Kartenmitte (des Gesamtbilds) scheint auf die Karte an der nahen Studiowand zu schauen, während er das Wettergeschehen mit Handgesten erläutert. Tatsächlich sieht er jedoch auf einen Kontrollmonitor (von zweien) mit dem Gesamtbild etwas außerhalb der Kamerasicht.
Schweiz
Nach den Hauptnachrichten auf SRF wird die Sendung SRF Meteo live und bei fast jedem Wetter vom Dach des TV-Studios Leutschenbach präsentiert. Werden Diagramme eingeblendet, wird der Moderator nicht gezeigt; es erfolgt der Einfachheit halber eine Trennung der aufgenommenen und computergenerierten Bilder. Das Studio verfügt über eine mit Wasser gefüllte, flache Wanne, anhand welcher der aktuelle Wind und Niederschlag zu erkennen sind.
Siehe auch
- Niederschlagswahrscheinlichkeit
- Witterungsprognose – Wettervorhersage über einen längeren Zeitraum
- Meteorologische Ausdrücke
- NAVTEX – globales System zur Verbreitung von Sicherheits- und Wetterinformationen für die Seefahrt
- Temperaturextrema
Literatur
- Hans von Storch: Das Klimasystem und seine Modellierung: eine Einführung Springer Verlag, 1999, ISBN 978-3-540-65830-6. (Kapitel 6.1 Wettervorhersagemodelle)
- Utecht Burkhard: Witterung und Klima Teubner B.G., 2005, ISBN 978-3-519-10208-3
Weblinks
- Europäisches Zentrum für mittelfristige Wettervorhersagen (ECMWF), Kooperation mit den Wetterdiensten aus 26 europäischen Ländern
- Prognosegüte Tabellarischer Ansicht der Prognosegüte von Wettervorhersagen
Wettervorhersagen deutschsprachiger nationaler Wetterdienste:
Einzelnachweise
- Informationen zu den Tages- und Monatswerten auf Seite des Deutschen Wetterdienstes
- Wetterbericht für Berlin, wetteronline.de
- dwd.de (PDF), abgerufen am 4. Mai 2016.
- Wetterprognosen. In: Der Spiegel. Nr. 38, 2016 (online).
- Sven Titz: Regengüsse verlässlich vorherzusagen, ist für Wetterdienste immer noch eine grosse Herausforderung – gerade bei Gewittern In: NZZ.ch, 14. Juli 2021, abgerufen am 15. Juli 2021
- Fuqing Zhang, Y. Qiang Sun, Linus Magnusson, Roberto Buizza, Shian-Jiann Lin, Jan-Huey Chen & Kerry Emanuel: What Is the Predictability Limit of Midlatitude Weather? In: Journal of the Atmospheric Sciences. Band 76, 2019, S. 1077–1091, doi:10.1175/JAS-D-18-0269.1.
- William J. Merryfield, Johanna Baehr, Lauriane Batté, Emily J. Becker, Amy H. Butler, Caio A. S. Coelho, Gokhan Danabasoglu, Paul A. Dirmeyer, Francisco J. Doblas-Reyes, Daniela I. V. Domeisen, Laura Ferranti, Tatiana Ilynia, Arun Kumar, Wolfgang A. Müller, Michel Rixen, Andrew W. Robertson, Doug M. Smith, Yuhei Takaya, Matthias Tuma, Frederic Vitart, Christopher J. White, Mariano S. Alvarez, Constantin Ardilouze, Hannah Attard, Cory Baggett, Magdalena A. Balmaseda, Asmerom F. Beraki, Partha S. Bhattacharjee, Roberto Bilbao, Felipe M. de Andrade, Michael J. DeFlorio, Leandro B. Díaz, Muhammad Azhar Ehsan, Georgios Fragkoulidis, Sam Grainger, Benjamin W. Green, Momme C. Hell, Johnna M. Infanti, Katharina Isensee, Takahito Kataoka, Ben P. Kirtman, Nicholas P. Klingaman, June-Yi Lee, Kirsten Mayer, Roseanna McKay, Jennifer V. Mecking, Douglas E. Miller, Nele Neddermann, Ching Ho Justin Ng, Albert Ossó, Klaus Pankatz, Simon Peatman, Kathy Pegion, Judith Perlwitz, G. Cristina Recalde-Coronel, Annika Reintges, Christoph Renkl, Balakrishnan Solaraju-Murali, Aaron Spring, Cristiana Stan, Y. Qiang Sun, Carly R. Tozer, Nicolas Vigaud, Steven Woolnough, and Stephen Yeager: Current and Emerging Developments in Subseasonal to Decadal Prediction. In: Bulletin of the American Meteorological Society. Band 101, 2020, S. E869–E896, doi:10.1175/BAMS-D-19-0037.1.
- Warum Wetter-Apps oft falsch liegen. 17. Januar 2017, abgerufen am 6. Mai 2018.
- arstechnica.com abgerufen am 6. März 2017
- washingtonpost.com abgerufen am 6. März 2017
- noaa.gov, abgerufen am 8. Juli 2014.
- meteoblue.com, abgerufen am 8. Juli 2014.
- dwd.de, abgerufen am 8. Juli 2014.
- meteoschweiz.admin.ch (Memento vom 14. Juli 2014 im Internet Archive) abgerufen am 8. Juli 2014.
- COSMO-1 – hochaufgelöste Vorhersagen für den Alpenraum - MeteoSchweiz. Abgerufen am 2. Februar 2019.
- AROME — ZAMG. Abgerufen am 2. Februar 2019.
- INCA — ZAMG. Abgerufen am 2. Februar 2019.
- Austro Control GmbH - Wetterradar. Abgerufen am 2. Februar 2019.
- Sondenjagd: Wettersonden in Westeuropa: Standorte für den Start von Wetterballons in Österreich. Abgerufen am 2. Februar 2019.
- Wetterstationen — ZAMG. Abgerufen am 2. Februar 2019.