#Chip Happens Podcast: Folge 3 | Wetter und Klima – Mit Rechenpower modellieren

Große Probleme brauchen häufig ziemlich kleine Helfer. Der Podcast »Chip Happens – Kleine Dinge, die alles verändern« von Chipdesign Germany zeigt, wie Mikroelektronik und Chipdesign dabei helfen können, die drängenden Fragen unserer Zeit anzugehen – jederzeit nachvollziehbar und alltagsnah.
Das Format richtet sich an alle, die verstehen wollen, wie Technik im Hintergrund wirkt und dennoch zentrale Weichen stellt. Kluge Köpfe aus der Branche sprechen hierfür mit Moderator Sven Oswald über ihre faszinierenden Geschichten, geben überraschende Einblicke und zeigen hautnah die vielen Möglichkeiten, die unser Fachbereich bietet.

In der ersten Staffel »Klimacooldown« erfahrt ihr, wie Mikroelektronik uns im Kampf gegen den Klimawandel unterstützt. Hierfür starten wir ganz weit oben, mit einem Blick auf unseren Planeten aus dem Weltall, um anschließend noch mehr über Klima und Wetter, Daten und Rechenzentren oder Mobilität und Klimaschutz zuhause zu erfahren. Wir freuen uns sehr, dieses besondere Projekt als Partner zu begleiten.

Folge 3: Wetter und Klima – Wir tauchen tief in die Welt der Wetter- und Klimamodelle ein

Diese Folge nimmt Wolken, Wind und Wetter unter die Lupe: Was steckt wirklich dahinter? Um das herauszufinden, tauchen wir ein in die Welt der Wetter- und Klimamodelle – von Supercomputern bis zu KI.

Meteorologe Karsten Brandt von Donnerwetter.de verrät uns, dass sein Job weniger mit romantischen Himmelsbeobachtungen zu tun hat, sondern vor allem mit knallharter Datenanalyse. Wir erfahren, wie Supercomputer riesige Datenmengen verarbeiten, warum Wetter- und Klimamodelle so unterschiedlich sind und wie das mit KI zusammenhängt.

Funfact: Wusstet ihr, dass Meteorologen die Erfinder von Big Data sind? Matthias Winkler, wissenschaftlicher Mitarbeiter am Fraunhofer Institut für Bauphysik IBP, erklärt außerdem, wie Stadtklimamodelle unsere Städte resilienter gegen Klima- und Starkwetterphänomene machen können.

Zur Folge 3 – Wetter und Klima (Spotify)

Worum geht es in der Folge?

Supercomputer sind exzellent im Modellieren – In dieser Folge besprechen wir, wie Mikroelektronik hierbei unterstützen kann

Situation:

Wettervorhersage und Klimamodellierung sind zwei unterschiedliche, aber eng miteinander verbundene wissenschaftliche Felder. Beide beruhen auf komplexen physikalischen Modellen und der Analyse riesiger Datenmengen, sie verfolgen aber unterschiedliche Ziele. Wetterprognosen bieten kurzfristig Orientierung für Zeiträume von wenigen Stunden oder Tagen. Sie prägen unsere Entscheidungen im Alltag. Klimamodelle hingegen zeichnen langfristige Trends auf, um Entwicklungen über Jahrzehnte oder Jahrhunderte hinweg zu analysieren. Basierend auf diesen Klimamodellen werden politische Entscheidungen getroffen, die z. B. den Katastrophenschutz oder die Infrastruktur betreffen. Die Genauigkeit und Verlässlichkeit dieser Modelle sind entscheidend, um fundierte Entscheidungen treffen zu können.

Der Klimawandel zwingt Städte zum Umdenken. Kommunen müssen heute nicht mehr nur akute Wetterereignisse bewältigen, sondern langfristig vorsorgen: Wie verändern sich Mikroklimata in dicht bebauten Quartieren? Wie lassen sich sensible Einrichtungen am besten schützen? Für solche Planungsentscheidungen sind präzise lokale Klimadaten und geeignete Auswertungswerkzeuge unverzichtbar.

Problemstellung 1:

Herausforderungen in der Wetter- und Klimamodellierung

 

  1. Modelldivergenz und Interpretationsaufwand
    Wettermodelle nutzen unterschiedliche Annahmen, Algorithmen und Eingangsdaten, da selbst leistungsstarke Supercomputer nicht alle Eventualitäten erfassen können und fĂĽr schnelle Ergebnisse Vereinfachungen benötigen. Diese unterschiedlichen Vereinfachungsansätze fĂĽhren mitunter zu stark abweichenden Vorhersagen – selbst fĂĽr dieselbe Region und denselben Zeitraum. FĂĽr Meteorolog:innen bedeutet das: Sie mĂĽssen ein eigenes, fachlich fundiertes Lagebild entwickeln, das oft auf ihrer eigenen Erfahrungen mit den einzelnen Modellen beruht. Diese professionelle Einschätzung bleibt daher trotz zunehmender Automatisierung unverzichtbar.
  2. Rechenaufwand durch hohe Modellauflösung
    Die Genauigkeit von Wettermodellen hängt direkt von ihrer räumlichen und zeitlichen Auflösung ab. Während frühere Modelle mit 400-km-Rastern arbeiteten, sind heute 10×10-km-Raster mit vertikaler Schichtung bis 50 m Standard. Diese höhere Auflösung führt zu exponentiell wachsenden Datenmengen und Rechenanforderungen, die nur mit Hochleistungscomputern bewältigt werden können.
  3. Datenflut ohne automatische Qualitätssteigerung
    Multispektralsatelliten liefern enorme Datenmengen – doch mehr Daten bedeuten nicht automatisch bessere Vorhersagen. In der Vergangenheit führten zusätzliche Rohdaten sogar zu unpräziseren Ergebnissen, da geeignete Integrations- und Filtermethoden fehlten. Hier könnte Künstliche Intelligenz entscheidende Fortschritte bringen.
  4. Fehlende Feinskalierung fĂĽr lokale Ereignisse
    Bestehende Modelle sind oft nicht in der Lage, kurzfristige, lokale Wetterereignisse wie Starkregen, Nebel oder Hitzeinseln präzise vorherzusagen. Es mangelt an regional ausgerichteten Modellierungsansätzen, die schnell auf konkrete Entscheidungsbedarfe vor Ort reagieren können.

Problemstellung 2:

Klimatische Herausforderungen im städtischen Raum

 

  1. Mangel an lokalisierten Klimadaten fĂĽr die Stadtplanung
    Stadtplaner benötigen präzise Vorhersagen darüber, wie sich das Mikroklima in einzelnen Quartieren oder Straßenzügen entwickeln wird – insbesondere in Bezug auf Hitzeentwicklung, Luftzirkulation oder Niederschlagsverteilung. Solche lokalen Daten liegen jedoch bislang nur selten in ausreichender Qualität vor.
  2. Fehlende Planungsinstrumente mit Praxisbezug
    Trotz vorhandener wissenschaftlicher Stadtklimamodelle, mangelt es oft an direktem Anschluss an kommunale Planungspraxis. Ohne intuitive Bedienbarkeiten bleiben die Möglichkeiten zur praktischen Nutzung begrenzt – insbesondere für Fachkräfte ohne wissenschaftlichen Hintergrund, z. B. in der Verwaltung oder Politik.
  3. Rechenintensive Modelle ohne flächendeckende Anwendung
    Selbst bei Vorliegen geeigneter Modelle gibt es Hindernisse in ihrer Anwendung: Je höher die Auflösung (bis unter 1 m), desto länger dauert die Berechnung. Nur mit skalierbarer Rechenleistung – vom lokalen Rechner bis zum Supercomputer – lässt sich diese Hürde überwinden. Doch solche Infrastrukturen steht vielen Kommunen nicht oder nur eingeschränkt zur Verfügung.

Lösungsansätze (aus der Mikroelektronik):

Supercomputer bilden das unverzichtbare Rückgrat heutiger Wetter- und Klimasimulationen. Mit ihrer enormen Rechenleistung ermöglichen sie nicht nur feinere Berechnungsgitter und detailliertere Prognosen, sondern auch die parallele Auswertung und den Vergleich verschiedener Modellansätze. Gleichzeitig macht der Fortschritt in der Miniaturisierung von Rechentechnologien leistungsfähige Simulationen auch für dezentrale Anwendungen zugänglich – etwa direkt in kommunalen Planungsämtern, wie das Beispiel Palm4U (nächster Abschnitt) zeigt.

 

Ein vielversprechender Entwicklungspfad ist die Verbindung klassischer numerischer Wettermodelle mit Methoden der künstlichen Intelligenz. Dieser hybride Ansatz könnte eine neue Generation von Vorhersagen hervorbringen und sie noch schneller, lokaler und präziser macht. Mikroelektronik spielt dabei eine entscheidende Rolle und unterstützt diese Prozesse u. a. durch spezialisierte Hardware für KI-Anwendungen und energieeffiziente Datenverarbeitung z. B. durch neuromorphes Computing oder zukünftig auch Quantencomputing.

 

Die FMD arbeitet in diesem Feld u. a. im Projekt »Module Quanten- und neuromorphes Computing« (FMD-QNC) an neuen Hardware-Lösungen. Effiziente, flexible und hochfunktionale Elektronik ist auch hier ein wichtiger Faktor, der u. a. mit Hilfe von Chiplets und Advanced Packaging bei der europäischen APECS-Pilotlinie zur Verfügung gestellt wird.

Weiterer Forschungs-/Entwicklungsbedarf /Aktuelle Projekte und Beispiele:

Wettermodelle bei Donnerwetter.de: Meteorologe Karsten Brandt setzt auf eine Kombination aus Supercomputern und menschlicher Expertise. Monitoring-Systeme ermöglichen es, unterschiedliche Wettermodelle miteinander zu vergleichen und ihre Datenquellen visuell zu analysieren. Durch neue KI-Ansätze könnte es zukünftig möglich sein, sehr genaue, lokale Vorhersagen zu generieren – etwa für einzelne Stadtteile oder Täler.

 

Stadtklimamodell PALM-4U:  Mit diesem neuen Modell des Fraunhofer-Institut für Bauphysik IBP steht Städten erstmals ein Werkzeug zur Verfügung, das urbane Mikroklimata realitätsnah und hochaufgelöst simulieren kann – mit einer räumlichen Genauigkeit von bis zu einem Meter. Dieses Modell wurde entwickelt, um gezielte Anpassungsmaßnahmen wie Dachbegrünungen, veränderte Bebauungsstrukturen oder neue Freiflächen frühzeitig auf ihre klimatische Wirkung zu prüfen. Die Anwendung richtet sich explizit an Kommunen. Die Software ist als Webanwendung einfach bedienbar, benötigt kein spezielles Vorwissen und kann, je nach Aufgabenstellung, sowohl auf Arbeitsrechnern als auch auf Supercomputern betrieben werden.
Ein Beispiel: Die Modellierung eines Berliner Stadtteils mit einer 4- bis 5-Meter-Rasterung dauert etwa einen halben Tag. Ein besonderer Vorteil des Klimamodells liegt in der Zukunftsorientierung. Mit PALM-4U lassen sich sogenannte »typische Tage« aus Klimaprojektionen simulieren – also Bedingungen, wie sie etwa im Jahr 2050 auftreten könnten.

Städte erhalten damit eine belastbare Grundlage, um Maßnahmen nicht nur auf aktuelle Herausforderungen abzustimmen, sondern auch langfristig resilient zu planen. Gleichzeitig verbindet PALM-4U wissenschaftliche Präzision mit praktischer Anwendbarkeit und wird so zum Bindeglied zwischen Forschung und kommunaler Planungspraxis.


In der kommenden Folge geht es von der Simulation zu realen Lösungen, beim Thema »Klima- und Naturkatastrophen – schnelle und smarte Hilfe dank KI und co.« (Hier bei Spotify anhören).

HierfĂĽr spricht Sven Oswald mit Dr. Monique Kuglitsch, Innovationsmanagerin am Fraunhofer HHI, und nimmt uns mit auf eine globale Reise, um zu verstehen, wie KI-Lösungen im Katastrophenschutz zusammenarbeiten können.

Arne Schwarze vom Fraunhofer FKIE berichtet von den dramatischen Ereignissen im Ahrtal 2021 und wie daraus die Idee fĂĽr das lokale Krisenmanagementsystem LOKIK entstanden ist.

FMD.projekte mit Bezug zu diesem Text