Überflutungen durch Starkregen sollen sich dank eines neuen Vorhersagemodells von Forschern des Massachusetts Institute of Technology (MIT) künftig virtuell im Vorfeld besser darstellen lassen. Die Forscher um Björn Lütjens erstellen gewissermaßen Satellitenbilder “aus der Zukunft”, und zwar so, wie sie wahrscheinlich nach schweren Unwettern aussehen werden. Diese sogenannte “Earth Intelligence Engine” kombiniert ein generatives Modell der Künstlichen Intelligenz (KI) mit einem physikbasierten Hochwasser-Prognosemodell, um realistische Bilder einer Region aus der Vogelperspektive zu erstellen. Diese zeigen, wo angesichts der Stärke eines aufkommenden Unwetters mit Überschwemmungen zu rechnen ist.
Als Test hat das Team die Methode auf die texanische Millionenstadt Houston angewendet und virtuelle Satellitenbilderdavon berechnen lassen, die zeigen, wie bestimmte Regionen der Stadt nach einem Unwetter aussehen würden, der mit dem Hurrikan “Harvey” vergleichbar ist. Dieser hatte die Region 2017 heimgesucht. Die Experten verglichen diese generierten Bilder mit tatsächlichen Satellitenaufnahmen, die von denselben Regionen nach Harvey aufgenommen wurden. Und fanden starke Übereinstimmungen. Allerdings nur unter Zuhilfenahme des physikbasierten Modells – nur mit der KI Überschwemmungen in Regionen dargestellt, in denen wirklich nichts passieren kann.
Ein Bild sagt mehr als tausend Worte?
“Künftig können wir dieses Prognosemodell bei einem heraufziehenden Hurrikan einsetzen, um gefährdete Gebiete auszumachen”, hofft Lütjens. Das könne Bewohner dazu bringen, gefährdete Gebiete rechtzeitig zu verlassen oder Schutzmaßnahmen zu ergreifen. “Eine der größten Herausforderungen besteht darin, die Menschen zur Evakuierung zu bewegen, wenn sie in Gefahr sind”, unterstreicht Lütjens. Die Bilder könnten sie von der Notwendigkeit überzeugen.
Die Entwickler nutzen ein sogenanntes “Conditional Generative Adversarial Network”, eine Art maschinelles Lernverfahren, das mithilfe zweier konkurrierender neuronaler Netzwerke realistische Bilder erzeugt. Das erste wird anhand von Paaren realer Daten trainiert, in diesem Fall also anhand von Satellitenbildern vor und nach einem Hurrikan. Das zweite wird dann darauf ausgerichtet, zwischen echten Satellitenbildern und vom ersten Netzwerk erstellten, synthetisierten Bildern zu unterscheiden. Jedes Netzwerk verbessert seine Leistung automatisch auf der Grundlage des Feedbacks des anderen, heißt es seitens des MIT.