Les scientifiques du MIT ont développé une méthode qui génère de futures images satellite pour décrire à quoi ressemblerait une région après une éventuelle inondation. La méthode combine un modèle d’IA génératif avec un modèle d’inondation basé sur la physique pour créer des images réalistes à vol d’oiseau d’une région, montrant où les inondations sont susceptibles de se produire compte tenu de la force de l’inondation « une tempête imminente ».
Les travaux sont publiés dans la revue IEEE Transactions on Geoscience and Remote Sensing.
À titre de test, l’équipe a appliqué la méthode à Houston et a généré des images satellite décrivant l’apparence de certains endroits de la ville après une tempête comparable à l’ouragan Harvey, qui a frappé la région en 2017. L’équipe a comparé ces images générées avec des images de satellites réels. prises dans les mêmes régions après Harvey. Ils ont également comparé des images générées par l’IA qui n’incluaient pas de modèle d’inondation basé sur la physique.
La méthode de l’équipe, améliorée par la physique, a généré des images satellite des futures inondations plus réalistes et plus précises. Cependant, la méthode basée uniquement sur l’IA a généré des images d’inondations dans des endroits où les inondations ne sont physiquement pas possibles.
La méthode de l’équipe est une preuve de concept destinée à démontrer un cas dans lequel des modèles d’IA génératifs peuvent générer un contenu réaliste et fiable lorsqu’ils sont combinés avec un modèle basé sur la physique. Pour appliquer la méthode à d’autres régions afin de représenter les inondations provoquées par de futures tempêtes, il faudra l’entraîner sur beaucoup plus d’images satellite pour comprendre à quoi ressembleraient les inondations dans d’autres régions.
“L’idée est la suivante : nous pourrions un jour l’utiliser avant un ouragan, où il fournirait une couche supplémentaire de visualisation au public”, explique Björn Lütjens, chercheur postdoctoral au Département des sciences de la Terre, de l’atmosphère et de l’environnement du MIT, qui a mené la recherche alors qu’il était doctorant au Département d’aéronautique et d’astronautique du MIT (AeroAstro). L’un des plus grands défis consiste à encourager les gens à évacuer lorsqu’ils courent un risque. Cela pourrait peut-être être une autre visualisation pour aider à accroître cette préparation.
Pour illustrer le potentiel de la nouvelle méthode, qu’ils ont surnommée « Earth Intelligence Engine », l’équipe l’a mise à disposition sous forme de ressource en ligne pour que d’autres puissent l’essayer.
Les co-auteurs de l’étude du MIT sont Brandon Leshchinskiy ; Aruna Sankaranarayanan; et Dava Newman, professeur AeroAstro et directeur du MIT Media Lab ; ainsi que des collaborateurs de diverses institutions.
La nouvelle étude s’inscrit dans le prolongement des efforts de l’équipe visant à appliquer des outils d’intelligence artificielle générative pour visualiser les futurs scénarios climatiques.
“Fournir une perspective hyperlocale sur le climat semble être le moyen le plus efficace de communiquer nos découvertes scientifiques”, déclare Newman, auteur principal de l’étude. « Les gens s’identifient à leur code postal, à l’environnement local où vivent leur famille et leurs amis. Proposer des simulations climatiques locales devient intuitif, personnel et pertinent.
Pour cette étude, les auteurs ont utilisé un réseau contradictoire génératif conditionnel, ou GAN, un type de méthode d’apprentissage automatique capable de générer des images réalistes à l’aide de deux réseaux neuronaux concurrents (« contradictoires »). Le premier réseau « générateur » est entraîné sur des paires de données réelles, comme des images satellite avant et après un ouragan. Le deuxième réseau « discriminant » est ensuite entraîné à distinguer les images satellites réelles de celles synthétisées par le premier réseau.
Chaque réseau améliore automatiquement ses performances en fonction des commentaires de l’autre réseau. L’idée est donc que ces allers-retours contradictoires devraient finalement produire des images de synthèse impossibles à distinguer de la réalité. Cependant, les GAN peuvent toujours produire des « hallucinations » ou des caractéristiques factuellement incorrectes dans une image par ailleurs réaliste qui ne devrait pas être présente.
“Les hallucinations peuvent induire les spectateurs en erreur”, explique Lütjens, qui a commencé à se demander si de telles hallucinations pouvaient être évitées, afin que les outils d’IA générative puissent être fiables pour aider à informer les gens, en particulier dans des scénarios sensibles au risque. « Nous nous demandions comment utiliser ces modèles d’IA génératifs dans le contexte de l’impact climatique, où il est si important de disposer de sources de données fiables ? »