L’ISEP s’intéresse au Deep Learning pour des applications en imagerie satellite qui pourraient sauver des vies

Jérémie Sublime – Enseignant-Chercheur à l’ISEP- et Ekaterina Kalinicheva – Doctorante à Sorbonne Université -, qui sont tous les deux chercheurs au LISITE – le laboratoire de recherche de l’ISEP – ont récemment proposé une méthode d’application du Deep Learning pour cartographier de manière rapide et automatique les dégâts causés par des catastrophes naturelles telles que les séismes ou les tsunamis.
Leur idée était d’appliquer l’apprentissage profond, ou Deep Learning, sur des images d’avant et après une catastrophe naturelle afin que ces puissantes méthodes d’intelligence artificielle puissent automatiquement indiquer des changements et des dégâts potentiels. Ce que peu de gens savent, c’est que ces algorithmes de Deep Learning sont extrêmement gourmands en données étiquetées qui sont nécessaires pour qu’ils puissent achever les performances qu’on peut voir dans la presse. Or, ces données étiquetées sont peu abondantes, voire inexistantes, en imagerie satellite, en particulier lorsqu’il s’agit de traiter des images nouvelles.
Pour contourner le problème, les deux chercheurs de l’ISEP se sont tournés vers l’apprentissage profond non-supervisé, qui ne nécessite pas de données étiquetées, permettant ainsi de s’attaquer en temps réel à de nouvelles images.
Leur idée : demander à l’algorithme de reconstruire l’image d’après la catastrophe à partir de l’image d’avant, et vice-versa. Toute l’astuce de leurs travaux repose ensuite sur le fait que si leur réseau de neurone profond n’aura pas de problème pour gérer des changements de luminosité ou des changements saisonniers entre les 2 images et à reconstruire correctement, il sera en revanche incapable de prédire les éléments détruits ou modifiés par une catastrophe naturelle survenue entre les deux photos, et se trompera en les reconstruisant. Cette astuce permet d’isoler facilement les zones de dégâts, et il n’y a alors plus qu’à les trier par type avec un algorithme adapté : zone inondée, bâtiments détruits, etc.
Nos chercheurs ont testé leur approche sur des images de la préfecture de Sendai au Japon, qui fut ravagée par le tsunami de Tohoku/Fukushima en 2011. Ils ont ainsi pu montrer que leur algorithme d’apprentissage profond permet de cartographier les dégâts de manière efficace en quelques minutes, là où il a fallu plusieurs semaines avec des équipes au sol à l’époque de cette catastrophe.
Retrouvez leur article (en anglais) publié dans la prestigieuse revue Remote Sensing (MDPI) avec le lien suivant : https://www.mdpi.com/2072-4292/11/9/1123
Également à la une

