Thèse en cours

Vers une explicabilité et transparence des modèles d’intelligence artificielle de détection d’anomalies dans les trajectoires et les séries temporelles

FR  |  
EN

Accès à la thèse

AttentionLa soutenance a eu lieu le 09/12/2025. Le document qui a justifié du diplôme est en cours de traitement par l'établissement de soutenance.
Auteur / Autrice : Zakaria Ezzahed
Direction : Christophe HurterXavier Olive
Type : Projet de thèse
Discipline(s) : Informatique et Télécommunications
Date : Inscription en doctorat le
Soutenance le 09/12/2025
Etablissement(s) : Toulouse, École nationale de l’aviation civile
Ecole(s) doctorale(s) : École doctorale Mathématiques, informatique et télécommunications
Partenaire(s) de recherche : Laboratoire : ENAC-LAB - Laboratoire de Recherche ENAC
Jury : Président / Présidente : Alex Telea
Examinateurs / Examinatrices : Christophe Hurter, Xavier Olive, Junzi Sun, Florence Nicol, Sameer Alam, Raphaël Couturier
Rapporteurs / Rapporteuses : Alex Telea, Sameer Alam, Raphaël Couturier

Résumé

FR  |  
EN

L’augmentation des données de trajectoires d’avions, permise par les capteurs radar et ADS-B, offre de nouvelles possibilités pour la modélisation et la surveillance du trafic aérien. Ces trajectoires, vues comme des séries temporelles multivariées, sont au cœur de la gestion du trafic car elles déterminent la sécurité, la capacité et l’impact environnemental des opérations. Leur volume et leur variabilité rendent cependant les approches classiques limitées. Les autoencodeurs et les autoencodeurs variationnels (VAE) sont apparus comme des outils puissants pour compresser, reconstruire et générer des trajectoires réalistes. Ils permettent de regrouper des flux, de détecter des anomalies ou de produire des scénarios synthétiques pour l’étude des risques. Mais la force de ces modèles, leur capacité à apprendre automatiquement des représentations latentes, est aussi une faiblesse car ces variables sont difficiles à interpréter. Dans un domaine sensible comme la gestion du trafic aérien, cette opacité bloque leur adoption opérationnelle, car les modèles doivent être à la fois performants et explicables. Cette thèse se situe entre l’apprentissage profond et l’intelligence artificielle explicable. Elle cherche à combler un double manque : le manque de compréhension sémantique des variables latentes et l’inadéquation des méthodes d’explicabilité existantes, souvent pensées pour l’image ou le texte, face aux séries temporelles non étiquetées comme les trajectoires aériennes. Deux contributions principales sont proposées. La première répond à la question : ''comment interpréter la structure et la signification des dimensions latentes dans des autoencodeurs entraînés sur des séries temporelles ?''. Pour cela, nous introduisons le cadre des « latent-responses », qui mesure l’informativité et les interactions entre dimensions latentes et les traduit en cartes visuelles. Ces cartes révèlent les zones fiables de l’espace latent, identifient les corridors d’interpolation et permettent de générer des trajectoires plausibles en suivant la géométrie du modèle. La seconde contribution répond à la question : ''comment attribuer l’influence des segments temporels sur les dimensions latentes pour obtenir une vision globale des représentations apprises ?''. Nous proposons des cartes de saillance globales qui agrègent des explications locales de type GradCAM sur l’ensemble d’un jeu de données. Cette approche met en évidence les portions de trajectoires qui influencent le plus la structuration de l’espace latent et fournit une explication cohérente et stable des regroupements produits par le modèle. Ces méthodes sont testées sur des données synthétiques et sur des ensembles réels du réseau OpenSky, en particulier les arrivées à l’aéroport de Zurich. Elles montrent qu’il est possible de transformer des représentations numériques opaques en outils visuels interprétables, reliant les dimensions latentes à des caractéristiques opérationnelles comme les flux d’approche, les manœuvres inhabituelles ou les scénarios de simulation. En conclusion, cette thèse montre qu’il est possible d’associer la puissance des modèles génératifs profonds avec l’exigence de transparence en gestion du trafic aérien. En rendant les espaces latents lisibles et en reliant les dimensions apprises aux dynamiques temporelles des trajectoires, elle ouvre la voie à des systèmes d’aide à la décision plus robustes, explicables et acceptés par les acteurs opérationnels.