Quand

12 mai 2026    
14h00 - 17h00

IAS
Bât. 121 rue Jean Teillac, Orsay, 91400

Type d’évènement

Pierre-Laurent Cristille soutiendra le 12 mai à 14 heures à l’IAS (salle 123) sa thèse « Data Fusion with Deep Learning for Space Missions » menée dans le cadre du LabCom INCLASS entre l’IAS et la société ACRI-ST.

Français :

Fusion de données avec apprentissage profond pour les missions spatiales

Les missions spatiales produisent de grands volumes de données issues d’instruments aux résolutions spatiales et spectrales différentes : les instruments d’imagerie offrent une haute résolution spatiale mais un contenu spectral limité, tandis que les spectromètres fournissent une information spectrale riche à une résolution spatiale plus grossière. Cette thèse développe des méthodes d’apprentissage profond pour fusionner ces deux types de données lorsqu’une vérité terrain haute résolution n’est pas disponible.

L’idée centrale est de remplacer la vérité terrain indisponible par une supervision synthétique, en modélisant précisément le processus d’observation de chaque instrument. Pour l’observation de la Terre, des jeux de données synthétiques dédiés ont été générés à partir d’images hyperspectrales EnMAP, permettant une fusion robuste entre les missions Sentinel-2 et Sentinel-3 avec une haute fidélité spectrale et une cohérence spatiale.

Ce cadre est ensuite étendu au domaine bien plus difficile des observations astronomiques avec le télescope spatial James Webb. Là, la vérité terrain est fondamentalement inaccessible et la dimensionnalité spectrale est extrême. Un pipeline dédié de génération de données astrophysiques synthétiques a été développé, ainsi qu’une nouvelle architecture d’apprentissage profond spécifiquement conçue pour la fusion de l’imageur et du spectromètre MIRI, capable de traiter des milliers de canaux spectraux tout en préservant les détails spectraux fins et la résolution spatiale.

Dans l’ensemble, cette thèse établit un paradigme unifié combinant la modélisation des instruments et l’apprentissage profond, démontrant que la supervision synthétique réaliste permet une fusion hyperspectrale robuste et extensible, aussi bien en observation de la Terre qu’en astrophysique.

English:

Data Fusion with Deep Learning for

Space Missions
Space missions produce large volumes of data from instruments with different spatial and spectral resolutions: imaging instruments offer high spatial resolution but limited spectral content, while spectrometers provide rich spectral information at coarser spatial resolution. This thesis develops deep learning methods to fuse these two data types when high-resolution ground truth is unavailable.

The core idea is to replace unavailable ground truth with synthetic supervision, by accurately modeling each instrument’s observation process. For Earth observation, dedicated synthetic datasets were generated from EnMAP hyperspectral imagery, enabling robust fusion across Sentinel-2 and Sentinel-3 missions with high spectral fidelity and spatial consistency.

This framework is then extended to the far more challenging domain of astronomical observations with the James Webb Space Telescope. There, ground truth is fundamentally unobtainable and spectral dimensionality is extreme. A dedicated synthetic astrophysical dataset generation pipeline was developed, along with a new deep learning architecture specifically designed for MIRI imager and spectrometer fusion, capable of handling thousands of spectral channels while preserving fine spectral features and spatial detail.

Overall, this thesis establishes a unified paradigm combining instrument modeling with deep learning, demonstrating that realistic synthetic supervision enables robust and scalable hyperspectral fusion across both Earth observation and astrophysics.

Lien visio : 

https://teams.microsoft.com/meet/327677672860408?p=LSxfktlW4KrngrOBvs

Meeting ID: 327 677 672 860 408

Passcode: Lq9ZN9eP

Lieu : IAS, bât. 121, salle 123