Machine Learning appliqué aux études du Milieu Interstellaire
Organisateur(s) : Emeric Bron
Lieu : Meudon
Une des grandes questions actuelles de l’astrophysique est de comprendre le mécanisme de formation des étoiles et des planètes. Ce processus, qui démarre dans des concentrations massives de gaz interstellaire froid appelées nuages moléculaires géants, met en jeu de très nombreux phénomènes physiques et chimiques : dynamique turbulente du gaz, couplée au champs magnétique, et chimie complexe donnant naissance à de nombreuses molécules. Certaines de ces molécules jouent un rôle clef pour refroidir le gaz et contrôlent donc sa dynamique d’effondrement sous l’effet de la gravité. La compréhension de ce processus de formation passe par la combinaison de modèles physiques et chimiques détaillés, et d’observations dans une gamme étendue de longueurs d’ondes (pour sonder la large gamme de milieux en jeu : chauds ou froids, neutre ou ionisé,...).
Le Large Program ORION-B (co-PIs : Jérome Pety et Maryvonne Gerin) vise à mieux comprendre ces processus. Il s’agit de l’un des plus grands Large Programs octroyés par l’IRAM. L’image hyperspectrale obtenue, dont l’acquisition sera terminée au premier semestre 2020, couvre un nuage moléculaire géant (GMC) de 15 pc par 10 pc, avec environ 1 millions de pixels spatiaux avec 240 000 canaux spectraux par pixel. Cela nous donne accès à l’émission de plus d’une vingtaine d’espèces moléculaires (CO, 13CO, C18O, HCN, HNC, HCO+, CH3OH, ...). Ces traceurs peuvent théoriquement être utilisés pour déterminer les conditions physiques du milieu (température, densité, degré d’ionisation, ...), ainsi que la structure et la dynamique du gaz. L’une des difficultés avec ce nouveau type de données hyperspectrales (cube 3D) réside dans notre capacité à exploiter de tels volumes. En effet, les méthodes d’analyse de données classiques qui consistent à ajuster les raies à chaque pixel puis à comparer ces données aux modèles se révèlent dépassées face à des données aussi volumineuses et aussi riches. Aussi, nous cherchons à adapter des techniques de Machine Learning, supervisées et non supervisées, pour tirer parti de ces observations ainsi que de masses de données théoriques issues de nos modèles numériques que nous développons en parallèle.