
De nouveaux algorithmes pour la radioastronomie
Pan de l’astrophysique basé sur les ondes radio venues du cosmos, la radioastronomie traite ces signaux avec des algorithmes dont l’efficacité n’est actuellement pas à la hauteur du formidable potentiel des radiotélescopes de nouvelle génération. L’équipe du laboratoire Systèmes et applications des technologies de l'information et de l'énergie (SATIE – Univ. Paris-Saclay/CNRS/ENS Paris-Saclay/Cnam/Univ. Cergy-Pontoise/Univ. Gustave Eiffel) travaille à les améliorer.
L’optique et ses lentilles ne sont pas le seul moyen d’explorer le ciel. La radioastronomie étudie ainsi les ondes radio, c’est-à-dire celles d’une fréquence inférieure à 300 gigahertz (GHz), émises par les corps célestes. Ces ondes sont notamment observées par des réseaux de radiotélescopes et traitées par interférométrie, une famille de techniques qui tire des informations d’interférences obtenues numériquement. Les appareils utilisés créent une image du ciel en combinant les signaux venus de plusieurs antennes. Dans les faits, seuls les signaux radio de 10 mégahertz (MHz) à 30 GHz parviennent à traverser les différentes couches de l’atmosphère terrestre. Ces signaux subissent, de plus, des interférences de la part des radiofréquences issues de l’activité humaine et des objets célestes les plus proches.
Apports de la radioastronomie
Pour autant, la radioastronomie est à l’origine de plusieurs découvertes astronomiques et cosmologiques : celle des quasars, des pulsars et du fond diffus cosmologique notamment. Elle sert également à l’étude du Soleil, de Jupiter ou encore de trous noirs comme celui au centre de la Voie lactée. L’arrivée d’une nouvelle génération de radiotélescopes, tels que le Low-Frequency array (LOFAR) en Europe ou le Square Kilometer Array (SKA) en cours de construction en Australie et en Afrique du Sud, représente un défi de taille pour analyser l’énorme quantité de données produite par des systèmes s’étalant sur plusieurs pays. Et alors que les données d’interférométrie sont souvent traitées par des algorithmes à base de transformées de Fourier – un outil mathématique capable de transformer des fonctions temporelles en fonctions fréquentielles -, cette approche se révèle insuffisamment optimale au regard des performances exceptionnelles accessibles avec de tels instruments.
C’est pourquoi l’équipe de Pascal Larzabal, professeur à l’université Paris-Saclay et membre du laboratoire SATIE, propose de nouvelles méthodes algorithmiques au service de la radioastronomie. « Je travaille depuis ma thèse sur l’estimation en traitement d’antennes. Je ne suis pas astrophysicien et le laboratoire SATIE est avant tout un laboratoire de génie électrique. Je me suis mis à la radioastronomie il y a une dizaine d’années. »
Des algorithmes dépassés
Au commencement de la radioastronomie, les premiers radiotélescopes consistent en de simples paraboles pointées vers le ciel dont le point focal recueille le signal d’intérêt mais aussi du bruit, moyenné et en partie atténué grâce à la mesure des signaux célestes. « On retrouve ici deux paramètres fondamentaux : la surface de la parabole qui donne la sensibilité, et le diamètre de l’antenne le pouvoir de résolution, afin de savoir séparer deux signaux rayonnants très proches. C’est comme si on voyait des phares au loin dans la nuit. Jusqu’à une certaine distance, on ne peut pas dire s’il s’agit d’une voiture ou d’une moto. »
Pour les améliorer, les antennes paraboliques gagnent en taille. Aujourd’hui, la plus grande parabole motorisée au monde mesure 100 mètres de diamètre et le record dépasse les 500 mètres, mais dans ce cas le radiotélescope est fixe. « La nouvelle génération de télescopes, basée sur l’interférométrie, est composée d’une multitude de dipôles élémentaires et d’antennes paraboliques disposés au sol, si possible dans des déserts pour éviter de contaminer les signaux célestes. On applique informatiquement des retards afin de synthétiser et d’orienter une immense parabole numérique dont le diamètre correspondrait à la plus grande des distances interantennes, explique Pascal Larzabal. D’un point de vue algorithmique, cela revient à déphaser et à sommer les signaux. On parle alors de réseaux phasés. Ces interféromètres sont très flexibles car ils permettent de scanner informatiquement la zone d’intérêt. Grâce à eux, il est possible de faire de l’imagerie, ce que n’autorise pas une parabole pointée mécaniquement. Mais les algorithmes classiques ne suivent plus, notamment ceux basés sur les transformées de Fourier. »
Une méthode statistique optimale
Face à ce constat, l’équipe de Pascal Larzabel propose d’utiliser « une approche centrée sur le maximum de vraisemblance : une méthode statistique souvent optimale pour trouver les paramètres d’un modèle capables de rendre les données observées les plus probables. » De quoi améliorer tous types d’observations.
« En radioastronomie, il faut savoir ce que l’on observe pour bien réaliser ses observations », affirme Pascal Larzabal, qui prend pour exemple l’étude de la raie d’hydrogène. Cet atome représente 75 % de la matière baryonique (c’est-à-dire formée de protons et de neutrons) de l’Univers et sa signature spectrale aide les scientifiques à remonter à l’époque de la réionisation. Cette dernière commence 400 millions après le Big Bang ; la matière, jusqu’alors électriquement neutre, se met à s’ioniser. C’est à ce moment que se forment les premières étoiles.
La transition hyperfine de l’atome d’hydrogène neutre se manifeste par la présence d’une raie caractéristique dans son spectre d’émission. Cette raie, qui se situe autour de 1,420 GHz, subit un effet doppler dû à l’expansion de l’Univers, et la radioastronomie distingue alors différentes raies. L’intensité de chaque raie Doppler informe les scientifiques sur le niveau d’ionisation de la matière intergalactique dans les temps cosmologiques et contient énormément d’informations astrophysiques. Il s’agit en quelque sorte d’une radiographie de l’Univers.
Des avancées bientôt perceptibles
La radioastronomie révèle aussi des phénomènes demeurés autrement invisibles. Par exemple, l’observation radio de Jupiter fait apparaître des « oreilles » à la géante gazeuse : ce sont des champs magnétiques que l’on ne voit pas à l’œil nu. On parle d’imagerie computationnelle, car reconstruite par informatique afin de montrer ce qui échappe aux méthodes conventionnelles. L’équipe de Pascal Larzabal collabore actuellement avec les radioastronomes de SKA en Afrique du Sud. « Nous testons nos outils statistiques de traitement du signal et d’apprentissage informé sur leurs signaux réels, avec toujours pour objectif l’amélioration de la qualité des images. »
Elle travaille surtout sur des simulations, notamment pour caractériser les performances de ses méthodes. Sa culture en traitement du signal la rend très sensible à la charge de calcul de ses algorithmes, qui sont beaucoup plus lourds que ceux basés sur les transformées de Fourier. D’ailleurs, les calculs des radiotélescopes sont trop complexes pour être faits au niveau des antennes. Ils sont traités au niveau de centres de calcul scientifique et de groupes de travail pour l’imagerie computationnelle, dont l’un est à l’Université Paris-Saclay.
« Même s’il est trop tôt pour dire quel en sera l’impact astrophysique, les techniques que nous essayons de mettre en œuvre vont permettre d’atteindre de meilleures résolutions et qualités d’image. Cela aiderait en tout cas aux travaux menés sur l’époque de la réionisation, la cosmologie, la relativité ou encore le transfert de matière baryonique impliqué dans la formation des étoiles et galaxies. »
Des projets sont déjà lancés. « Dans le cadre du laboratoire commun ECLAT, nous travailons avec le Laboratoire d’astrophysique de Bordeaux (LAB – CNRS/Univ. de Bordeaux), sur la sélection optimale d’antennes permettant d’imager la naissance des amas d’étoiles géantes. Avec l’Institut d’astrophysique spatiale (IAS – Univ. Paris-Saclay/CNRS), nous travaillons sur la toile cosmique permettant d’étudier la naissance des galaxies. En tant que traiteurs de signal, nous souhaitons accompagner les astronomes et les astrophysiciens dans les mutations technologiques en cours », conclut Pascal Larzabal.
Références :
- Nawel Arab, Yassine Mhiri, Isabelle Vin, Mohammed Nabil El Korso, Pascal Larzabal. Unrolled expectation maximization algorithm for radio interferometric imaging in presence of non Gaussian interferences. Signal Processing, Volume 237, 2025.
- Cyril Cano, Mohammed Nabil El Korso, Éric Chaumette, Pascal Larzabal. Kalman filter for dynamic source power and steering vector estimation based on empirical covariances. Signal Processing, Volume 230, 2025.
- J. Wang, M. N. E. Korso, L. Bacharach and P. Larzabal. Low-Rank EM-Based Imaging for Large-Scale Switched Interferometric Arrays. IEEE Signal Processing Letters, vol. 32, pp. 41-45, 2025.
- Yassine Mhiri, Mohammed Nabil El Korso, Arnaud Breloy, Pascal Larzabal. Regularized maximum likelihood estimation for radio interferometric imaging in the presence of radiofrequency interferences. Signal Processing, Volume 220, 2024.