Stratégie pour l’interopérabilité des infrastructures numériques scientifiques

Vous trouverez ici toutes les informations sur Exa-AtoW.

L’évolution des volumes de données et des capacités de calcul est en train de remodeler le paysage numérique scientifique. Pour exploiter pleinement ce potentiel, NumPEx et ses partenaires développent une stratégie d’interopérabilité ouverte reliant les principaux instruments, centres de données et infrastructures de calcul.

Porté par la production des données issues des grands instruments (télescopes, satellites, etc.) et de l’intelligence artificielle, le paysage numérique scientifique connaît une transformation profonde, alimentée par l’évolution rapide des capacités de calcul, de stockage et de communication. Le potentiel scientifique de cette révolution, intrinsèquement multidisciplinaire, repose sur la mise en œuvre de chaînes hybrides de calcul et de traitement, intégrant de manière croissante les infrastructures HPC, les centres de données et les grands instruments.

Anticipant l’arrivée de la machine Exascale Alice Recoque, les partenaires et collaborations de NumPEx (SKA-France, MesoCloud, PEPR Numpex, Data Terra, Climeri, TGCC, Idris, Genci) ont décidé de coordonner leurs efforts afin de proposer des solutions d’interopérabilité, permettant le déploiement de chaînes de traitement exploitant pleinement l’ensemble des infrastructures de recherche.

Les travaux ont pour objectif de définir une stratégie ouverte de mise en œuvre de solutions d’interopérabilité, en lien avec les grands instruments scientifiques, afin de faciliter l’analyse des données et de renforcer la reproductibilité des résultats.

Figure: Overview of Impact-HPC.
© PEPR NumPEx

 


Impacts-HPC : une bibliothèque Python pour mesurer et comprendre l'empreinte environnementale du calcul scientifique

Vous trouverez toutes les informations sur Exa-AToW ici.

L’empreinte environnementale du calcul scientifique va bien au-delà de la consommation d’électricité. Impacts-HPC présente un cadre complet pour évaluer les impacts du HPC sur l’ensemble de son cycle de vie, de la fabrication des équipements à la consommation d’énergie, au moyen d’indicateurs environnementaux clés.

L’empreinte environnementale des calculs scientifiques est souvent réduite à la consommation électrique pendant l’exécution. Or, cela ne reflète qu’une partie du problème. Impacts-HPC vise à dépasser cette vision limitée en intégrant aussi l’impact de la fabrication des équipements et en élargissant le spectre des indicateurs considérés.

Cet outil permet également de tracer les étapes d’un workflow de calcul et de documenter les sources utilisées, renforçant ainsi la transparence et la reproductibilité. Dans un contexte où la crise environnementale nous oblige à considérer simultanément climat, ressources et autres frontières planétaires, disposer de tels outils devient indispensable.

La librairie Impacts-HPC couvre plusieurs étapes du cycle de vie : fabrication et usage des équipements. Elle fournit aux utilisateurs trois indicateurs essentiels :

  • Énergie primaire (MJ) : plus pertinent que la seule électricité, car il inclut les pertes de conversion tout au long de la chaîne énergétique.
  • Impact climatique (gCO₂eq) : calculé par l’agrégation et la conversion des différents gaz à effet de serre en équivalents CO₂.
  • Déplétion des ressources (g Sb eq) : reflétant l’utilisation de ressources non renouvelables, en particulier les minerais métalliques et non métalliques.

C’est la première fois qu’un tel outil est proposé pour un usage direct par les communautés du calcul scientifique, avec une approche intégrée et documentée.

Cette librairie ouvre la voie à une évaluation plus fine des impacts environnementaux liés au calcul scientifique. Les prochaines étapes incluent son intégration dans des environnements de type jumeau numérique, l’ajout de données en temps réel (mix énergétique, stockage, transferts), ainsi que des tests sur un centre HPC de référence (IDRIS). De nouveaux indicateurs, tels que la consommation d’eau, pourront venir compléter l’outil pour en faire une brique incontournable de l’évaluation environnementale du calcul haute performance.

Figure: Overview of Impact-HPC.
© PEPR NumPEx

 


Stockage de volumes massifs de données : mieux comprendre pour mieux concevoir et optimiser

Vous trouverez ici toutes les informations sur Exa-DoST.

Il est essentiel de comprendre comment les applications scientifiques lisent et écrivent les données pour concevoir des systèmes de stockage qui répondent réellement aux besoins du calcul intensif. La caractérisation fine des E/S permet d’orienter les stratégies d’optimisation et l’architecture des futures infrastructures de stockage.

Les données sont au cœur des applications scientifiques, qu’il s’agisse des données en entrées ou des résultats de traitements. Depuis plusieurs années, leur gestion (lecture et écriture, aussi appelées E/S) est un frein au passage à très large échelle de ces applications. Afin de concevoir des systèmes de stockage plus performants capables d’absorber et d’optimiser ces E/S, il est indispensable de comprendre comment les applications lisent et écrivent ces données.

Grâce aux différents outils et méthodes que nous avons développés, nous sommes capables de produire une caractérisation fine du comportement E/S des applications scientifiques. Par exemple, à partir des données d’exécution de supercalculateurs, nous pouvons montrer que moins d’un quart des applications effectuent des accès réguliers (périodiques) ou encore que les accès concurrents sur le système de stockage principal sont moins courants qu’attendus.

Ce type de résultat est déterminant à plusieurs titres. Il permet par exemple de proposer des méthodes d’optimisation des E/S qui répondent à des comportements clairement identifiés des applications. Une telle caractérisation est aussi un élément concret pour influencer les choix de conceptions de futurs systèmes de stockage, toujours dans le but de répondre aux besoins des applications scientifiques.

Figure : Étape de la classification des données.
PEPR NumPEx


Une nouvelle génération de bibliothèques d'algèbre linéaire pour les superordinateurs modernes

Vous trouverez ici toutes les informations sur Exa-SofT.

Les bibliothèques d’algèbre linéaire sont au cœur du calcul scientifique et de l’intelligence artificielle. En repensant leur exécution sur les architectures hybrides CPU/GPU, de nouvelles approches à base de tâches dynamiques permettent d’en améliorer significativement les performances et la portabilité.

Les bibliothèques de résolution ou de manipulation de systèmes linéaires sont utilisées dans de nombreux domaines de la simulation numérique (aéronautique, énergie, matériaux) et de l’intelligence artificielle (training). Nous cherchons à rendre ces bibliothèques les plus rapides possibles sur les supercalculateurs combinant processeurs traditionnels et accélérateurs graphiques (GPU). Nous utilisons pour cela des modèles d’exécution à base de tâches asynchrones qui maximisent l’occupation des unités de calcul.

C’est un domaine de recherche actif où la plupart des approches existantes se heurtent toutefois au difficile problème de découpage du travail « à la bonne granularité » pour des unités de calcul qui sont hétérogènes.

Durant les derniers mois nous avons mis au point plusieurs extensions d’un modèle de programmation parallèle à base de tâches dit STF (Sequential Task Flow) qui permet d’implémenter de manière beaucoup plus élégante, concise et portable des algorithmes complexes. En combinant ce modèle avec des techniques de découpage dynamique et récursif du travail, on accroît significativement les performances sur des supercalculateurs équipés d’accélérateurs tels que des GPU, notamment grâce à la capacité d’adapter dynamiquement la granularité des calculs en fonction de l’occupation des unités de calcul. A titre d’exemple, grâce à cette approche nous avons obtenu une accélération de 2x par rapport à d’autres bibliothèques de l’état de l’art (MAGMA, Parsec) sur un calculateur hybride CPU/GPU.

Les opérations d’algèbre linéaire sont souvent les étapes les plus coûteuses dans de nombreuses applications de calcul scientifique, analyse de données et apprentissage profond. Par conséquent, toute amélioration de performances dans les bibliothèques d’algèbre linéaire peut potentiellement avoir un impact significatif pour de nombreux utilisateurs de ressource de calcul à haute performance.

Les extensions proposées du modèle STF sont génériques et peuvent également bénéficier à nombreux codes de calcul au-delà du périmètre de l’algèbre linéaire.

Dans la prochaine période, nous souhaitons étudier l’application de cette approche aux algorithmes d’algèbre linéaire pour matrices creuses ainsi qu’aux algorithmes d’algèbre multi-linéaire (calculs tensoriels).

Adapter la granularité permet de confier aux CPUs des tâches plus petites qui ne les occuperont pas trop longtemps, ce qui évite de faire attendre le reste de la machine, tout en continuant à confier aux GPUs de grandes tâches pour qu’ils restent efficaces.

Figure : Adapter la granulométrie permet de confier aux CPUs des tâches plus petites qui ne les occuperont pas trop longtemps, ce qui évite de faire attendre le reste de la machine, tout en continuant à confier aux GPUs de grandes tâches pour qu’ils restent efficaces.
©
PEPR NumPEx


Du dépôt Git à l'exécution en masse : Exa-MA industrialise le déploiement d'applications HPC conformes à NumPEx

Find all the information about Exa-MA here.

En unifiant les flux de travail et en automatisant les étapes clés du cycle de vie des logiciels HPC, le cadre Exa-MA contribue à un déploiement plus fiable, portable et efficace des applications sur les systèmes nationaux et EuroHPC.

Les applications HPC nécessitent reproductibilité, portabilité et tests à grande échelle, mais le passage du code à l’ordinateur reste long et hétérogène selon les sites. L’objectif est d’unifier le cadre applicatif Exa-MA et d’automatiser les constructions, les tests et les déploiements conformément aux directives NumPEx.

Un cadre d’application Exa-MA a été mis en place, intégrant la gestion des modèles, des métadonnées et des procédures de vérification et de validation (V&V). Parallèlement, une chaîne complète de CI/CD HPC a été déployée, combinant Spack, Apptainer/Singularity et la soumission automatisée via ReFrame/SLURM orchestrée par GitHub Actions. Cette infrastructure fonctionne de manière transparente sur les ordinateurs nationaux français et les plateformes EuroHPC, avec une automatisation de bout en bout des étapes critiques.

Dans les premiers cas d’utilisation, le délai entre la validation du code et l’exécution à grande échelle a été réduit de plusieurs jours à moins de 24 heures, sans aucune intervention manuelle sur le site. Les performances sont désormais contrôlées par des tests de non-régression (évolutivité élevée/faible) et seront bientôt améliorées par des artefacts de profilage.

L’approche déployée révolutionne l’intégration des applications Exa-MA, accélère l’onboarding et assure une qualité contrôlée grâce à des tests automatisés et une traçabilité complète.

La prochaine phase du projet consiste à mettre en ligne les applications Exa-MA et à déployer un tableau de bord des performances.

Figure : Analyse comparative des pages d’un site web avec des vues par application, par machine et par cas d’utilisation.
PEPR NumPEx

 


Des données urbaines aux maillages multicouches étanches, prêts pour la simulation énergétique à l'échelle de la ville

Cette recherche a été réalisée dans le cadre du projet Exa-MA. Retrouvez toutes les informations sur Exa-MA ici.

Comment modéliser une ville entière afin de mieux comprendre sa dynamique énergétique, ses flux d’air et sa dynamique thermique ? Les données urbaines (bâtiments, routes, terrain, végétation) sont abondantes mais souvent incohérentes ou incomplètes. Un nouveau pipeline de maillage SIG permet désormais de générer automatiquement des modèles urbains étanches et prêts à être simulés, ce qui permet des simulations réalistes de l’énergie et du microclimat à l’échelle urbaine.

La modélisation énergie/vent/chaleur urbaine requiert des géométries fermées et cohérentes, alors que les données (bâtiments, voirie, relief, hydro, végétation) sont hétérogènes et souvent non étanches. L’objectif est donc de reconstruire des maillages urbains watedight LoD-0/1, interopérables et enrichis d’attributs et modèles physiques.

Un pipeline SIG–maillage a été développé pour automatiser la génération de modèles urbains fermés. Il intègre l’ingestion des données via Mapbox, des opérations géométriques robustes à l’aide de Ktirio-Geom (basé sur CGAL), ainsi que des booléens multi-couches garantissant la fermeture topologique des scènes. Les zones urbaines de plusieurs kilomètres carrés sont ainsi converties en solides cohérents LoD-1/2 (bâtiments, routes, terrain, rivières, végétation). Le temps de préparation des modèles passe de plusieurs semaines à quelques minutes, avec un gain significatif en stabilité numérique. Les sorties sont interopérables avec le modèle Urban Building Model (Ktirio-UBM) et compatibles avec les solveurs énergétiques et CFD.

Ce développement permet un accès rapide à des cas urbains réalistes, exploitables pour les simulations énergétiques et microclimatiques, tout en favorisant la mutualisation des jeux de données au sein de l’écosystème du Centre of Excellence Hidalgo².

La prochaine étape consiste à publier des jeux de données de référence — modèles watertight et scripts associés — sur la plateforme CKAN (n.hidalgo2.eu). Ces travaux ouvrent la voie au couplage entre simulation CFD et énergétique, et à la création d’outils dédiés à l’étude et à la réduction des îlots de chaleur urbains.

Figures: Reconstruction de la ville de Grenoble sur un rayon de 5 km, incluant le réseau routier, les rivières et les étendues d’eau. La végétation n’a pas été intégrée afin de réduire la taille du maillage, qui compte ici environ 6 millions de triangles — un chiffre qui serait au moins doublé si la végétation était incluse.
© PEPR NumPEx


L'assemblée annuelle 2025 d'Exa-Soft

The 2025 Exa-SofT Annual Assembly took place from 19 to 21 October, 2025, bringing together more than 60 researchers and engineers from academia and industry to discuss progress on scientific computing software, share results from work packages, and welcome the latest recruits.

Exa-SofT (HPC software and tools) is one of the five projects of the NumPEx program. It is concerned with research issues around the development of efficient, portable and scalable software for exaflop-scale supercomputers which are, by nature, of a very large size, and heterogeneous. As such, Exa-SofT deals with the development and use of parallel programming models for accelerators such as GPUs, compile and runtime optimizations, the development of low-level libraries for linear and multilinear algebra, and performance and energy analysis and optimization.

The Exa-SofT annual assembly took place from 19th to 21st October 2025 at the Sophie Germain facilities in Palaiseau. Over three days, participants presented scientific achievements, exchanged on mini-applications for Exascale computing, and organized dedicated sessions to consolidate software developments and foster collaboration. The assembly highlighted the active involvement of young researchers and the continued efforts to integrate Exa-SofT developments across the NumPEx ecosystem.

Jeudi 19 octobre 2025

Vendredi 20 octobre 2025

Saturday, 21 October 2025

  • Retour d’information sur les sessions en petits groupes

  • Focus sur 3 résultats scientifiques par les recrues
    par Catherine Guelque (WP5)
    Jules Risse (WP5 & WP6)
    Albert d’Aviau (WP6)

  • Mot de la fin : prochaines étapes, livrables
    par Raymond Namyst, professeur à l’Université de Bordeaux
    et Alfredo Buttari, chercheur au CNRS

Participantes et participants

  • Emmanuel Agullo, Inria
  • Erwan Auer, Inria
  • Ugo Battiston, Inria
  • Marc Baboulin, Université Paris-Saclay
  • Vicenç Beltran Querol, BSC
  • Jean-Yves Berthou, Inria
  • Julien Bigot, CEA
  • Jérôme Bobin, CEA
  • Valérie Brenner, CEA
  • Elisabeth Brunet, Telecom SudParis
  • Alfredo Buttari, CNRS
  • Henri Calandra, Total Energies
  • Jérôme Charousset, CEA
  • Philippe Clauss, Inria
  • Raphaël Colin, Inria
  • Albert d’Aviau de Piolant, Inria
  • Georges Da Costa, Université de Toulouse
  • Marco Danelutto, Université de Pise
  • Stéphane de Chaisemartin, IFPEN
  • Alexandre Denis, Inria
  • Nicolas Ducarton, Inria

 

  • Arnaud Durocher, CEA
  • Assia Mighis, CNRS
  • Bernd Mohr, Jülich
  • Thomas Morin, Inria
  • Jules Evans, CNRS
  • Clémence Fontaine, ANR
  • Nathalie Furmento, CNRS
  • David Goudin, Eviden
  • Catherine Guelque, Telecom SudParis
  • Abdou Guermouche, Université de Bordeaux
  • Amina Guermouche, Inria
  • Julien Herrmann, CNRS
  • Valentin Honoré, ENSIIE
  • Karmijn Hoogveld, CNRS
  • Félix Kpadonou, CEA
  • Jerry Lacmou Zeutouo, Université de Picardie
  • Sherry Li, Lawrence Berkeley National Laboratory
  • Pérache Marc, CEA
  • Théo Mary, CNRS
  • Samuel Mendoza, Inria

 

 

 

  • Julienne Moukalou, Inria
  • Raymond Namyst, Université de Bordeaux
  • Brieuc Nicolas, Inria
  • Alix Peigue, INSA
  • Christian Perez, Inria
  • Lucas Pernollet, CEA
  • Jean-Marc Pierson, IRIT
  • Pierre-Etienne Polet, Inria
  • Marie Reinbigler, Inria
  • Vincent Reverdy, CNRS
  • Jules Risse, Inria
  • Matthieu Robeyns, IRIT
  • Alexandre Roget, CEA
  • Philippe Swartvaghe R, Inria
  • Boris Teabe, ENSEEIHT
  • Samuel Thibault, Université de Bordeaux
  • François Trahay, Telecom SudParis
  • Julien Vanharen, Inria
  • Jean-Pierre Vilotte, CNRS
  • Pierre Wacrenier, Inria

© PEPR NumPEx


Logistique des données pour la radioastronomie

Lisez le texte complet ici

Mathis Certenais, doctorant à l’IRISA et membre de NumPEx, mène ses recherches au sein du laboratoire ECLAT, où il développe des solutions innovantes de logistique de données pour la radioastronomie à l’ère de l’exascale. En travaillant en étroite collaboration avec des astrophysiciens, des informaticiens et des partenaires industriels, il conçoit des flux de travail collaboratifs capables de relever les défis scientifiques de demain, tout en contribuant au sein de YoungPEx à des réflexions sur l’interdisciplinarité, l’efficacité énergétique et la recherche responsable.

« Au sein de Youngpex, nous travaillons sur les sujets d’empreinte énergétique, comment faire de la recherche de manière écoresponsable, et la pluridisciplinarité dans le contexte de la recherche scientifique. »

Lisez l'intégralité de l'interview ici

Crédit photo : Laboratoire ECLAT


Comprenons-nous vraiment le comportement temporel des I/O dans les applications HPC — et pourquoi est-ce important ?

Retrouvez la version étendue de cet article « A Deep Look Into the Temporal I/O Behavior of HPC Applications » ici.

Exa-DoST est fier de partager sa dernière publication parue lors de la conférence IPDPS 2025 : Un regard approfondi sur le comportement temporel des E/S des applications HPC.

Dans le cadre d’une collaboration entre Inria (France), TU Darmstadt (Allemagne)et le LNCC (Brésil), Francieli Boito, Luan Teylo, Mihail Popov, Theo Jolivel, François Tessier, Jakob Luettgau, Julien Monniot, Ahmad Tarraf, André Carneiro et Carla Osthoff ont réalisé une étude à grande échelle sur le comportement temporel des entrées/sorties (I/O) en calcul haute performance (HPC), basée sur plus de 440 000 traces collectées sur 11 ans auprès de quatre grands systèmes HPC.

Comprendre le comportement temporel des I/O est essentiel pour améliorer les performances des applications HPC, en particulier alors que l’écart entre les vitesses de calcul et celles des I/O ne cesse de s’accentuer. De nombreuses techniques existantes — telles que l’allocation de buffers intermédiaires (burst buffers), la planification des I/O ou la coordination des tâches par lots — reposent sur des hypothèses concernant ce comportement. Ce travail examine des questions fondamentales liées à la temporalité, la périodicité et la concurrence des I/O dans des charges de travail réelles. En analysant les traces du point de vue à la fois du système et des applications, nous proposons une caractérisation détaillée des interactions entre les applications HPC et le sous-système I/O au fil du temps.

Principales contributions :

  • Une classification des motifs temporels récurrents dans des charges de travail variées.

  • Des observations sur la concurrence des I/O et l’utilisation partagée des ressources.

  • La mise à disposition publique des jeux de données utilisés afin de soutenir la recherche future.

Nos résultats constituent une base empirique solide pour le développement d’outils de monitoring adaptés au comportement des applications, de nouvelles stratégies de planification des I/O, et de modèles de performance plus précis.

Lisez la version complète sur HAL.

 

Crédit photo : Francieli Boito


2025 InPEx workshop

Retrouvez toute la présentation sur le site d'InPEx ici

Du 14 au 17 avril 2025, le réseau international d’experts InPEx (Europe, Japon, USA) se réunit à Kanagawa, au Japon, pour le workshop 2025, dédié aux défis de l’ère post-Exascale. Un événement accueilli par RIKEN-CSS et des universités japonaises, avec le soutien du programme de recherche NumPEx

Retrouvez toutes les contributions de NumPEx ci-dessous :

Si vous souhaitez en savoir plus, toutes les présentations sont disponibles sur le site web d’InPEx.

Crédit photo : Corentin Lefevre/Neovia Innovation/Inria


Privacy Preference Center