Le supercalculateur américain Frontier a pour la première fois de l'histoire passé le barre symbolique de 1 exaflop en juin 2022.

Le superordinateur le plus puissant du monde bientôt disponible ? Le pari optimiste d'Elon Musk avec Dojo

Article initialement publié sur le site de "L'Usine nouvelle" ici

Le superordinateur « Dojo » de Tesla, dont la construction a débuté cet été, est présenté comme le futur superordinateur le plus puissant du monde… et de loin. Elon Musk a annoncé qu’avec cet équipement de pointe, il pourra atteindre 100 exaflops avant fin 2024, grâce à un investissement d’un milliard de dollars. Un pari ambitieux : aujourd’hui, l’ordinateur le plus avancé est 100 fois moins puissant.

Le supercalculateur américain Frontier a franchi la barre symbolique de 1 exaflop pour la première fois de l’histoire en juin 2022.

Investir deux fois plus pour faire cent fois mieux ? C’est le défi lancé par Elon Musk avec « Dojo ». Ce supercalculateur, dont la construction a été annoncée par Tesla le 19 juillet, bénéficiera d’un investissement d’un milliard de dollars sur trois ans. L’ambition : créer l’ordinateur le plus puissant du monde. Et de loin. Avec 100 exaflops prévus pour octobre 2024, l’ordinateur sera 100 fois plus puissant que l’ordinateur le plus puissant du monde à ce jour. Elle est destinée à piloter les modèles d’intelligence artificielle à l’origine des voitures autonomes.

Dépassée pour la première fois en 2022 par l’ordinateur américain Frontier, la barrière de l’exaflop correspond à l’exécution de 1 milliard de milliards d’opérations en virgule flottante par seconde. L’Allemagne et la France s’apprêtent à rejoindre le club très convoité des superordinateurs exaflopiques, respectivement en 2024 et 2025, avec les superordinateurs européens Jupiter et Jules Verne. La production de l’ordinateur américain a commencé cet été, avec pour objectif d’entrer dans le top 5 mondial à plus de 0,2 exaflops d’ici janvier 2024. Mais la réalité technique s’annonce plus complexe.

Un délai serré

« Atteindre 100 exaflops d’ici à la fin de 2024 semble ambitieux », déclare Jean-Yves Berthou, directeur du Centre Inria à Saclay, en France. Il a fallu près d’un an à Frontier pour franchir le cap de l’exaflop. « Ici, on passerait d’une situation sans machine à 100 exaflops en un an. Ce n’est pas impossible, mais c’est très optimiste », reconnaît François Bodin, professeur à l’Université de Rennes. Le scientifique souligne, par exemple, les incertitudes entourant l’approvisionnement en puces graphiques GPU, le stockage pantagruélique des données ou l’approvisionnement en électricité. En effet, la consommation moyenne d’un supercalculateur serait de 20 mégawatts, selon le CEA.

L’annonce de Tesla ne précise pas non plus la nature de ces 100 exaflops. L’entreprise n’a pas précisé s’il s’agissait d’une capacité théorique ou réelle. La différence peut être significative : corrigée de facteurs tels que la latence de la mémoire ou la communication entre les nœuds, Frontier atteint une capacité réelle de 1,1 exaflops pour un pic théorique de 1,7 exaflops. Pour évaluer les performances des ordinateurs dans des conditions réelles, les superordinateurs utilisent le « Linpack », un banc d’essai qui regroupe plusieurs programmes et bibliothèques de logiciels. « Ce n’est pas la même chose de produire 100 exaflops en exécutant l’algorithme Linpack que d’avoir une machine avec une puissance de pointe théorique de 100 exaflops en exécutant l’algorithme Linpack que d’avoir une machine avec une puissance de pointe théorique de 100 exaflops », résume François Bodin.

Un superordinateur pas comme les autres

Néanmoins, la principale force de la puissance de calcul de Dojo réside dans sa spécialisation. Frontier, Jupiter ou Jules Verne ont un large éventail d’applications – recherche dans les domaines de l’espace, du climat, des produits pharmaceutiques, de l’énergie et bien d’autres encore. Dojo, en revanche, n’en a qu’un : l’entraînement de modèles d’intelligence artificielle pour les voitures autonomes. Ce type de calcul nécessite moins de précision que les calculs scientifiques.

Cette différence permet à Tesla de construire une architecture de processeur spécialisée, avec un nombre de bits plus faible (et donc une précision de calcul plus faible). précision). « Selon toute vraisemblance, ils fonctionneront sur 8 bits, et non sur 64 bits comme dans l’informatique scientifique classique », explique Jean-Yves Berthou. Ils gagneront donc un facteur 8 en puissance ». En d’autres termes, en acceptant de diviser sa précision de calcul par 8, Dojo pourra effectuer 8 fois plus d’instructions. Il ne faut pas croire que l’Europe est à la traîne, car elle investirait deux fois moins pour cent fois moins de performance », estime le scientifique. La métrique de l’exaflop n’est tout simplement pas utilisée dans le même contexte ici.

Le pari de Tesla a déjà eu un impact significatif : la hausse de son cours en bourse. Un rapport de Morgan Stanley estime que la capitalisation boursière de Tesla pourrait augmenter de près de 600 milliards de dollars (562 milliards d’euros) grâce au potentiel de son superordinateur, qui devrait contribuer à la création de taxis robots. Comme souvent, les annonces d’Elon Musk séduisent les investisseurs. Mais attention : le milliardaire s’est déjà dit « très confiant » quant à l’apparition de robots taxis en… 2020. Ses ambitions pour Dojo pourraient être tout aussi optimistes.


25th anniversary of the High Performance Computing Center Stuttgart

Le retour de la course aux supercalculateurs entre les États-Unis, la Chine et l'Europe.

Article publié à l'origine sur le site du journal "Le Monde" ici

À l’ère de la miniaturisation électronique, les supercalculateurs font leur retour, portés par l’essor de l’intelligence artificielle. Une bataille stratégique se déroule entre les grandes puissances.

Alors qu’on les croyait obsolètes, les superordinateurs reprennent du service. Aujourd’hui, elles bénéficient d’un marché mondial florissant, grâce à l’exploitation de l’or noir du XXIe siècle : les données pour l’intelligence artificielle (IA). Elles sont même devenues une question de souveraineté, à tel point que les États-Unis, dans leur guerre commerciale avec la Chine, vont jusqu’à refuser à leur rival asiatique les microprocesseurs destinés à ces machines. En Europe, les survivants émergent, à commencer par l’Etat français qui suit de près les négociations autour du démantèlement du groupe Atos. Dans sa filiale Eviden, il y a en effet un joyau à chérir, parmi les rares qui subsistent en Europe : les supercalculateurs issus de l’acquisition de Bull en 2013. Une nouvelle usine devrait même être construite à Angers d’ici 2027.

Ces mastodontes sont appelés à développer plus rapidement des médicaments et des vaccins, notamment contre le Covid-19, à affiner les prévisions météorologiques face au changement climatique, à améliorer l’aérodynamisme des avions et autres véhicules pour consommer moins d’énergie, à lutter contre des cyberattaques de plus en plus redoutables, ou encore à simuler une explosion nucléaire au nom de la dissuasion. L’apprentissage automatique et l’informatique quantique (calculs massifs et simultanés à l’échelle atomique) en ont besoin.

Longtemps cantonnée à la recherche académique ou à la simulation industrielle et nucléaire (défense), la lignée des supercalculateurs se renforce avec l’intelligence artificielle. « Les modèles d’IA à grande échelle se développent très rapidement et les nouveaux acheteurs commencent à utiliser des machines de grande capacité, avec des prix de vente allant de dizaines de millions à des centaines de millions de dollars chacune. La lutte contre les cyberattaques nécessitera également une puissance de calcul importante », prédit Earl Joseph, PDG d’Hyperion Research, une société de recherche américaine spécialisée dans le marché mondial du HPC (High Performance Computing). Car plus les ordinateurs sont puissants, plus ils sont chers.


NumPEx BOF@SC23

La conférence internationale pour l'informatique de haute performance, la mise en réseau, le stockage et l'analyse SuperComputing 2023 aura lieu à Denver du 12 au 17 novembre 2023.

sc23_homeAu cours de cette conférence, un "Bird of a Feather" (BoF) lié au programme NumPEx est prévu, permettant aux participants à la conférence de discuter ouvertement de sujets d'actualité intéressant la communauté HPC.

Plusieurs initiatives (trans-)nationales ont reconnu l'importance cruciale de la co-conception entre les parties prenantes du matériel, des logiciels et des applications sur la voie de l'Exascale et au-delà. Il est considéré comme indispensable pour l'exploitation efficace des ressources informatiques Exascale dans le développement de démonstrateurs d'applications à grande échelle, mais aussi pour préparer des applications complexes à exploiter pleinement la capacité des systèmes Exascale et post-Exascale. Parmi ces projets, on peut citer le projet français NumPEX (41M€) mais aussi le programme EuroHPC, ou encore le projet ECP aux Etats-Unis et le projet FugakuNEXT au Japon. Cependant, ces efforts sont quelque peu déconnectés alors que la communauté gagnerait à partager le retour d'expérience, le savoir-faire commun et à progresser sur les nouveaux problèmes qui se posent à mesure que les machines exascales deviennent de plus en plus disponibles.

En nous appuyant sur les efforts antérieurs de l'International Exascale Software Project (IESP), de l'European EXtreme Data and Computing Initiative (EXDCI) et de la communauté BDEC, nous travaillerons à la mise en œuvre d'un environnement informatique international, partagé et de haute qualité qui se concentre sur les principes et les pratiques de la co-conception. Les partenaires américains, européens et japonais se sont déjà rencontrés et ont identifié une série de domaines pour la coordination internationale (entre autres) :

  • Production et gestion de logiciels : packaging, documentation, builds, résultats, catalogues, intégration continue, conteneurisation, LLVM, outils parallèles, etc.
  • Durabilité des logiciels
  • Technologies et usages futurs et perturbateurs de la santé et de la sécurité au travail (investissements et feuilles de route)
  • Recensement des capacités manquantes (à la fois pour les applications et les logiciels)
  • Feuille de route des objectifs à court terme en matière de santé publique
  • Convergence HPC/AI : ML, modèles ouverts et ensembles de données pour l'entraînement à l'IA,
  • Gestion des données FAIR
  • Continuum numérique et gestion des données
  • Benchmarks et évaluation, co-conception (HW, SW, applications)
  • Impact énergétique et environnemental et durabilité
  • Usine de collaboration/partenariat : établir des collaborations au niveau international
  • Formation

Le BOF proposé offrira une vue d'ensemble des différents programmes et initiatives Exascale du point de vue de la co-conception (mélangeant l'application, la pile logicielle et la perspective matérielle). Ensuite, des partenaires internationaux représentant les principaux centres de calcul d'Europe, des États-Unis et du Japon exposeront et discuteront des problèmes et questions communs.

Les responsables du BoF solliciteront l'avis des participants sur les objectifs de la co-conception et sur l'exploitation et la coordination efficaces des efforts existants en Europe, aux États-Unis et au Japon, consacrés à l'exascale. Les participants au forum seront invités à partager leurs points de vue sur les problèmes et questions susmentionnés. Nous discuterons également des candidats aux démonstrateurs d'applications collaboratives, dont le projet LHC du CERN, les modèles climatiques du GIEC et le projet SKA sont quelques exemples représentatifs. Enfin, nous ferons appel aux contributions des participants.

Lors du BoF, un panel d'experts de NumPEx, ECP, Riken-CC, BSC, JSC et des communautés d'application sélectionnées, soulèvera des questions et sollicitera des contributions dans chacun de leurs domaines respectifs. Les représentants de toutes les agences de financement concernées seront invités à participer et à contribuer.

Le but ultime de ce BOF est de lancer une nouvelle série d'ateliers consacrés aux collaborations internationales entre l'Europe, les États-Unis et le Japon sur le calcul Exascale et post-Exascale.

 

 

 


GENCI

Libérer la puissance de l'Exascale Computing : Rapport d'activité 2022 de Genci

Nous avons le plaisir de vous présenter le très attendu rapport d’activité de Genci pour l’année 2022.

En tant qu’organisation de premier plan chargée de fournir de puissantes ressources de calcul et de traitement des données, Genci a joué un rôle déterminant dans la recherche scientifique et l’innovation, tant au niveau national qu’européen.

Avec pour mission de promouvoir l’utilisation de supercalculateurs couplés à l’intelligence artificielle, Genci a fait des progrès significatifs au profit des communautés de recherche scientifique, des universités et des secteurs industriels. Rejoignez-nous pour explorer les réalisations remarquables présentées dans ce rapport de 68 pages.

genci logo

2022 – Rapport annuel GENCI (version anglaise)

2022 – Rapport Activite GENCI (version française)

Lancement de programmes et d’initiatives novateurs :

L’engagement de Genci à repousser les limites des capacités de calcul se manifeste par le lancement de plusieurs programmes et initiatives révolutionnaires. Le rapport met en lumière des projets clés, tels que

  1. NumPEx: L’initiative NumPEx vise à exploiter la puissance des supercalculateurs et de l’IA pour stimuler le progrès scientifique. En fournissant aux chercheurs des ressources informatiques de pointe, Genci leur permet de relever des défis complexes dans divers domaines scientifiques.
  2. Consortium Jules Verne pour l’exascale : Le partenariat de Genci avec le Consortium Jules Verne démontre son engagement à faire progresser le calcul exascale. Cette collaboration favorise l’innovation et stimule la recherche dans des domaines autrefois inimaginables.
  3. Projet CLUSSTER: Le projet CLUSSTER se concentre sur l’intégration de solutions d’informatique dématérialisée dans l’infrastructure de Genci. En adoptant le cloud, Genci améliore la flexibilité et l’évolutivité, ce qui permet aux chercheurs de s’attaquer facilement aux charges de travail à forte intensité de données.
  4. Nouveau superordinateur « Adastra »: L’introduction par Genci du superordinateur de pointe « Adastra » marque une étape importante. Grâce à sa puissance de calcul remarquable, Adastra permet aux chercheurs de réaliser des simulations complexes, d’accélérer l’analyse des données et de réaliser des percées scientifiques.

Les progrès de l’informatique quantique :

Genci reconnaît l’immense potentiel de l’informatique quantique et a réalisé des progrès significatifs dans ce domaine. Le rapport met en lumière des réalisations notables, notamment

  1. Plate-forme nationale de calcul quantique hybride: Genci a joué un rôle essentiel dans le lancement de cette plateforme. Cette initiative favorise la collaboration et permet aux chercheurs d’explorer les capacités de l’informatique quantique pour résoudre des problèmes concrets.
  2. Intégration de systèmes quantiques: Genci a acquis ses premiers systèmes quantiques, marquant ainsi une étape importante pour permettre aux chercheurs d’exploiter la puissance de l’informatique quantique. Ces systèmes ouvrent la voie à la recherche et à l’innovation révolutionnaires dans les applications quantiques.
  3. Le Paquet Quantique : Le Paquet Quantique de Genci (PAck Quantique) fournit aux chercheurs les outils et les ressources nécessaires pour explorer les systèmes informatiques quantiques hybrides. Cette initiative encourage le développement d’algorithmes et d’applications novateurs qui font le lien entre l’informatique classique et l’informatique quantique.

Progrès en matière d’intelligence artificielle :

Genci a adopté le potentiel de transformation de l’intelligence artificielle, comme le souligne le rapport :

Modèle Bloom: Le modèle Bloom de Genci illustre les efforts déployés par l’entreprise pour développer des algorithmes et des cadres d’intelligence artificielle de pointe. En associant les supercalculateurs à l’IA, Genci facilite la recherche de pointe dans les domaines de l’apprentissage automatique, de l’apprentissage profond et de l’analyse des données.

Contribuer à la recherche scientifique et à l’industrie :

Genci se consacre au soutien des communautés de recherche scientifique, des universités et des secteurs industriels par le biais de différentes initiatives, comme en témoignent les efforts déployés dans ce domaine :

  1. Réutilisation de la chaleur résiduelle: L’approche innovante de Genci comprend la valorisation de la chaleur résiduelle générée par le supercalculateur Jean Zay. Cette initiative respectueuse de l’environnement témoigne de l’engagement de Genci en faveur de la durabilité et de l’utilisation efficace des ressources.
  2. Grands défis: Genci soutient activement les chercheurs qui s’attaquent aux grands défis, en leur fournissant les ressources informatiques nécessaires pour résoudre des problèmes complexes dans diverses disciplines scientifiques.
  3. Simulations exemplaires: Le rapport présente des exemples convaincants de simulations réalisées avec les ressources de Genci, mettant en évidence les découvertes et les avancées significatives rendues possibles grâce à leur soutien.
  4. Communauté de grands groupes industriels: La collaboration de Genci avec de grands groupes industriels souligne son engagement à combler le fossé entre le monde universitaire et l’industrie. En favorisant les partenariats, Genci facilite le transfert de la recherche de pointe et des avancées technologiques vers des applications concrètes.

L’écosystème régional et européen de Genci :

Le rapport souligne la participation active de Genci à des initiatives régionales et européennes :

  1. Initiatives régionales: Genci contribue activement au développement régional par le biais d’initiatives telles que SiMSEO, le Centre de compétences et MesoNet. Ces programmes encouragent la coopération entre les institutions de recherche et les industries, ce qui favorise l’innovation et contribue à la croissance économique.
  2. Collaborations européennes: La participation de Genci à des collaborations européennes, telles que PRACE, EuroHPC, EUPEX et EPI SGA, souligne son engagement à établir un écosystème européen solide pour le calcul à haute performance. Ces collaborations facilitent l’échange de connaissances et le partage des ressources, et favorisent le dynamisme de la communauté européenne de la recherche.

Le rapport d’activité 2022 de Genci démontre son engagement à renforcer la recherche scientifique et à stimuler l’innovation en intégrant le calcul exascale, l’intelligence artificielle et l’informatique quantique.

En lançant des programmes novateurs, en introduisant des technologies de pointe et en collaborant avec les communautés de recherche et l’industrie, Genci a contribué de manière significative à l’avancement des frontières scientifiques.

Leur engagement en faveur de pratiques durables et de partenariats régionaux et européens renforce leur position en tant que fournisseur de premier plan de ressources informatiques.

En se tournant vers l’avenir, Genci continue d’ouvrir la voie à des découvertes transformatrices et à des percées dans le domaine de la recherche scientifique et de l’innovation technologique.


numpex-plage

NumPEx se lance dans l'action avec un programme ambitieux à Perros-Guirrec

Au cours d'une série de sessions dynamiques organisées du26 au28 juin dans la charmante ville de Perros-Guirrec, NumPEx s'est lancé dans un événement de lancement intensif, préparant le terrain pour un voyage transformateur dans le domaine du calcul Exascale. Dirigeants, experts et collaborateurs se sont réunis pour se pencher sur un programme riche en enseignements.tions, des ateliers et des initiatives de collaborainitiatives de collaborations.

numpex-plage_KO23
Tous les participants au Kick-Off de NumPEx

Le coup d'envoi a commencé par une introduction détaillée, soulignant les objectifs et l'importance du programme NumPEx, qui vise à établir une vision commune et à encourager la collaboration pour mettre en œuvre une pile logicielle cohérente et les processus connexes d'ici 2025, au bénéfice non seulement de la France mais aussi de l'Europe, en préparation de la machine Exascale. Des personnalités telles que Jérôme Bobin, Michel Dayde et Jean-Yves Berthou ont expliqué les objectifs et la structure organisationnelle du programme. Les membres du conseil d'administration ont partagé leurs points de vue sur la vision et les feuilles de route Exascale :

Vision et feuille de route Exascale de GENCI :

  • Présentation du rôle et des missions de GENCI, y compris l'hébergement du projet Exascale pour EuroHPC.
  • Partenariat avec EuroHPC et d'autres acteurs dans le cadre de l'initiative européenne en matière de calcul intensif, en s'appuyant sur PRACE et GEANT.
  • Présentation du consortium Jules Verne, mettant en avant les partenariats internationaux et industriels.
  • Vision de la machine européenne Exascale : relever les défis sociétaux, encourager l'innovation et mettre l'accent sur la convergence HPC/IA centrée sur les données.
  • Plans de collaboration avec NumPEx, y compris l'élaboration d'un programme fonctionnel, le développement de références et la promotion du produit.

Vision et feuille de route Eviden Exascale :

  • L'approche complexe d'Eviden implique des technologies HPC, HPDA, IA et quantiques, avec un accent sur les composantes souveraines et européennes.
  • Participation au processeur intégré européen pour les machines Exascale (SiPearl) et collaboration à divers projets technologiques.
  • Collaboration avec le CEPP pour le soutien des applications et la participation à des projets technologiques liés à Exascale, à la quantique, à l'informatique en nuage, etc.

Écosystème national et européen :

  • Introduction d'EUPEX, un projet de 4 ans avec un budget similaire à NumPEx, visant à déployer un système modulaire Exascale en utilisant l'architecture OpenSequana.
  • Collaboration avec NumPEx, possibilité de partager des expériences et des résultats, et exploration d'une diffusion commune.
  • Présentation de Data Direct Network (DDN) avec un accent sur l'IA et le système de fichiers parallèles Lustre, soulignant les défis et l'importance de comprendre les applications NumPEx.

L'après-midi s'est poursuivie par une visite des cinq projets (PC) du programme NumPEx :

  • Exa-MA, qui vise à concevoir des algorithmes et des méthodes numériques évolutifs pour les prochaines machines exascales. Dirigé par Christophe Prudhomme (Université de Strasbourg) et Hélène Barucq (Inria).
  • Exa-Soft, pour développer une pile logicielle cohérente, portable, efficace et résistante pour l'exascale. Dirigé par Raymond Namyst (Inria) et Alfredo Buttari (CNRS - Centre national de la recherche scientifique).
  • Exa-DoST, pour relever les défis liés aux données, notamment le stockage, les E/S, le traitement in situ et l'analyse intelligente, dans les superordinateurs exascales. Dirigé par Gabriel Antoniu (Inria) et Julien Bigot (CEA).
  • Exa-ATOW, pour traiter les flux de travail à grande échelle impliquant des machines exascales. Dirigé par François Bodin (Université de Rennes), Mark Asch (Université de Picardie Jules Verne (UPJV)), et Thierry Deutsch (CEA).
  • Exa-DI, pour assurer la co-conception transversale et la productivité des logiciels pour les supercalculateurs exascales. Dirigé par Jean-Pierre Vilotte (CNRS) et Valérie Brenner (CEA).

La journée s'est terminée en mettant l'accent sur les efforts de collaboration entre NumPEx et d'autres initiatives, notamment en ce qui concerne le développement d'étalons, les liens entre les logiciels et le matériel, et l'objectif global de se préparer aux défis de l'ère Exascale.

KO_NumPEx_23_1

La deuxième journée a débuté par un jogging matinal revigorant le long du bord de mer, donnant un ton dynamique à une journée remplie d'ateliers thématiques. Les participants ont participé à des discussions ciblées sur les synergies énergétiques, l'intégration du GPU, les applications, la coconception, le genre, la diversité et l'équité, l'intégration de la production de logiciels, la formation, la résilience, les collaborations internationales et l'intelligence artificielle. Des ateliers thématiques, animés par des experts du domaine, ont favorisé la collaboration au sein de groupes plus restreints, soulignant l'engagement du programme en faveur d'une approche transversale des défis de l'Exascale.

 

KO_NumPEx_23_2

Le dernier jour a commencé par une synthèse des résultats de l'atelier, soulignant la profondeur des discussions dans chaque domaine thématique. Les animateurs des ateliers ont consolidé leurs connaissances, offrant une vue panoramique des défis et des opportunités. Voici un aperçu des principales idées et actions stratégiques discutées lors de ces ateliers :

Atelier sur les accélérateurs de GPU

Lors d'un atelier consacré aux accélérateurs de GPU, les experts ont souligné le rôle essentiel des unités de traitement graphique (GPU) dans la réalisation d'un calcul à grande échelle. Étant donné que 90 à 99 % des performances des grandes machines sont attribuées à l'accélération des GPU, l'atelier a mis en évidence la nécessité pour les applications d'explorer le potentiel de ces puissants processeurs. Parmi les défis abordés figurent les nouveaux paradigmes de programmation, la portabilité du code, la gestion des données et le paysage matériel induit par les jeux et l'intelligence artificielle. L'atelier a présenté un plan complet, comprenant des ateliers futurs, des documents d'analyse, des tutoriels, des hackathons et des exemples de mini-applications portées avec succès.

Atelier sur l'énergie

L'atelier sur l'énergie s'est concentré sur la réalisation d'un calcul Exascale dans une limite de consommation d'énergie de 20 MW. Les experts se sont penchés sur les dimensions environnementales, scientifiques, techniques et sociétales, fournissant une feuille de route pour la communauté HPC. Les principaux défis identifiés sont la modélisation de la consommation des systèmes, les outils de mesure en temps réel, la hiérarchisation des ressources en fonction de l'impact sociétal et l'impact environnemental plus large des activités de recherche. Le plan d'action prévoit l'élaboration d'un modèle de performance et de consommation, de stratégies d'optimisation, d'outils pour les utilisateurs et le développement de liens avec des entités externes afin d'intégrer des considérations énergétiques.

Séminaire sur l'équité entre les sexes et la diversité

Le plan d'action comprend l'établissement d'un code de conduite, l'évaluation de la répartition des sexes, la création d'une plateforme web pour les ressources, des initiatives d'éducation et de formation, des programmes de sensibilisation et de vulgarisation, ainsi qu'un engagement en faveur de l'accessibilité et de la reconnaissance. NumPEx vise à créer un avenir inclusif et collaboratif, en invitant toutes les parties prenantes à contribuer aux initiatives.

Atelier sur l'IA

L'atelier sur l'IA a exploré l'intersection critique du calcul intensif et de l'IA, en abordant les défis et en esquissant un plan stratégique pour une exploration collaborative. Les principales discussions ont porté sur les outils d'aide à la décision pour les applications d'IA dans le domaine du calcul intensif, l'optimisation des temps d'exécution des modèles d'IA et la convergence des utilisations du calcul intensif et de l'IA. Le plan d'action prévoit la création d'un groupe de travail sur l'IA, l'organisation d'ateliers transversaux et l'élaboration d'éléments fondamentaux pour un avenir convergent.

Atelier sur les stratégies de formation

L'atelier sur les stratégies de formation a abordé les complexités de la formation dans le contexte de l'ère exascale qui s'annonce. Les discussions ont porté sur la portée et les sujets des programmes de formation, la création de modèles de formation durables et les considérations économiques dans les initiatives de formation. L'atelier a mis l'accent sur des initiatives de formation collaboratives et inclusives afin de préparer la communauté scientifique aux défis et aux opportunités de l'informatique exascale.

Atelier sur les collaborations internationales

L'atelier sur les collaborations internationales s'est concentré sur l'identification des défis et la définition d'objectifs pour des cadres de collaboration renforcés à l'échelle européenne et mondiale. Les discussions ont porté sur les défis scientifiques et technologiques, la conception et le développement de la pile logicielle exascale et les plans d'action stratégiques. La feuille de route esquissée comprend l'organisation d'ateliers, l'échange d'idées et d'expériences et le renforcement des collaborations avec des entités internationales.

Atelier d'intégration des centres nationaux

L'atelier d'intégration des centres nationaux visait à aligner NumPEx sur les infrastructures HPC, en mettant l'accent sur les éléments opérationnels entre les centres de calcul et les projets ciblés par NumPEx. Les discussions ont porté sur l'évaluation opérationnelle, la cybersécurité, le profilage professionnel et la traçabilité. L'atelier a établi un plan de vidéoconférences régulières, garantissant une communication et une collaboration continues.

Atelier de production de logiciels

L'atelier sur la production de logiciels s'est concentré sur la rationalisation des pratiques de développement de logiciels dans le domaine du calcul intensif. Parmi les défis abordés, citons la réduction des cloisonnements, l'application des bonnes pratiques et l'amplification de l'impact. Les idées et les conclusions ont mis en évidence les diverses pratiques de développement, les modèles de durabilité et le déploiement de l'intégration continue et de la certification. L'engagement de NumPEx à faire progresser les pratiques de production de logiciels vise à favoriser l'innovation, la collaboration et le développement durable dans le domaine du calcul intensif.

Atelier sur la résilience Exascale

L'atelier "Exascale Resilience Workshop" a permis d'aborder les complexités liées au déploiement d'applications exascales. Les discussions ont porté sur les différentes approches des PC NumPEx, les principaux défis et les choix stratégiques. Le plan d'action comprend l'énumération et l'analyse des besoins en matière d'applications, l'analyse des obstacles à l'adoption par les bibliothèques et l'examen minutieux des solutions internationales. NumPEx vise à encourager les solutions collaboratives pour améliorer la résilience des applications à l'échelle mondiale.

Applications et atelier de co-conception

L'atelier sur les applications et la co-conception a encouragé les stratégies de co-développement pour le développement d'applications avancées. Les discussions ont porté sur les défis de la co-conception, les questions clés pour l'exploration collective, l'établissement de liens et les initiatives de durabilité. L'atelier a préparé le terrain pour les prochains ateliers sur les projets de codéveloppement, en mettant l'accent sur la collaboration et l'innovation.

Alors que les dirigeants font leurs adieux à Perros-Guirrec, NumPEx se prépare à transformer les visions et les idées partagées en actions tangibles dans le domaine du calcul Exascale. Le coup d'envoi a marqué le début d'une collaboration et NumPEx est prêt à prendre la tête de l'innovation scientifique.

Pour connaître les dernières mises à jour et l'état d'avancement du programme NumPEx, consultez notre section "Actualités". Le voyage vers Exascale a commencé, et NumPEx est à l'avant-garde de cette expédition pionnière.

KO_NumPEx_23_4KO_NumPEx_23_4KO_NumPEx_23_3


Qu'est-ce que l'exascale ?

Dans le monde d’aujourd’hui, l’information est devenue une ressource essentielle. Des quantités massives de données sont produites chaque jour, à partir de diverses sources telles que les réseaux sociaux, les capteurs, les simulations scientifiques et bien d’autres encore. Pour traiter efficacement ces données et relever les défis complexes de notre époque, il est essentiel de disposer de puissantes capacités informatiques.

C’est là que l’exascale entre en jeu. Exascale est une mesure de la puissance de calcul qui représente un trillion (10^18) d’opérations en virgule flottante par seconde, ou un million de milliards de calculs par seconde. Ces performances sont tout simplement stupéfiantes et dépassent de loin celles de tous les superordinateurs existants.

Découvrez l’exascale : La puissance de calcul du futur

La course à l’exascale :

Depuis les premiers ordinateurs électroniques, la puissance de calcul des machines a augmenté de manière exponentielle grâce à l’évolution des technologies. Les demandes de calcul devenant de plus en plus complexes, les chercheurs et les ingénieurs se sont fixé pour objectif d’atteindre l’exascale. Cela a donné lieu à une véritable course à l’innovation dans le domaine des supercalculateurs.

 

Défis technologiques :

Pour atteindre l’exascale, il ne suffit pas d’augmenter la vitesse des processeurs. Cela nécessite une approche multidimensionnelle qui intègre plusieurs domaines de recherche. L’un des principaux défis consiste à concevoir des processeurs plus économes en énergie, capables de traiter des milliards de calculs tout en minimisant la consommation d’énergie.

En outre, l’architecture des superordinateurs doit être repensée pour exploiter pleinement les performances des processeurs. Les architectures parallèles et distribuées, ainsi que l’utilisation de processeurs spécialisés tels que les accélérateurs graphiques (GPU), jouent un rôle clé dans la réalisation de l’exascale.

 

Applications Exascale :

L’exascale ouvre la voie à de nombreuses possibilités dans divers domaines. Dans le domaine de la science et de la recherche, elle permettra des simulations plus précises et plus rapides, ce qui favorisera des avancées significatives dans des domaines tels que la recherche médicale, la météorologie, la physique des matériaux, l’astrophysique et bien d’autres encore.

Exascale est également essentiel pour le développement de l’intelligence artificielle et de l’apprentissage automatique. Les modèles d’apprentissage profond, qui nécessitent des quantités massives de données et de calculs, pourront être formés beaucoup plus rapidement, ce qui permettra des avancées plus rapides dans ces domaines.


PEPR NumPEx : Calcul haute performance et souveraineté européenne

Article initialement publié sur le site du CNRS ici

Le Programme prioritaire de recherche et d’équipement numérique exploratoire Exascale (PEPR) – piloté par le CNRS, le CEA et l’Inria – vise à concevoir et à développer les briques logicielles qui équiperont les futures machines exascales. Il contribue ainsi à préparer les futurs utilisateurs, scientifiques et industriels, à exploiter les capacités de ces machines. Le programme est doté d’un budget de 40,8 millions d’euros sur 8 ans. Explications avec Michel Daydé, co-directeur du programme pour le CNRS.

Le PEPR NumPEx – que vous coordonnez avec Jean-Yves Berthou (pour l’Inria) et Jérôme Bobin (pour le CEA) – fait partie intégrante du projet Exascale France lui-même en coordination avec le projet européen EuroHPC. Pouvez-vous nous parler des défis posés par ces projets et du rôle particulier que le PEPR jouera dans ce contexte ?

Michel Daydé :

Le programme EuroHPC est une initiative conjointe de l’Union européenne, des pays européens et de partenaires privés visant à développer un écosystème de supercalculateurs de classe mondiale en Europe d’ici 2025. Elle s’appuiera pour cela sur deux ordinateurs exascale, c’est-à-dire capables d’effectuer 1 milliard de milliards d’opérations par seconde. Et ce, avec la contrainte énergétique de ne pas dépasser une consommation de 20 mégawatts. La première machine sera en Allemagne, la France a répondu au deuxième appel à projets pour accueillir la seconde. A cette fin, la communauté française s’est structurée autour d’un projet national exascale piloté par GENCI.

Cependant, l’impact de ces superordinateurs dépendra entièrement des applications qui les utiliseront. Il est donc indispensable de créer un écosystème d’applications et de personnes qui adapteront ces applications aux nouvelles machines. En effet, les ordinateurs exascales représentent une évolution architecturale majeure avec des dizaines de milliers d’unités de traitement graphique (GPU) qui accéléreront massivement les calculs. Il faut donc modifier les algorithmes existants, voire en développer de nouveaux. PEPR NumPEx répond à ce besoin spécifique par une recherche interdisciplinaire réunissant des mathématiciens, des informaticiens et des chercheurs de différents domaines d’application.

Comment le PEPR envisage-t-il de relever ces défis ?

M.D :

Le changement d’architecture de ces ordinateurs ultra-puissants signifie que l’ensemble de la pile logicielle1 doit être adaptée ou créée. Un changement de paradigme est en cours. En ce sens, le squelette du PEPR est basé sur des projets fondamentaux autour du développement de méthodes, d’algorithmes, de logiciels et d’outils de traitement de données adaptés à l’exascale. Il existe également des questions spécifiques à la consommation d’énergie de l’exascale, qui sont d’autant plus importantes aujourd’hui. En d’autres termes, il est nécessaire de déployer des applications qui consomment le moins d’énergie possible pour parvenir à la solution d’un problème donné. Toutes ces recherches intégreront des démonstrateurs qui couvriront un nombre représentatif des principaux domaines d’application.

A travers ce PEPR, nous visons donc à développer une pile logicielle française avec de nouvelles méthodes de résolution et de nouveaux outils sur les aspects de calcul, de traitement des données, d’intelligence artificielle, d’aide à l’exécution et de suivi qui pourraient être adoptés, dans la mesure du possible, aux niveaux français et européen. Notre ambition est de mettre en place un environnement logiciel cohérent et efficace allant du support d’exécution aux applications.

Comment les résultats seront-ils transférés et dans quels domaines d’application ?

M.D : Au cours de ce travail, nous identifierons les préoccupations ou les besoins communs aux différentes applications. Il peut s’agir, par exemple, d’approches algorithmiques communes à plusieurs applications ou de dispositifs de stockage dotés de protocoles particuliers. L’idée est de mettre en œuvre des solutions transversales dans plusieurs domaines. Une unité PEPR sera chargée d’aider les équipes d’application à intégrer les innovations des projets ciblés dans les démonstrateurs et, plus largement, à former les utilisateurs à leur utilisation.

Des industriels ont déjà manifesté leur intérêt, notamment Atos Bull et SiPearl, fortement impliqués dans le programme EuroHPC sur la conception et la fabrication des futurs processeurs et machines européens. Plusieurs centres d’excellence participent également à ce PEPR avec leurs applications. Nous avons donc une bonne garantie de transfert vers les communautés scientifiques et industrielles. Nous nous appuyons également sur les domaines identifiés dans le rapport du projet Exascale France. Cela représente environ 80 applications liées aux sciences de l’univers, à la physique des hautes énergies et des particules, aux sciences de la vie, à l’énergie, à l’industrie du futur et à la recherche fondamentale.

Qu’apportera cette course au pouvoir à notre société ?

M.D : Le calcul de haute performance est un moteur de découverte dans la recherche. Il permet d’approcher des phénomènes physiques complexes. Elle est utile pour faire progresser les connaissances sur les défis à grande échelle : le changement climatique, la prévision des catastrophes naturelles, les économies d’énergie, mais aussi sur les questions de résilience sociétale et de compétitivité industrielle.

Le développement de nouveaux matériaux, la médecine personnalisée, la conception de médicaments, etc. sont autant d’applications dans lesquelles les superordinateurs joueront un rôle majeur. En accélérant les calculs associés aux domaines et questions critiques, nous soutenons la compétitivité des entreprises et la souveraineté de notre société.

D’autant plus que le calcul à haute performance est actuellement au cœur d’enjeux géopolitiques importants.

M.D : En effet, dans le secteur du HPC, l’exascale est la prochaine étape à franchir. Il fait l’objet d’une concurrence importante entre les États-Unis, le Japon, la Chine et l’Europe. Il s’agit d’une véritable compétition stratégique liée aux défis sociétaux précités auxquels elle permettra de répondre, ainsi que par son potentiel d’applications sensibles telles que la défense.
En outre, le Chips Act, qui vise à reconstruire une industrie des semi-conducteurs en Europe, et les récentes crises de la Covid-19 et de l’énergie ont mis en évidence les dépendances de l’Europe. Autant de constats qui renforcent l’importance de la coordination entre le projet EuroHPC et ses déclinaisons nationales via le plan exascale et ce PEPR.


Notes

  1. Un groupe de programmes qui travaillent ensemble pour produire un résultat ou atteindre un objectif commun.


49ème Forum ORAP : Le PEPR NumPEx "Digital for Exascale" (Le numérique pour l'Exascale)

29 novembre 2022, Maison de la simulation

Le projet Digital PEPR pour l’Exascale (NumPEx) vise à concevoir et à développer les composants logiciels qui équiperont les futures machines exascales et à préparer les principaux domaines d’application à exploiter pleinement les capacités de ces machines.

Les grands domaines d’application qui concernent à la fois la recherche scientifique et le secteur industriel.

Inscrivez-vous à l’adresse suivante : https://orap49.sciencesconf.org/

découvrez le programme du 49ème forum de l'ORAP sur les NumPEx