5-7 nov. 2025 Besançon (France)

Conférenciers & résumés

Sudeep Pasricha

Sudeep Pasricha

Intelligence artificielle à la vitesse de la lumière

L’immense déluge de données provenant des appareils mobiles, de l’Internet des objets (IoT) et des dispositifs en périphérie, associé aux avancées majeures en science des données et en traitement matériel, a fait de l’intelligence artificielle (IA) la pierre angulaire des domaines modernes tels que la médecine, l’automobile, l’automatisation industrielle et l’électronique grand public. Aujourd’hui, les accélérateurs d’IA spécialisés dominent les CPU et GPU pour un traitement de l’IA et de l’apprentissage automatique plus économe en énergie. Cependant, l’évolution de ces accélérateurs électroniques atteint des limites fondamentales, en raison du ralentissement de la loi de Moore et de la dépendance aux interconnexions métalliques, qui freinent fortement les performances de calcul actuelles. Cette présentation expose comment la photonique sur silicium peut ouvrir la voie à une nouvelle génération d’accélérateurs matériels pilotés par la lumière, capables d’offrir des gains énergétiques de plusieurs ordres de grandeur par rapport aux accélérateurs actuels. Elle retrace l’évolution de la photonique sur silicium, depuis l’optique intégrée jusqu’aux dispositifs photoniques désormais fabricables grâce à des procédés de production compatibles CMOS et à faible coût.

De nouvelles pistes sont également abordées pour la conception de substrats photoniques robustes et sécurisés dédiés à la communication, au calcul et au stockage, afin de soutenir les applications émergentes de l’IA, notamment celles basées sur les modèles de langage de grande taille (LLM), le traitement de graphes et la modélisation générative. L’exposé se conclut sur les défis encore ouverts pour atteindre une efficacité énergétique et des performances inégalées dans les futures plateformes de calcul fondées sur la photonique sur silicium.

 

Dr. Xu Chu 

Ingénieur en IA et Chercheur en IA fondés sur l’agentic-AI

L’agentic-AI redéfinit notre manière de concevoir et de découvrir. Dans cette conférence, je présente deux rôles : l’ingénieur en IA — illustré par OpenFOAMGPT, un flux de travail multi-agents fiable, complet, couvrant le prétraitement, la simulation, le post-traitement et la validation automatisée, avec des résultats reproductibles sur des tâches canoniques et industrielles. En parallèle, le scientifique en IA — turbulence.ai — automatise la génération d’idées, la simulation, l’analyse et la rédaction, compressant des cycles de R&D de plusieurs années (y compris la rédaction d’articles scientifiques et même de thèses de doctorat) en quelques secondes, accélérant radicalement la découverte de connaissances. Ensemble, ces deux approches annoncent une nouvelle vague de destruction créatrice en ingénierie et en science, ouvrant la voie à des produits conçus et à des lois découvertes par des systèmes agentiques, sous supervision humaine.

 

Fabien Casenave

Fabien Casenave - Safran Tech

Apprentissage scientifique automatique pour la conception industrielle chez Safran : explorations et perspectives

Dans un groupe industriel comme Safran, la simulation numérique des phénomènes physiques est utilisée dans la plupart des processus de conception de produits. Au sein du centre de recherche de l’entreprise, nous développons des technologies pour améliorer ces processus en dérivant des modèles substituts rapides et fiables pour diverses physiques. Lors de cette présentation, nous aborderons des travaux récents dans cette direction, sélectionnés parmi les techniques de modélisation réduite physique, les approches basées sur l’apprentissage pour la variabilité géométrique non paramétrée, et les méthodes de prédiction conforme pour les champs spatiaux.

Nous présenterons également notre initiative d’open-data et d’open-benchmarking pour le machine learning informé par la physique, visant à promouvoir une recherche reproductible et collaborative entre le monde académique et l’industrie. Cet effort repose sur PLAID (Physics Learning AI Datamodel), qui définit un standard pour les jeux de données de simulations physiques et fournit des outils complémentaires pour le prétraitement des données et l’interface avec les bibliothèques SciML.

 

Wilfried Genuist

Méthodes de diffusion et apprentissage par score-matching appliqués aux équations de Navier–Stokes stochastiques

Dans le cadre déterministe, les équations de Navier–Stokes incompressibles décrivent les fluides visqueux et sont, en deux dimensions, globalement bien posées sous des hypothèses classiques. Cependant, elles ne capturent pas la variabilité et les phénomènes multi-échelles de la turbulence, liés aux dynamiques non résolues et aux incertitudes de modélisation. Les formulations stochastiques pallient cette limite en introduisant un bruit modélisant les fluctuations et l’incertitude, conduisant à des équations différentielles partielles stochastiques, reliant mécanique des fluides et physique statistique. La solution du système stochastique devient alors un processus aléatoire dont la densité évolue selon une équation de Fokker–Planck, établissant un lien entre modélisation physique et inférence statistique. Ce cadre ouvre la voie aux modèles génératifs fondés sur le score-matching, qui apprennent le gradient du logarithme de la densité de probabilité. En paramétrant ce champ par un réseau de neurones, on restitue la géométrie statistique des champs de vitesse sans expliciter la densité, permettant ensuite de reconstruire ou d’échantillonner les statistiques du flot via des processus de diffusion inverses. Ces méthodes s’appuient sur l’essor des modèles génératifs de diffusion, une classe de modèles particulièrement puissants pour l’apprentissage de distributions complexes.

 

Giovanni Volpe

Intelligence artificielle pour la microscopie : des pixels à l’intuition physique

Les avancées en intelligence artificielle transforment la microscopie, passant d’un simple outil d’observation à un véritable outil de découverte. Les algorithmes modernes d’apprentissage automatique — en particulier les réseaux de neurones profonds — permettent de reconstruire, segmenter et interpréter des images microscopiques avec une rapidité et une précision sans précédent.

Lors de cette conférence, je présenterai comment l’IA peut améliorer chaque étape du processus de microscopie, de l’acquisition des données et de la réduction du bruit à la coloration virtuelle et à l’analyse quantitative. En m’appuyant sur des exemples issus des travaux de mon groupe — notamment le framework DeepTrack pour l’apprentissage profond conscient de la physique et la microscopie virtuelle pilotée par IA — je montrerai comment il est possible d’entraîner des modèles pour révéler des structures cachées, suivre des processus dynamiques et même découvrir des lois physiques directement à partir des images.

Au-delà de la performance technique, j’aborderai également les implications plus larges de cette transformation : comment l’IA redéfinit le rôle de l’expérimentateur, la reproductibilité de la microscopie quantitative et l’avenir de la compréhension scientifique à l’ère de la découverte guidée par les données.

 

Kamel Guerda

 kamel_1.jpeg

Formation IDRIS: calcul HPC

 

L’essor des grands modèles d’IA s’accompagne d’une explosion des besoins en calcul, en mémoire et en données.
Cette présentation explore de manière concrète les principaux leviers d’optimisation permettant de passer d’un entraînement local sur CPU ou GPU à une exécution performante sur un cluster multi-GPU. Sont abordés : l’utilisation de la faible précision pour améliorer le débit et réduire l’empreinte mémoire, la mise en œuvre de l’entraînement distribué via DDP et ses effets sur le batch global, les ajustements nécessaires pour compenser les contraintes liées aux batchs de grande taille, ainsi que le rôle central du profiling pour identifier avec précision les goulots d’étranglement — qu’ils soient computationnels, liés à l’I/O ou aux communications. L’optimisation du dataloader est également présentée comme un facteur déterminant, souvent sous-estimé, pour garantir une utilisation efficace des ressources GPU.

Cette présentation s’inscrit dans les actions menées à l’IDRIS pour accompagner les communautés scientifiques dans leurs projets en IA. Elle s’appuie sur l’expertise développée autour du supercalculateur Jean Zay et sur les services du projet EuroHPC MINERVA ([https://minerva4ai.eu/](https://minerva4ai.eu/)), qui vise à faciliter l’entraînement à grande échelle sur les infrastructures HPC européennes. 

 

 

Francisco Chinesta

IA Générative pour la conception en sciences de l’ingénierie

L’IA prédictive permet d’anticiper rapidement et précisément les réponses d’un système ou d’un actif, constituant ainsi le cœur du concept de jumeau numérique. Cependant, la conception précède l’existence même de ces systèmes ou actifs : seules les données historiques ou celles issues de simulations à haute résolution peuvent alors être exploitées pour optimiser les conceptions.

Cette présentation abordera plusieurs technologies permettant la conception générative, c’est-à-dire la capacité à calculer des solutions (ou modèles de substitution) à partir de géométries générées. Seront également traités des aspects liés aux environnements hautement multidimensionnels, à la prise en compte des contraintes et à la découverte de descripteurs pertinents.

Les différentes techniques seront illustrées à travers plusieurs applications dans des domaines tels que la mécanique des solides et des fluides, l’électromagnétisme, l’électronique ou encore la chimie.

 

Chargement... Chargement...