1. Accueil
  2. L'UTT
  3. Actualités

IA et méthodes probabilistes : le LIST3N organise le premier workshop MSAD de l'année 2026

Publié le 15 février 2026 Mis à jour le 23 février 2026
Date(s)

le 15 février 2026

L’axe Modélisation stochastique, Apprentissage et Décision (MSAD) de l’unité de recherche LIST3N de l’Université de technologie de Troyes a organisé le premier des deux workshops de l’année 2026 le 19 février à l’UTT. Cette journée a réuni chercheurs, chercheuses, doctorants, doctorantes et experts autour des avancées récentes en intelligence artificielle, en statistique et en modélisation probabiliste pour la prise de décision sous incertitude.

Durant ce premier workshop, un panorama de travaux a été présenté, couvrant un large spectre d’applications : apprentissage robuste en environnement non stationnaire, estimation de graphons pour l’analyse de réseaux complexes, scoring en contexte industriel, modélisation bayésienne en radiothérapie, apprentissage statistique pour les sciences du climat et segmentation automatique d’images médicales.

Au programme, six présentations ont illustré la diversité des approches développées au sein de l’axe ou dans le cadre de collaborations scientifiques et leur ancrage dans des problèmes concrets en santé, climat et industrie. En combinant théorie statistique, deep learning et modèles bayésiens, ces recherches poursuivent un objectif commun : mieux exploiter des données complexes afin de concevoir des modèles explicatifs, robustes et véritablement utiles à la décision.
 

Apprentissage robuste sous incertitude et dérive de distribution par la mémoire raisonnée. Études de cas en apprentissage continu, détection d’anomalies et apprentissage fédéré

Son Vu, Enseignant-chercheur au LIST3N, UTT

Les systèmes d’IA déployés en conditions réelles doivent apprendre et décider à partir de données incertaines et non stationnaires, où l’apprentissage supervisé classique échoue. Cette présentation examine le rôle de la mémoire et des représentations dans la prise de décision dans ces environnements complexes, à travers trois études complémentaires.

Le premier travail propose un réseau de mémoire associative distribuée intégré à une architecture profonde pour l’apprentissage continu. Un mécanisme d’apprentissage par compétition avec les représentations mémorisées partiellement chevauchantes permet un raisonnement local par similarité, limitant l’oubli catastrophique. Le second travail exploite une mémoire Hopfield moderne, couplée à un apprentissage auto-supervisé contrastif. Cette mémoire multi-échelle permet un raisonnement robuste pour la détection d’anomalies et d’exemples hors distribution dans des scénarios zero-shot et few-shot, et fournit une mesure implicite de l’incertitude via la distance aux prototypes mémorisés. Enfin, le troisième travail illustre les limites d’une mémoire implicite, où le réseau apprend des shortcuts dans les représentations profondes. Sans mémoire explicite et raisonnée, ces shortcuts peuvent être exploités pour induire des décisions erronées persistantes, notamment en apprentissage fédéré.

Ces travaux soulignent l’importance de concevoir des mécanismes de mémoire raisonnée pour une IA robuste sous incertitude.
 

Apprentissage automatique pour le scoring des opportunités commerciales

Stephane Ivalain Kibongue, Senior Data Scientist, Dassault Systèmes

Cette présentation propose un retour d’expérience industriel sur l’utilisation de méthodes d’apprentissage automatique pour le scoring des opportunités commerciales, dans un contexte opérationnel réel. L’objectif est d’estimer, à partir de données historiques et évolutives, la probabilité qu’une opportunité de vente se conclue favorablement, afin d’éclairer la prise de décision et la priorisation des actions commerciales.
 

Les relations dose/effets en radiothérapie : une solution par l’approche bayésienne

Paul Michaux, Ingénieur ESIEA, doctorant au LIST3N, UTT

La radiothérapie est une technique de traitement du cancer qui consiste à irradier un volume tumoral cible par un faisceau de particules ionisantes, tout en préservant les tissus sains qui enveloppent cette tumeur. La préparation et la validation d’un traitement reposent en pratique sur le respect de contraintes de dose spécifiques à chaque organe. Un axe important de l’innovation en oncologie consiste à structurer l’information clinique en utilisant des échelles de cotation de type CTCAE, puis à développer des modèles de prédiction de la probabilité de contrôle tumoral (TCP) et des probabilités de développer des effets secondaires (NTCP). Le meilleur traitement étant celui qui maximise TCP et minimise NTCP. De tels modèles existent, mais ils ne sont pas utilisés car incapables de tenir compte de la quantité et de la complexité des variables cliniques qui interviennent dans la prédiction des réponses au traitement.

Pour y arriver, il faut repenser ces modèles. Nous proposons un modèle basé sur (1) une architecture de type auto-encodeur qui normalise et compresse la matrice 3D, au format DICOM, de doses administrées au patient lors des séances de radiothérapie et (2) une architecture bayésienne capable de représenter les relations entre doses, contraintes cliniques et profil patient. Il s’agit d’un modèle explicatif pour faciliter sa compréhension et son adoption par la communauté médicale. Nous n’avons pas de modèle opérationnel sur des données médicales, mais nous avons la preuve de concept sur un jeu de données public.
 

Apprentissage statistique en sciences du climat : exemple des ondes internes de gravité

Aurélie Fischer, enseignante-chercheuse, LPSM, Université Paris-Cité

Dans cet exposé, nous considérerons l’application de méthodes d’apprentissage statistique en sciences du climat : l’objectif est d’améliorer la connaissance et la description de processus physiques de petite échelle. Pour tenir compte des effets de ces processus de petite échelle, qui ne sont pas explicitement décrits dans les modèles de climat, il peut être utile d’intégrer, grâce à l’apprentissage statistique, les informations précises qui peuvent être fournies par des observations de ces processus. Les processus de petite échelle auxquels nous nous intéresserons sont les ondes internes de gravité, ondes dues au phénomène de gravité et à un contraste de densité sur la verticale. Les ondes de gravité jouent en effet un rôle crucial dans la circulation atmosphérique au-dessus de 15-20 km.
Les observations dont nous disposons sont des mesures par ballons superpressurisés stratosphériques, obtenues dans le cadre de la campagne Stratéole 2, projet franco-américain du Centre national d’études spatiales. Le comportement quasi-lagrangien des ballons permet d’accéder à des estimations précises de flux de quantité de mouvement associés aux ondes de gravité dans la basse stratosphère. Les variables explicatives décrivant l’écoulement à grande échelle sont quant à elles fournies par les données de réanalyse ERA5 provenant du Centre européen pour les prévisions météorologiques à moyen terme.
 

Multiple Networks and Low-Complexity Graphon Estimation

Roland Sogan, doctorant, Sorbonne Université

Recovering a random graph model from an observed collection of networks is a challenging task, particularly when the networks do not share a common node set and may have different sizes. In this setting, the objective is to estimate the graphon function underlying a nonparametric exchangeable random graph model. Existing approaches often face a trade-off between statistical accuracy and computational complexity. We introduce a new histogram-based graphon estimator with low algorithmic complexity that achieves high accuracy by jointly aligning the nodes across all networks, in contrast to conventional methods that perform node ordering independently for each graph. We establish consistency results for the proposed estimator. Numerical experiments demonstrate that our method outperforms existing approaches in terms of accuracy, especially when only small and variable-size networks are available, while also significantly reducing computational time compared to other consistent methods. Finally, when applied to a graph neural network classification task, the proposed estimator enables more effective data augmentation and leads to improved performance on several real-world datasets.
 

Une approche par apprentissage profond pour la segmentation automatique du foie

Racha Soubra, enseignante-chercheuse au LIST3N, UTT

La segmentation du foie constitue une étape clé de l’analyse d’images médicales, essentielle à l’identification des structures anatomiques, à la détection de tumeurs ou de maladies hépatiques, et à l’aide au diagnostic. Cette tâche demeure complexe en raison de la morphologie variable du foie, de sa proximité avec les organes adjacents et des variations d’intensité présentes dans les images de tomodensitométrie (CT). Dans ce travail, nous proposons une approche basée sur l’apprentissage profond pour la segmentation automatique du foie à partir d’images de tomodensitométrie (CT), visant à soutenir les professionnels de santé dans le diagnostic et la planification thérapeutique. L’approche repose sur une architecture de type U-Net enrichie par des mécanismes visant à améliorer la représentation des caractéristiques pertinentes.

Par la diversité des objets étudiés (systèmes d’IA, réseaux complexes, données industrielles, médicales et climatiques), ces travaux témoignent de la capacité de l’axe MSAD à développer des approches tout en les déployant dans des contextes applicatifs variés, avec un objectif commun : produire des modèles d’aide à la décision explicables et robustes.
mise à jour le 23 février 2026