L’axe fédérateur "Intelligence Artificielle" structure les activités de recherche du laboratoire MIS en tant qu’axe transversal. Il rassemble les enseignants-chercheurs dont les travaux mobilisent des méthodes, des outils ou des questionnements liés à l’IA, qu’ils soient théoriques, appliqués ou critiques.
Cet axe couvre l’ensemble des paradigmes de l’IA, depuis l’IA symbolique (raisonnement logique, SAT, systèmes experts) jusqu’à l’apprentissage automatique (réseaux de neurones, modèles prédictifs), en passant par l’IA générative (création de contenus, modèles de langage) et leurs hybridations. Il aborde également des enjeux clés comme la représentation des connaissances, l’explicabilité des systèmes, ou encore l’intégration éthique et sociétale de ces technologies.
Les applications de l’IA au sein du laboratoire MIS s’étendent à des secteurs variés et stratégiques, illustrant la diversité des enjeux abordés :
-
Santé : prédiction personnalisée (parcours patients, risques), optimisation des ressources (dimensionnement des structures de soins, gestion des lits).
-
Transport et logistique : conception de tournées intelligentes (véhicules, drones), anticipation des flux (charge, trafic, maintenance).
-
Planification : optimisation de l’allocation des tâches, que ce soit dans le domaine médical (blocs opératoires, soins) ou éducatif (emplois du temps, ressources pédagogiques).
-
Énergies : prédiction de la demande et optimisation des réseaux (smart grids, gestion des pics de consommation).
-
Sciences du vivant : analyse de données biologiques complexes, modélisation des interactions biomoléculaires, et prédiction des formules moléculaires ainsi que des propriétés chimiques.
Ces applications reflètent l’ambition du laboratoire de combiner innovation algorithmique et impact sociétal, en réponse aux défis contemporains.
Groupes de travail
L’axe IA réunit plusieurs groupes de travail dédiés au développement des méthodes d’intelligence artificielle et à leurs applications :
- Turing (Contact : Yu Li) : Le groupe de travail «Lecture de l’article de Turing de 1936» a été créé en mai 2024. Il est né de l’intérêt et des interrogations des collègues du MIS sur le problème P vs NP, ainsi que de la réflexion sur le décalage entre la recherche en intelligence artificielle et la théorie classique de l’informatique, en particulier la calculabilité et la complexité. Le groupe se préoccupe également du fait que très peu de chercheurs en informatique lisent de manière exhaustive et approfondie l’article classique de Turing de 1936, cette œuvre qualifiée de « Bible » de l’informatique.
- SOS (Contact : Stéphane Devismes) : Le groupe de travail «Systèmes, Optimisation et Sécurité» explore des problématiques fondamentales et applicatives liées au comportement, à la performance et à la robustesse des systèmes informatiques modernes. Ses travaux couvrent l’algorithmique distribuée, la cybersécurité, la recherche opérationnelle et la programmation par contraintes, avec un intérêt particulier pour l’analyse formelle, la conception d’algorithmes efficaces et la résolution de problèmes combinatoires complexes. Le groupe vise à développer des méthodes théoriques et algorithmiques permettant de garantir optimalité, sécurité et résilience dans des environnements variés, allant des réseaux distribués aux systèmes critiques.
- BioAI (Contact : Sami Cherif et Corinne Lucet) : Le groupe de travail « IA & Bioinformatique » étudie les interactions entre chimie computationnelle, biologie et intelligence artificielle. Il vise à encourager les collaborations et les projets transversaux entre informaticiens et spélicialistes des sciences du vivant, afin de développer des méthodes d’IA robustes pour l'analyse des systèmes moléculaires et biologiques, la prédiction de leurs propriétés et la modélisation de leurs comportements. Ses travaux incluent la conception assistée de molécules, l’analyse de données biologiques complexes et la modélisation d’interactions biomoléculaires.
Évennements et Séminaires
----- Séminaires domaine OCIA (05 mars 2026) -----
L’équipe OCIA organise deux séminaires le jeudi 5 Mars après-midi à partir de 14h dans la salle 301 présentés par Evgeny GUREVSKY (LS2N, Université de Nantes) et Mathieu Lacroix (LIPN, Université Sorbonne Paris-Nord).
--- Sémainaire Evgeny GUREVSKY
Titre : Data-driven stochastic optimization for green hydrogen production planning
Résumé : We investigate the short-term planning of green hydrogen production obtained by electrolysis of water using electricity from a wind power source and a connection to the national electricity grid. Electricity consumption on the grid has to be declared the day before production and cannot be adjusted afterwards, while the future availability of the wind power source is uncertain. This production problem can be viewed as a two-stage stochastic lot-sizing model, and a consistent framework is introduced to solve it efficiently. First, the innovative use of a variational auto-encoder to estimate the conditional uncertainty of wind power and generate scenarios is studied. Next, a time-efficient Benders decomposition approach is proposed, in which the special features of our problem are exploited to speed up its solving. Finally, a new application of an adaptive partition-based approach and a stabilization method further improve the solution time of the decomposition scheme. A realistic simulation demonstrates the advantages of the framework presented.
--- Sémainaire Mathieu Lacroix
Titre : Learning Lagrangian Multipliers
Résumé : Lagrangian Relaxation is one of the most effective approaches for solving Mixed Integer Linear Problems (MILPs) with difficult constraints. Given a MILP, the relaxed Lagrangian problem is obtained by dualizing the difficult constraints and penalizing their violation using Lagrangian multipliers (LMs). Solving this problem yields a dual bound for each LM, and the Lagrangian dual problem seeks to find the LM that provides the best bound. This latter problem is typically solved using iterative methods (such as subgradient or bundle methods), which can be time-consuming due to slow convergence. In this talk, we present two machine learning-based methods for predicting accurate LMs. These approaches can either replace iterative optimization algorithms—offering an efficient heuristic for solving the Lagrangian dual problem (amortization method)—or be used to initialize and stabilize these algorithms, thereby improving their performance. The first model is an end-to-end approach: instance features are input into the machine learning model, which directly predicts the associated LMs. The second model falls under the "machine learning alongside optimization" paradigm. Here, we design a bundle method in which the master problem is replaced by a prediction at each iteration. We compare these two approaches on the Multi-Commodity Capacitated Network Design Problem.
----- Séminaire GT BioAI (16 janvier 2026) -----
Un séminaire de Sandra Natividad Martinez Gonzalez, qui termine son stage de master avec Jerry LACMOU ZEUTOUO au sein du domaine PR (en collaboration avec Vivien Sarazin), se tiendra le vendredi 16 janvier à 14h en salle 301.
Titre : Biostimulation du blé face au stress climatique: une approche croisée imagerie-métabolomique
Résumé : La présente étude se concentre en particulier sur l'analyse des effets des biostimulants face au stress hydrique et thermique sur les plants de blé, à l'aide d'un modèle de classification par apprentissage automatique, combinant des techniques de vision par ordinateur avec des images hyperspectrales dans le proche infrarouge (VNIR) et l'infrarouge à ondes courtes (SWIR). Ce projet vise à lutter contre le changement climatique, un problème qui affecte directement les cultures de blé en raison de la variabilité des températures élevées et basses, qui peut provoquer un stress abiotique chez les plantes. L'objectif du projet est de concevoir un outil d'apprentissage automatique capable d'identifier le stress subi par les plants de blé soumis à différents traitements avec des biostimulants, sans avoir recours à des méthodes destructrices, et de mieux interpréter les mécanismes d'action des biostimulants.
----- Première Demi-Journée IA du MIS (4 décembre 2025) -----
Le MIS organise sa première demi-journée dédiée à l’Intelligence Artificielle, un événement co-porté par l’axe IA et le domaine OCIA, qui se tiendra le jeudi 4 décembre 2025, à partir de 14h, en salle 315 à UniLaSalle.
Cet événement a pour objectif de mettre en lumière les travaux menés au sein du laboratoire autour de l’IA, de favoriser les échanges scientifiques et de valoriser les recherches des doctorants et chercheurs du MIS, avec au programme :
-
Un séminaire invité présenté par Saïd Jabbour (CRIL, Université d’Artois) intitulé « Intégration de l’analyse logique des données dans les forêts aléatoires». (résumé ci-dessous)
-
Un exposé du domaine OCIA présenté par Gilles Kassel (MIS, UPJV) intitulé «EFO : une ontologie épistémique fondatrice».
-
Un exposé du GT Turing du MIS présenté par Yu Li (MIS, UPJV) intitulé «Exploration de la subjectivité de la machine de Turing».
-
Plusieurs présentations flash de doctorants du MIS, offrant un panorama dynamique des travaux de recherche du laboratoire en intelligence artificielle, optimisation et leurs applications.
Titre : Intégration de l’analyse logique des données dans les forêts aléatoires
Résumé : Les Forêts Aléatoires (Random Forests, RF) comptent parmi les classifieurs les plus populaires en apprentissage automatique. RF est une méthode d’apprentissage par ensemble qui combine plusieurs Arbres de Décision (Decision Trees, DT), fournissant un modèle plus robuste et plus précis qu’un seul arbre de décision. Cependant, l’une des étapes principales des algorithmes basés sur les forêts aléatoires consiste en la sélection aléatoire de nombreux ensembles de caractéristiques lors de la phase de construction des arbres de décision, ce qui peut conduire à une forêt utilisant des caractéristiques variées et rend difficile l’extraction d’explications courtes et concises. Dans cette présentation, nous montrons comment intégrer l’Analyse Logique des Données (Logical Analysis of Data, LAD) dans RF. LAD est un cadre d’apprentissage de motifs qui combine optimisation, fonctions booléennes et théorie combinatoire. L’un de ses principaux objectifs est de générer des ensembles de support minimaux (Minimal Support Sets, MSSes) qui discriminent entre différents groupes de données. Plus précisément, nous montrons comment améliorer l’algorithme classique de RF en choisissant aléatoirement des MSSes au lieu de choisir aléatoirement des sous-ensembles de caractéristiques qui peuvent potentiellement contenir des attributs non pertinents pour la construction des arbres de décisions. Nous finirons cette présentation par les expériences menées sur des jeux de données de référence montrent que l’intégration de LAD dans l'algorithme RF classique à l’aide des MSSes permet de maintenir des performances similaires en termes de précision, de produire des forêts de taille comparable, tout en réduisant considérablement l’ensemble des caractéristiques utilisées. Cela permet l’extraction d’explications significativement plus courtes par rapport aux RF classiques.
----- Séminaire GT Turing (22 mai 2025) -----
Le GT Turing organise son premier séminaire, présenté par Salvador Lucas (Universitat Politècnica de València, Espagne), qui se tiendra le jeudi 22 mai à 13h30 en salle 301.
Titre : Should computations halt?
Résumé : Church defined lambda calculus computations as symbolic transformation processes which are expected to halt. In sharp contrast, Turing's landmark 1936 paper introducing his machines and associated notion of computation did not pay attention to any halting notion. Furthermore, halting was implicitly considered as an *unsatisfactory* behavior. Thus, although it is part of the current standard description of computation with Turing Machines, halting is not intrinsic to computation. Interestingly, this dichotomy is alive in existing functional languages today. For instance, termination (or halting) is part of the computational description of eager functional languages like ML or Scheme. However, the developers of lazy functional languages like Haskell are often proud of allowing for the use of infinite data structures produced by means of non-terminating reduction processes. The presentation will provide a brief historical overview of these issues, hopefully leading to a further clarification and answer to "Should computations halt?".

