Date
04 déc 2025

Said Jabbour (CRIL, université d'Artois) présentera un séminaire à 14h30 en salle 311 dans le cadre de la première demi journée IA du MIS.

Résumé : Les Forêts Aléatoires (Random Forests, RF) comptent parmi les classifieurs les plus populaires en apprentissage automatique. RF est une méthode d’apprentissage par ensemble qui combine plusieurs Arbres de Décision (Decision Trees, DT), fournissant un modèle plus robuste et plus précis qu’un seul arbre de décision. Cependant, l’une des étapes principales des algorithmes basés sur les forêts aléatoires consiste en la sélection aléatoire de nombreux ensembles de caractéristiques lors de la phase de construction des arbres de décision, ce qui peut conduire à une forêt utilisant des caractéristiques variées et rend difficile l’extraction  d’explications courtes et concises. Dans cette présentation, nous montrons comment intégrer l’Analyse Logique des Données (Logical Analysis of Data, LAD) dans RF. LAD est un cadre d’apprentissage de motifs qui combine optimisation, fonctions booléennes et théorie combinatoire. L’un de ses principaux objectifs est de générer des ensembles de support minimaux (Minimal Support Sets, MSSes) qui discriminent entre différents groupes de données. Plus précisément, nous montrons comment améliorer l’algorithme classique de RF en choisissant aléatoirement des MSSes au lieu de choisir aléatoirement des sous-ensembles de caractéristiques qui peuvent potentiellement contenir des attributs non pertinents pour la construction des arbres de décisions. Nous finirons cette présentation par les expériences menées sur des jeux de données de référence montrent que l’intégration de LAD dans l'algorithme RF classique à l’aide des MSSes permet de maintenir des performances similaires en termes de précision, de produire des forêts de taille comparable, tout en réduisant considérablement l’ensemble des caractéristiques utilisées. Cela permet l’extraction d’explications significativement plus courtes par rapport aux RF classiques.

UPJV