Loading Events
  • This event has passed.

ATELIER – Explicabilité de vos modèles : découverte de l’approche “régionale” appliquée à la détection d’anomalies sur les séries temporelles

Niveau en Machine Learning

* : Connaissances de base en ML/Data/IA

Niveau en Python

* : Connaissances de base en python

Prérequis techniques

Avoir son PC portable

Intervenants
Cet atelier sera présenté par : 

 

Présentation de l’atelier

Au vu du succès actuel de l’IA dans de nombreux domaines et de son utilisation de plus en plus fréquente sur des cas d’usage de plus en plus critiques et complexes, des questions de régulation et de bonne adoption par les équipes internes s’imposent.
Dès début 2026, des textes de lois visant à préparer des audits (voire à interdire) des modèles de type “boîte noire” pour les cas d’usage d’IA à fort impact vont être mis en application par la régulation européenne. 
Expliquer ces modèles “boîtes noires” est donc un réel enjeu pour produire des modèles aux normes, mais aussi compréhensibles par les équipes métiers qui vont les utiliser au quotidien. 
Cependant, les techniques d’explicabilité globales ou locales actuellement utilisées (SHAP, Lime, Skater, PDP, ..) restent relativement insuffisantes sur ces types de modèles.

Du point de vue opérationnel, c’est sur les relations entre experts métiers et scientifiques des données que doit s’opérationnaliser l’explicabilité des modèles d’IA.
En effet, les principes de responsabilité finale, de conformité, d’acceptation, et d’éthique nécessitent de comprendre ce que les modèles ont finalement appris pour en contrôler les prédictions. 
De plus, ils font reposer de forts enjeux sur l’expert métier, utilisateur final du modèle, qui dispose de sa propre expertise sur les processus à valeur, et qui ne la retrouvera pas forcément dans le modèle d’IA.

L’objectif de cet atelier sera donc de découvrir et de comparer les diverses approches d’explicabilité locales et globales des modèles.Nous verrons également une approche hybride dite régionale (entre locale et globale) qui permet de tenir compte des connaissances expertes initialement présentes dans les équipes, et de les augmenter. Nous illustrerons cette approche sur un cas d’usage d’explicabilité régionale pour un modèle de détection d’anomalies sur un vaste système de séries temporelles.

 

Description du jeu de données

  • Système d’environ 500 séries temporelles
  • Jeu de données tabulaires Kaggle classique (type : California Housing)

 

Etat de l’art des approches algorithmiques 

  • Réduction de dimensions (PCA, tSNE, xMAP)
  • (co)-Clustering (DBScan, hiérarchique, Tomato)
  • Bibliothèques d’explications locales (SHAP, LIME)

 

Déroulement de l’atelier

  • Echanges sur les avantages et limites des approches locales et globales
  • Découverte d’une approche régionale
  • Cas d’usage d’explicabilité régionale pour un modèle de détection d’anomalies sur un vaste système de séries temporelles

 

Liens 

https://christophm.github.io/interpretable-ml-book/
https://ai-vidence.com/data-sciences/lexplication-regionale-selon-nous/
https://acpr.banque-france.fr/sites/default/files/media/2022/01/27/tech_sprint_-_rapport_de_synthese_0.pdf
https://www.confiance.ai/ 

 

< All past workshops