Niveau en Machine Learning
* : Connaissances de base en ML/Data/IA
Niveau en Python
* : Connaissances de base en python
Prérequis techniques
Avoir son PC portable
Intervenants
Cet atelier sera présenté par :
Présentation de l’atelier
Au vu du succès actuel de l’IA dans de nombreux domaines et de son utilisation de plus en plus fréquente sur des cas d’usage de plus en plus critiques et complexes, des questions de régulation et de bonne adoption par les équipes internes s’imposent.
Dès début 2026, des textes de lois visant à préparer des audits (voire à interdire) des modèles de type “boîte noire” pour les cas d’usage d’IA à fort impact vont être mis en application par la régulation européenne.
Expliquer ces modèles “boîtes noires” est donc un réel enjeu pour produire des modèles aux normes, mais aussi compréhensibles par les équipes métiers qui vont les utiliser au quotidien.
Cependant, les techniques d’explicabilité globales ou locales actuellement utilisées (SHAP, Lime, Skater, PDP, ..) restent relativement insuffisantes sur ces types de modèles.
Du point de vue opérationnel, c’est sur les relations entre experts métiers et scientifiques des données que doit s’opérationnaliser l’explicabilité des modèles d’IA.
En effet, les principes de responsabilité finale, de conformité, d’acceptation, et d’éthique nécessitent de comprendre ce que les modèles ont finalement appris pour en contrôler les prédictions.
De plus, ils font reposer de forts enjeux sur l’expert métier, utilisateur final du modèle, qui dispose de sa propre expertise sur les processus à valeur, et qui ne la retrouvera pas forcément dans le modèle d’IA.
L’objectif de cet atelier sera donc de découvrir et de comparer les diverses approches d’explicabilité locales et globales des modèles.Nous verrons également une approche hybride dite régionale (entre locale et globale) qui permet de tenir compte des connaissances expertes initialement présentes dans les équipes, et de les augmenter. Nous illustrerons cette approche sur un cas d’usage d’explicabilité régionale pour un modèle de détection d’anomalies sur un vaste système de séries temporelles.
Description du jeu de données
Etat de l’art des approches algorithmiques
Déroulement de l’atelier
Liens
https://christophm.github.io/interpretable-ml-book/
https://ai-vidence.com/data-sciences/lexplication-regionale-selon-nous/
https://acpr.banque-france.fr/sites/default/files/media/2022/01/27/tech_sprint_-_rapport_de_synthese_0.pdf
https://www.confiance.ai/