Atelier datacraft animé par Charles Tremblay, fondateur de Kobia, start-up spécialisée en IA sur données structurées.
Les valeurs de Shapley se sont largement popularisées pour interpréter les modèles d’intelligence artificielle depuis leur lancement par Lundberg & Lee en 2017. Avec leur promesse de bonnes propriétés logiques, leur méthode locale et l’excellente UX du package SHAP, elles semblaient cocher toutes les cases. Certaines déceptions furent à la mesure des attentes, et des critiques substantielles – tant de la part de scientifiques que de praticiens – sont aujourd’hui adressées aux valeurs de Shapley.
Alors, que peuvent-elles et que ne peuvent-elles pas ? Sur quels fondements mathématiques reposent les Shapley et quelles sont leurs failles empiriques ? C’est à ces questions que nous répondrons, par la théorie et la pratique.
Programme de l’atelier :
1. Rappels (rapides !) sur les notions d’interprétabilité
2. Approches marginales et conditionnelles, les piliers de l’interprétabilité d’un modèle
3. Valeurs de Shapley : la théorie des jeux
4. = 2. + 3. : Adapter les valeurs de Shapley aux modèles prédictifs
Compétences techniques prérequises : Connaissance de base en machine learning et en Python