ATELIER - INTERPRETABILITE – SHAPLEY DANS TOUS SES ETATS !

Cet atelier a été animé par Charles Tremblay, fondateur de Kobia, start-up spécialisée en IA sur données structurées.

À propos de cet évènement
Les valeurs de Shapley se sont largement popularisées pour interpréter les modèles d’intelligence artificielle depuis leur lancement par Lundberg & Lee en 2017. Avec leur promesse de bonnes propriétés logiques, leur méthode locale et l’excellente UX du package SHAP, elles semblaient cocher toutes les cases. Certaines déceptions furent à la mesure des attentes, et des critiques substantielles – tant de la part de scientifiques que de praticiens – sont aujourd’hui adressées aux valeurs de Shapley.

Alors, que peuvent-elles et que ne peuvent-elles pas ? Sur quels fondements mathématiques reposent les Shapley et quelles sont leurs failles empiriques ? C’est à ces questions que nous avons essayé de répondre lors de l'atelier, par la théorie et la pratique.

Déroulé de l’atelier
1. Rappels (rapides !) sur les notions d’interprétabilité
2. Approches marginales et conditionnelles, les piliers de l’interprétabilité d’un modèle
3. Valeurs de Shapley : la théorie des jeux
4. = 2. + 3. : Adapter les valeurs de Shapley aux modèles prédictifs

Atelier réalisé le 10 décembre 2021.

Share