Loading Events
  • This event has passed.
28 Mar 2024 14:00 - 18:00
datacraft –
3 Rue Rossini
75009 Paris, France
+ Google Map

Atelier – Interprétabilité : soulever le capot des valeurs de Shapley

Niveau en Machine Learning

***Connaissances avancées en Machine Learning/DA/IA 

Niveau en Python

* : Connaissances de base en Python

Cet atelier sera animé par Charles Tremblay, head of data science, Ornikar

Présentation de l’atelier :

Les valeurs de Shapley se sont largement popularisées pour interpréter les modèles d’intelligence artificielle depuis leur développement en 2017. Avec leur promesse de bonnes propriétés logiques, leur méthode locale et l’excellente UX du package SHAP, elles semblaient cocher toutes les cases. Mais des critiques substantielles – tant de la part de scientifiques que de praticiens – sont aujourd’hui adressées aux valeurs de Shapley.

Alors, que peuvent-elles et que ne peuvent-elles pas ? Sur quels fondements mathématiques reposent les Shapley, quelles sont leurs forces et leurs failles empiriques ? C’est à ces questions que nous répondrons tous ensemble, par la théorie et la mise en pratique sur des cas d’usage simples mais qui permettent de mettre en évidence ces éléments.

Nous aborderons les points suivants :

* Calculer de façon fiable les valeurs de Shapley sous Python (avec SHAP)
* Utiliser ces valeurs pour interpréter les résultats d’un modèle de Machine Learning
* Identifier les situations pour lesquelles l’utilisation des Shapley doit être sujette à caution.

Description du jeu de données :

Jeu de données Kaggle : Home Credit Default Risk

Que vous soyez novices ou experts, n’hésitez pas à nous rejoindre pour enrichir les échanges et approfondir votre pratique de Shapley !

 

< All past workshops