ATELIER - COMPARAISON DE LIBRAIRIES : AI FAIRNESS ET BIAIS DES ALGORITHMES

Cet atelier a été animé par Théo Alves Da Costa, Manager data science, Ekimetrics et Antoine Isnardy, senior data scientist, Danone.

Un premier atelier a déjà eu lieu sur le sujet le 25 juin dernier. En collaboration entre les différents membres de la communauté datacraft, nous avons lancé le cercle de réflexion sur la data science responsable avec de nombreuses questions autour des biais, de la transparence, et de l’empreinte environnementale des algorithmes. Nous souhaitons notamment travailler ensemble à l’élaboration d’outils et méthodologies open source pour transformer nos outils du quotidien et apporter des réponses concrètes sur les questions d’IA éthique.

Durant cette deuxième partie, nous avons pu collaborer et échanger pour tester d’autres outils et construire ensemble une boite à outil de la Data Science responsable. Nous avons comparé différentes librairies permettant d’évaluer la fairness et le biais des algorithmes par 3 équipes en simultané sur un cas d’usage. Voici les différentes librairies étudiées : 

  • AI Fairness 360 (IBM)
  • aequitas
  • What-if Tool (Google)

Si vous voulez en savoir plus sur les approches qui ont été utilisées, n'hésitez pas à vous rendre sur notre Github.

Atelier réalisé le 30 Juillet 2021

Share