Malgré la performance et la fiabilité des algorithmes de deep learning dans un grand nombre d’applications quotidiennes, il n’est pas rare que ces modèles présentent des biais (sexe, origine ethnique,…).
Afin d’atténuer les biais de genre dans les systèmes de reconnaissance faciale, des chercheurs de Télécom Paris ont développé une nouvelle méthodologie de post-traitement qui transforme les embeddings d’un modèle pré-entraîné pour donner plus de poids aux sous-groupes discriminés.
Jean-Rémy, un des co-auteurs du papier de recherche qui vient d’être accepté à ICML, vous propose de découvrir cette méthodologie.