AIActDay4

Le jeudi 15 décembre 2022 avait lieu l’AI ACT DAY, un événement co-organisé par datacraft & Impact AI. L’objectif était de permettre aux entreprises de comprendre, mettre en pratique et anticiper le futur règlement européen de l’IA, mais également d’échanger avec les experts du sujet.

 

Des ressources utiles

 

 

Programme complet de la journée AI Act Day du 15 décembre 2022

9h30 – 9h40 : Présentation de l’agenda avec Arnaud Latil notre maître de conférence, Christophe Lienard, Président Impact AI et Directeur central innovation Bouygues Construction et Isabelle Hilali, Founder & CEO datacraft

9h40 – 10h00 : Introduction par Renaud Vedel, directeur du cabinet du ministre délégué auprès du ministre de l’Économie, des Finances et de la Souveraineté industrielle et numérique, chargé de la Transition numérique et des Télécommunications

10h00 – 10h20 Keynote : Où en sommes-nous de l’AI Act ? avec Emmanuelle Legrand, Chargée de mission « Intelligence Artificielle » à la Direction Générale des Entreprises

10h20 – 10h40 Keynote : La gouvernance du futur règlement IA avec Bertrand Pailhès, Directeur des technologies et de l’innovation (DTI) de la CNIL – Commission Nationale de l’Informatique et des Libertés

10h40 – 11h10 Table ronde : Le rôle des labels, des certificats et des normes avec Louis Morilhat, Chargé de mission – Grand Défi Intelligence Artificielle AFNOR Group – Eric Boniface, Managing Director et co-founder Labelia Labs (ex Substra Foundation) et Agnes Delaborde, Research Engineer LNE

11h10 – 11h30 Keynote : IA de confiance avec Dr. Marko Erman, SVP, Chief Scientific Officer Thales

11h30 – 11h50 Keynote : Le développement de solutions éthiques pour la reconnaissance faciale avec Stephane Gentric, Research Unit Manager IDEMIA

11h50 – 12h20 Table ronde : Comment les entreprises se préparent-elles à l’arrivée du futur règlement européen sur l’IA ? avec Philippe Toublant, Chief Data Officer COLAS – Aldrick ZAPPELLINI, Directeur Data Groupe & Chief Data Officer Groupe Groupe Crédit Agricole – Matthieu OLIVIER, Chief Data Officer chez La Banque Postale – Emilie Sirvent-Hien, Responsible AI Manager Orange

12h20 – 12h30 : Conclusions & kit de départ pour les entreprises avec Gwendal Bihan, VP Impact AI et CEO Axionable

14h00 – 19h00 Ateliers pratiques : audit et mitigation des biais

 

 

Ateliers pratiques : audit et mitigation des biais

Introduction pratique aux techniques d’implémentation de l’IA Responsable (utilisation de la librairie AIF360), animé par Annabelle
La détection et la mitigation des biais ainsi que l’interprétabilité des modèles sont deux principes centraux à l’IA Responsable et de Confiance. Sur la base d’un notebook d’analyse des données classiques du Titanic, nous verrons ensemble les bonnes pratiques de pré-traitement, de détection de biais dans la base et dans les prédictions, des méthodes de mitigation de ces biais, la différence entre modèles directement ou indirectement interprétable. Les démonstrations en code python seront accompagnées de compléments théoriques afin de comprendre comment ces techniques fonctionnent et pourquoi elles sont importantes.

RH : Analyse de biais de recrutement (utilisation de la librairie Dalex), animé par Adeline, Céline et Francis
Ce cas d’usage s’appuie sur un jeu de données issu des enquêtes annuelles de stackoverflow auprès des développeurs. Le jeu de données comprend des informations sur le genre, l’âge, l’expérience, la rémunération… ainsi qu’une variable cible sur le fait qu’ils sont ou non embauchés.
Vous devrez, vous-mêmes, constater les biais et proposer des stratégies pour les limiter.

Banking : Analyse de biais lors de l’octroie d’un credit (utilisation de la librairie AIF360) animé par Julien et Zied
Dans ce cas d’usage nous souhaitons équilibrer les chances de tous les  demandeurs de crédits. Vous devrez donc chercher les biais dans le dataset utilisé pour le training et corriger ces biais pour fournir un dataset susceptible d’équilibrer les chances des demandeurs. Vous pourrez ensuite tester un ou plusieurs modèles et les évaluer.