BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//datacraft - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:datacraft
X-ORIGINAL-URL:https://datacraft.paris
X-WR-CALDESC:Events for datacraft
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20220327T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20221030T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20230326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20231029T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20240331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20241027T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20231005T140000
DTEND;TZID=Europe/Paris:20231005T170000
DTSTAMP:20260512T080742
CREATED:20230808T143127Z
LAST-MODIFIED:20230814T075212Z
UID:9008-1696514400-1696525200@datacraft.paris
SUMMARY:ATELIER - Explicabilité de vos modèles : découverte de l’approche "régionale" appliquée à la détection d’anomalies sur les séries temporelles
DESCRIPTION:Inscription\n                \n            \n            \n			\n				\n				\n				\n				\n				Niveau en Machine Learning \n* : Connaissances de base en ML/Data/IA \nNiveau en Python \n* : Connaissances de base en python \nPrérequis techniques \nAvoir son PC portable \nIntervenantsCet atelier sera présenté par :  \n\nDavid Cortés\, Président AI-vidence\nLaurent Michel\, DG AI-vidence\n\n  \nPrésentation de l’atelier \nAu vu du succès actuel de l’IA dans de nombreux domaines et de son utilisation de plus en plus fréquente sur des cas d’usage de plus en plus critiques et complexes\, des questions de régulation et de bonne adoption par les équipes internes s’imposent.Dès début 2026\, des textes de lois visant à préparer des audits (voire à interdire) des modèles de type “boîte noire” pour les cas d’usage d’IA à fort impact vont être mis en application par la régulation européenne. Expliquer ces modèles “boîtes noires” est donc un réel enjeu pour produire des modèles aux normes\, mais aussi compréhensibles par les équipes métiers qui vont les utiliser au quotidien. Cependant\, les techniques d’explicabilité globales ou locales actuellement utilisées (SHAP\, Lime\, Skater\, PDP\, ..) restent relativement insuffisantes sur ces types de modèles. \nDu point de vue opérationnel\, c’est sur les relations entre experts métiers et scientifiques des données que doit s’opérationnaliser l’explicabilité des modèles d’IA.En effet\, les principes de responsabilité finale\, de conformité\, d’acceptation\, et d’éthique nécessitent de comprendre ce que les modèles ont finalement appris pour en contrôler les prédictions. De plus\, ils font reposer de forts enjeux sur l’expert métier\, utilisateur final du modèle\, qui dispose de sa propre expertise sur les processus à valeur\, et qui ne la retrouvera pas forcément dans le modèle d’IA. \nL’objectif de cet atelier sera donc de découvrir et de comparer les diverses approches d’explicabilité locales et globales des modèles.Nous verrons également une approche hybride dite régionale (entre locale et globale) qui permet de tenir compte des connaissances expertes initialement présentes dans les équipes\, et de les augmenter. Nous illustrerons cette approche sur un cas d’usage d’explicabilité régionale pour un modèle de détection d’anomalies sur un vaste système de séries temporelles. \n  \nDescription du jeu de données \n\nSystème d’environ 500 séries temporelles\nJeu de données tabulaires Kaggle classique (type : California Housing)\n\n  \nEtat de l’art des approches algorithmiques  \n\nRéduction de dimensions (PCA\, tSNE\, xMAP)\n(co)-Clustering (DBScan\, hiérarchique\, Tomato)\nBibliothèques d’explications locales (SHAP\, LIME)\n\n  \nDéroulement de l’atelier \n\nEchanges sur les avantages et limites des approches locales et globales\nDécouverte d’une approche régionale\nCas d’usage d’explicabilité régionale pour un modèle de détection d’anomalies sur un vaste système de séries temporelles\n\n  \nLiens  \nhttps://christophm.github.io/interpretable-ml-book/https://ai-vidence.com/data-sciences/lexplication-regionale-selon-nous/https://acpr.banque-france.fr/sites/default/files/media/2022/01/27/tech_sprint_-_rapport_de_synthese_0.pdfhttps://www.confiance.ai/  \n 
URL:https://datacraft.paris/event/atelier-explicabilite-de-vos-modeles/
LOCATION:datacraft –\, 3 rue Rossini\, 75009 Paris\, France
ORGANIZER;CN="datacraft":MAILTO:contact@datacraft.paris
END:VEVENT
END:VCALENDAR