BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//datacraft - ECPv6.16.1//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:datacraft
X-ORIGINAL-URL:https://datacraft.paris
X-WR-CALDESC:Events for datacraft
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20210328T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20211031T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20220327T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20221030T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20230326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20231029T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20221208T183000
DTEND;TZID=Europe/Paris:20221208T200000
DTSTAMP:20260514T143530
CREATED:20221103T103343Z
LAST-MODIFIED:20221109T084015Z
UID:7692-1670524200-1670529600@datacraft.paris
SUMMARY:État de l'art - Nouveaux outils pour l'apprentissage non-supervisé
DESCRIPTION:Inscription\n                \n            \n            \n			\n				\n				\n				\n				\n				L’apprentissage non-supervisé est largement utilisé\, enfin tant qu’il s’agit du K-means. Pourtant l’état de l’art apporte des contributions bien plus sophistiquées à l’analyse de données\, notamment grâce aux apports de la recherche française. Le passage à l’échelle de ces algorithmes a\, entre autres\, permis le travail en profondeur sur les données massives. \nDjallel Dilmi\, chercheur CNRS et Head of data science\, HephIA propose un tour d’horizon des techniques d’apprentissage non-supervisées scalables – théorie et apports pratiques. \nAu menu :– Intérêt de la topologie : sortir du K-means & apport de la topologie à l’explicabilité des modèles ;– Distribution des algorithmes : permettre la scalabilité ;– Classifications simultanées : co-clustering & multi-co-clustering ;– Combinaison de sources de données hétérogènes ;– Encoding information : combiner prototypes et transformers. \nÀ la suite de cette présentation nous organiserons un atelier pratique\, en janvier 2023\, sur des jeux de données proposés par les membres du Club datacraft.
URL:https://datacraft.paris/event/outils-apprentissage-non-supervise/
LOCATION:datacraft –\, 3 rue Rossini\, 75009 Paris\, France
ORGANIZER;CN="datacraft":MAILTO:contact@datacraft.paris
END:VEVENT
END:VCALENDAR