Intervenants
Dans un article rédigé en 2017 déjà, George Krasadakis, Senior Program Manager chez Microsoft, souligne que “”les projets intensifs en données ont un point de défaillance unique : la qualité des données.”” ( Source “Data-intensive projects have a single point of failure: data quality.”)
Et il semble que ce problème ne fait que s’accentuer…
Ces dernières années, l’écosystème des données a connu une transformation majeure avec la multiplication des sources de données et la décentralisation des équipes data. Avec la démocratisation de l’IA, notamment grâce à l’apparition des LLMs, de plus en plus de produits IA sont créés, mais les données utilisées ne sont pas toujours de qualité et leur qualité n’est pas toujours simple à maîtriser.
Lors de ce partage d’expérience, nous essayerons de répondre tous ensemble aux enjeux de qualité de données pour le succès des projets d’intelligence artificielle :
– Quel niveau de qualité ?
– Quel est l’impact des données de mauvaise qualité ?
– Quels outils et bonnes pratiques adopter ?
Si vous aussi vous souhaitez partager vos problématiques, vos enjeux, votre expérience, n’hésitez pas à nous rejoindre !