Monitoring et Évaluation des systèmes LLM

Inscription Intervenant  Hugues de Saxcé, AI Engineer chez Chainlit by Literal AI Description L’évolution rapide des modèles de langage (LLM) pose des défis importants pour les développeurs en termes de monitoring, d’observabilité et d’évaluation continue....

REX – Manager les risques des LLM présents et à venir

Retour expérience risques LLMs : hallucinations, modération, sécurité, “jailbreak”. Gestion via méthodes de management du risque.
Animé par Siméon Campos, CEO & Fondateur chez SaferAI et Géröme Billois, Partner Cyber chez Wavestone