Loading Events
23 May 2024 18:00 - 19:00
Event Tags:
, , ,
datacraft –
3 Rue Rossini
75009 Paris, France
+ Google Map

REX – Simplifier les simulations complexes grâce au Machine Learning : application pour la détection de défauts et le diagnostic de la performance d’un bâtiment

Ce REX sera animé par Thomas Cerbelaud, Expert IA, Egis.

Présentation du retour d’expérience :

En ingénierie, les codes de calculs numériques sont omniprésents (hydrauliques, bâtiments, nucléaires, aviation, climat, biologie…). Cependant, ces modèles sont souvent sur-paramétrés, i.e. un grand nombre de paramètres ont besoin d’être spécifiés, et longs à évaluer, ce qui limite leur utilisation. A l’inverse, ils contiennent énormément de données sur notre connaissance des phénomènes physiques en jeu.

L’objectif de ce REX est donc double : (i) montrer comment rendre ces codes de calculs exploitables, et (ii) illustrer comment cela peut nous aider à rendre explicite les connaissances embarquées dans ces simulateurs dans un cas pratique industriel.

Plan prévisionnel :
1. Construction d’un émulateur statistique. Revue de l’état de l’art des différents modèles de ML/DL utilisés et illustration, et impact des variables dynamiques et fonctionnelles.
1.1. Construction d’un plan d’expérience
1.2. Construction de l’émulateur

2. Présentation de l’inférence bayésienne et ses applications.
2.1. Distribution de probabilités pour les variables fonctionnelles
2.2. Interprétabilité du modèles
2.3. Algorithmes d’inférence : état de l’art et défis techniques

Niveau en Machine Learning

**Connaissances avancées en Machine Learning/DA/IA

Approche Algo :

Optimisation : recuit simulé, algorithme génétique
Modèles : Gaussian Process (GP) (et dérivés), Polynomial Chaos Expansion (PCE) (mentionné), LSTM, GRU, (Attention mentionné)
Satistiques : ACP, ACP fonctionnelle, GMM, HMM (mentionnés)
Inférence : MCMC (Métropolis, Gibbs, IS, conjugaison, HMC, NUTS), Stochastic Variational Inference (SVI) Particle Filter (PF)
Sensibilité : indices de Sobol

Liens :

[1]M. C. Kennedy and A. O’Hagan, “Bayesian calibration of computer models,” Journal of the Royal Statistical Society: Series B (Statistical Methodology), vol. 63, no. 3, pp. 425–464, 2001, doi: 10.1111/1467-9868.00294.

[2]D. Higdon, J. Gattiker, B. Williams, and M. Rightley, “Computer model calibration using high-dimensional output,” Journal of the American Statistical Association, vol. 103, no. 482, pp. 570–583, 2008, doi: 10.1198/016214507000000888.

[3]A. Doucet, N. Freitas, and N. Gordon, “An Introduction to Sequential Monte Carlo Methods,” in Sequential Monte Carlo Methods in Practice, Springer New York, 2001, pp. 3–14. doi: 10.1007/978-1-4757-3437-9_1.

[4]M. Titsias, “Variational Learning of Inducing Variables in Sparse Gaussian Processes,” in Proceedings of the Twelth International Conference on Artificial Intelligence and Statistics, D. van Dyk and M. Welling, Eds., in Proceedings of Machine Learning Research, vol. 5. Hilton Clearwater Beach Resort, Clearwater Beach, Florida USA: PMLR, 2009, pp. 567–574. [Online]. Available: http://proceedings.mlr.press/v5/titsias09a.html

[1]B. Schubnel et al., “State-space models for building control: how deep should you go?,” Journal of Building Performance Simulation, vol. 13, no. 6, pp. 707–719, Sep. 2020, doi: 10.1080/19401493.2020.1817149

< All past workshops