Les « Rencontres chercheur·euse·s et ingénieur·e·s » de Phimeca visent à stimuler la créativité des chercheur·euse·s et des ingénieur·e·s pour la résolution de problèmes mettant en jeu la simulation numérique et l’analyse de données, et à encourager les transferts de savoirs et de technologies entre communautés scientifiques.
Modéliser et Simuler des phénomènes aléatoires complexes
De la méthode de la transformée inverse aux réseaux antagonistes génératifs (Generative Adversarial Networks ou GAN, en anglais), en passant par la méthode de rejet, ou encore l’algorithme de Metropolis-Hastings, sept orateur·rice·s expliqueront comment ils et elles ont répondu à cette problématique. La moitié des intervenant·e·s est issue de la recherche académique et l’autre moitié vient du monde de l’entreprise. A la fin de chaque exposé est prévu un moment de discussion entre les participant·e·s sur le sujet présenté.
Objectifs
Les Rencontres chercheur·euse·s et ingénieur·e·s 2021 favorisent l’échange d’informations sur le thème « Modéliser et simuler des phénomènes aléatoires complexes » entre chercheur·euse·s des milieux industriels et universitaires. L’objectif de ce symposium est de tenter d’établir un état de l’art de l’utilisation des modèles stochastiques dans l’étude de phénomènes physiques.
Inscrit·e·s
Orateur·rice·s
Partenaires
Partenaires
Programme de la journée
Horaire
Orateur·rice·s
Sujet
9:00
Accueil
9:30
Introduction par Veronique Maume-Deschamps de l'AMIES
Repondération d'échantillons par minimisation de la distance de Wasserstein
Julien Reygner
Dans cet exposé, on considère le problème classique en propagation d'incertitude d'estimer une quantité d'intérêt qui dépend de la loi de la sortie d'un code de calcul, dont les entrées sont aléatoires. La spécificité du cas qui nous intéresse réside dans le fait que les entrées peuvent être elles-mêmes les sorties d'autres codes de calcul au sein d'un système complexe, par exemple le réseau des différentes simulations numériques impliquées dans la conception d'un nouvel avion. Dans ce cas, il est souvent impossible pour un opérateur d'attendre les sorties des codes de calcul en amont pour procéder à ses propres simulations.
Dans le modèle que nous étudions, introduit par Amaral, Allaire et Willcox en 2014, chaque opérateur effectue les appels à son code de calcul lors d'une phase offline à partir d'un échantillon synthétique, ou d'un plan d'expérience, qu'il a lui-même défini. Dans une phase online, l'ensemble de ces échantillons est envoyé à un architecte de simulation, qui doit donc repondérer chaque réalisation de sorte à reconstruire les vraies lois des variables d'entrées. Nous présenterons une telle méthode de repondération, fondée sur la minimisation de la distance de Wasserstein entre l'échantillon synthétique et l'échantillon des vraies entrées. Nous montrerons ensuite comment le formalisme des réseaux bayésiens fournit une méthode algorithmique globale pour traiter la phase online.
Algorithmes de bandits stochastiques pour la gestion de la demande électrique
Margaux Brégère
L'électricité se stockant difficilement à grande échelle, l'équilibre entre la production et la consommation doit être rigoureusement maintenu. Une gestion par anticipation de la demande se complexifie avec l'intégration au mix de production des énergies renouvelables intermittentes. Parallèlement, le déploiement des compteurs communicants permet d'envisager un pilotage dynamique de la consommation électrique. Plus concrètement, l'envoi de signaux - tels que des changements du prix de l'électricité - permettrait d'inciter les usagers à moduler leur consommation afin qu'elle s'ajuste au mieux à la production d'électricité. Les algorithmes choisissant ces signaux devront apprendre la réaction des consommateurs face aux envois tout en les optimisant (compromis exploration-exploitation).
L'exposé résumera l'approche proposée dans la thèse et fondée sur la théorie des bandits. Nous formaliserons ce problème d'apprentissage séquentiel et de proposerons un premier algorithme pour piloter la demande électrique d'une population homogène de consommateurs. Une borne supérieure sera obtenue sur le regret de cet algorithme, garantissant ainsi son efficacité. Des expériences réalisées sur des données de consommation de foyers soumis à des changements dynamiques du prix de l'électricité illustreront ce résultat théorique. Nous aborderons par ailleurs la questions du test d'un algorithme d’apprentissage par renforcement et la nécessité de disposer d'un jeu de données en « information complète ». Enfin, nous verrons rapidement comment s'affranchir de l'hypothèse homogénéité de la population et proposer un pilotage personnalisé de la consommation électrique.
Un échantillonneur de Gibbs pour la simulation d’une loi conditionnelle complexe (loi max-stable)
Mathieu Ribatet
Cet exposé traite de la simulation conditionnelle d’un processus max-stable. Il s’agira de simuler un champ aléatoire « continûment » sur le domaine spatial tout en imposant des contraintes liées aux observations, i.e., en certains points du domaine, certaines valeurs seront fixées et les simulations devront s’y plier. L’intérêt ici ne portera pas tant sur la théorie des valeurs extrêmes, pour laquelle les processus max-stable sont centraux, que sur le développement théorique mais aussi opérationnel d’un algorithme de simulation conditionnelle. On partira donc de l’expression analytique de notre loi cible, pour ensuite identifier les points bloquants liés à sa simulation et comment le résoudre via un échantillonneur de Gibbs spécifiquement écrit pour cette situation. Ce sera notamment l’occasion de nous intéresser à la simulation de partitions aléatoires d’un ensemble à fini et comment contourner le fameux « label switching ». La présentation essaiera d’insister sur les petits astuces algorithmiques qui nous ont permis de mener ce travail à terme.
Le SLGP, ou comment utiliser les champs de densité pour modéliser les phénomènes complexes
Athénaïs Gautier
Nous considérons l'étude de systèmes complexes, où, pour des paramètres en entrée donnés, la réponse est aléatoire. Dans un cadre général, les valeurs des paramètres considérées affectent non seulement la moyenne et variance de la réponse, mais également d'autres caractéristiques de sa distribution (telles que la forme, ou l'uni VS multi-modalité...).
Nous présentons le Spatial Logistic Gaussian Process (SLGP), une classe de modèles Bayésiens non paramétriques permettant d'estimer de tels champs de distribution en se basant sur des échantillons de données. Cette approche est particulièrement adaptée aux échantillons de taille modérée, y compris lorsque les données ne présentent pas ou peu de réplications. Les prédictions du modèle sont de nature probabiliste, permettant ainsi de quantifier l'incertitude de l'estimation.
Nous présentons les applications possibles du SLGP à des problèmes d'optimisation stochastique ou à des problèmes inverses stochastiques.
Dans cette présentation je retracerais l’histoire d’une aventure entre recherche et industrie visant à automatiser et optimiser le calcul probabiliste et à en développer des applications académiques et industrielles. Après avoir développé la partie software dans le cadre de la société Probayes, nous travaillons actuellement à HawAI.tech sur des circuits dédiés pour concevoir et fabriquer des coprocesseurs probabilistes. Je donnerais des exemples d’applications et d’architectures de circuit pour illustrer le propos.
Abstract: Various applications require sampling probability measures restricted to submanifolds. For example, in molecular dynamics, one often considers molecular systems whose configurations are distributed according to the Boltzmann–Gibbs measure with so-called molecular constraints such as fixed bond lengths or fixed bending angles in molecules and/or fixed values of the so-called reaction coordinate function for the computation of free energy differences using thermodynamic integration. Such sampling problems also appear in computational statistics and machine learning.
Probability measures supported on submanifolds can be sampled by adding an extra momentum variable to the state of the system, and discretizing the associated Hamiltonian dynamics with some stochastic perturbation in the extra variable. In order to avoid biases in the invariant probability measures sampled by discretizations of these stochastically perturbed Hamiltonian dynamics, a Metropolis rejection procedure can be considered. The so-obtained scheme belongs to the class of generalized Hybrid Monte Carlo algorithms. A special care should be taken into account in the rejection procedure to avoid biases. We will in particular explain generalizations of a procedure suggested by Goodman, Holmes-Cerfon and Zappa for Metropolis random walks on submanifolds, where a reverse projection check is performed to enforce the reversibility of the algorithm.
References:
- T. Lelièvre, M. Rousset and G. Stoltz, Langevin dynamics with constraints and computation of free energy differences, Mathematics of Computation, 81(280), 2071-2125, (2012).
- T. Lelièvre, M. Rousset and G. Stoltz, Hybrid Monte Carlo methods for sampling probability measures on submanifolds, Numerische Mathematik, 143(2), 379-421, (2019).
Les Rencontres chercheur·euse·s et ingénieur·e·s "L'aléatoire par les chemins de traverse" ont eu lieu le jeudi 18 novembre 2021 à l'Institut Henri Poincaré, dans l'amphithéâtre DARBOUX.
Téléchargez toutes les présentations de la journée ici.
Retrouvez ici le programme des précédentes éditions : 2019 et 2020.