Explore la convergence des algorithmes Langevin Monte Carlo dans des taux de croissance et des conditions de douceur différents, mettant l'accent sur une convergence rapide pour une large classe de potentiels.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explorer la densité de calcul des états et l'inférence bayésienne à l'aide d'un échantillonnage d'importance, montrant une variance inférieure et la parallélisation de la méthode proposée.
Couvre un échantillonnage important pour une estimation Monte Carlo efficace des valeurs attendues en utilisant une nouvelle distribution pour réduire la variance.