Couvre les chaînes de Markov et leurs applications dans les algorithmes, en se concentrant sur l'échantillonnage Markov Chain Monte Carlo et l'algorithme Metropolis-Hastings.
Couvre la théorie de l'échantillonnage de Markov Chain Monte Carlo (MCMC) et discute des conditions de convergence, du choix de la matrice de transition et de l'évolution de la distribution cible.
Explore les techniques de Monte Carlo pour l'échantillonnage et la simulation, couvrant l'intégration, l'échantillonnage d'importance, l'ergonomie, l'équilibrage et l'acceptation de Metropolis.
Explore Markov Chain Monte Carlo pour l'échantillonnage des distributions haute dimension et l'optimisation des fonctions à l'aide de l'algorithme Metropolis-Hastings.
Couvre la théorie et les applications de la coloration graphique, en se concentrant sur les modèles de blocs stochastiques dissortatifs et la coloration plantée.
Explorer la densité de calcul des états et l'inférence bayésienne à l'aide d'un échantillonnage d'importance, montrant une variance inférieure et la parallélisation de la méthode proposée.
Couvre la théorie du traitement du signal numérique, y compris l'échantillonnage, les méthodes de transformation, la numérisation et les contrôleurs PID.
Explore l'analyse physique, chimique et morphologique des poudres, en mettant l'accent sur la précision de l'échantillonnage et le contrôle de la qualité.
Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.