Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Discute de l'inférence bayésienne pour la moyenne d'une distribution gaussienne avec variance connue, couvrant la moyenne postérieure, la variance et l'estimateur MAP.
Explore les techniques bayésiennes pour les problèmes de valeur extrême, y compris l'inférence de la chaîne Markov Monte Carlo et de Bayesian, en soulignant l'importance de l'information antérieure et l'utilisation des graphiques.
Présente l'estimateur de Bayes, expliquant sa définition, son application dans des scénarios de coûts quadratiques et son importance dans le raisonnement probabiliste.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Explore l'inférence bayésienne pour la précision dans le modèle gaussien avec la moyenne connue, en utilisant un précédent Gamma et en discutant des précédents subjectifs vs objectifs.
Couvre des modèles thématiques, en se concentrant sur l'allocation de Dirichlet latente, le regroupement, les MGM, la distribution de Dirichlet, l'apprentissage LDA et les applications en humanités numériques.