Couvre les concepts de lunettes de spin et d'estimation bayésienne, en se concentrant sur l'observation et la déduction de l'information d'un système de près.
Explore la régression linéaire probabiliste et la régression de processus gaussien, en mettant l'accent sur la sélection du noyau et l'ajustement hyperparamétrique pour des prédictions précises.
Discute de l'inférence bayésienne pour la moyenne d'une distribution gaussienne avec variance connue, couvrant la moyenne postérieure, la variance et l'estimateur MAP.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Couvre l'estimation maximale de la probabilité, en mettant l'accent sur l'estimation-distribution ML, l'estimation de la réduction et les fonctions de perte.
Présente l'estimateur de Bayes, expliquant sa définition, son application dans des scénarios de coûts quadratiques et son importance dans le raisonnement probabiliste.