Couvre les concepts de lunettes de spin et d'estimation bayésienne, en se concentrant sur l'observation et la déduction de l'information d'un système de près.
Il explore la construction de régions de confiance, les tests d'hypothèse inversés et la méthode pivot, en soulignant l'importance des méthodes de probabilité dans l'inférence statistique.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Explore la cohérence et les propriétés asymptotiques de l’estimateur de vraisemblance maximale, y compris les défis à relever pour prouver sa cohérence et construire des estimateurs de type MLE.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explore les modèles paramétriques, les techniques d'estimation, les modèles de régression et les classificateurs basés sur les scores dans l'analyse des données.
Discute des méthodes d'estimation en probabilité et en statistiques, en se concentrant sur l'estimation du maximum de vraisemblance et les intervalles de confiance.
Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.
Couvre les méthodes de calcul des systèmes moléculaires à température finie, en mettant l'accent sur l'échantillonnage stochastique et les simulations d'évolution du temps.
Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.