Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.
Couvre les modèles d'estimation statistique, les estimateurs de ML, les machines d'apprentissage, les problèmes pratiques et les défis de l'estimation.
Couvre la théorie des probabilités, les distributions et l'estimation dans les statistiques, en mettant l'accent sur la précision, la précision et la résolution des mesures.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Explore l'apprentissage des modèles graphiques avec les estimateurs M, la régression des processus Gaussiens, la modélisation Google PageRank, l'estimation de la densité et les modèles linéaires généralisés.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Explore l'application de l'algèbre linéaire dans la science des données, couvrant la réduction de la variance, la théorie de la distribution des modèles et les estimations du maximum de vraisemblance.
Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.
Explore une régression robuste dans l'analyse des données génomiques, en mettant l'accent sur la pondération des résidus importants pour une meilleure précision des estimations et des mesures d'évaluation de la qualité telles que NUSE et RLE.