Couvre la théorie des probabilités, les distributions et l'estimation dans les statistiques, en mettant l'accent sur la précision, la précision et la résolution des mesures.
Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.
Explore l'apprentissage des modèles graphiques avec les estimateurs M, la régression des processus Gaussiens, la modélisation Google PageRank, l'estimation de la densité et les modèles linéaires généralisés.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Explore l'optimalité dans la théorie de la décision et l'estimation impartiale, en mettant l'accent sur la suffisance, l'exhaustivité et les limites inférieures du risque.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.