Explore des méthodes robustes et résistantes dans des modèles linéaires, en soulignant l'importance de gérer les observations extrêmes et les implications de la robustesse dans les modèles de régression.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre la théorie des probabilités, les distributions et l'estimation dans les statistiques, en mettant l'accent sur la précision, la précision et la résolution des mesures.
Couvre les modèles d'estimation statistique, les estimateurs de ML, les machines d'apprentissage, les problèmes pratiques et les défis de l'estimation.
Explore le phénomène Stein, présentant les avantages du biais dans les statistiques de grande dimension et la supériorité de l'estimateur James-Stein sur l'estimateur de probabilité maximale.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.
Explore l'hétéroskédasticité en économétrie, en discutant de son impact sur les erreurs standard, les estimateurs alternatifs, les méthodes d'essai et les implications pour les tests d'hypothèses.