Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Explore l'estimation de la probabilité maximale et les tests d'hypothèses multivariées, y compris les défis et les stratégies pour tester plusieurs hypothèses.
Couvre l'analyse des données jacamar, les modèles de données sur le tabagisme et les défis liés aux modèles log-linéaires dans les données sur les déficiences visuelles.
Couvre les moindres carrés pondérés itératifs, la régression de Poisson et l'analyse bayésienne des données sur l'orge de printemps à l'aide de modèles mixtes.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre lalgorithme IWLS pour obtenir des MLE dans les modèles de régression et discute de la statistique du rapport de vraisemblance et de la déviance dans lajustement du modèle.