Explorer des modèles linéaires généralisés pour les données non gaussiennes, couvrant l'interprétation de la fonction de liaison naturelle, la normalité asymptotique MLE, les mesures de déviance, les résidus et la régression logistique.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Couvre la théorie derrière l'estimation maximale de la vraisemblance, en discutant des propriétés et des applications dans le choix binaire et des modèles multiréponses ordonnées.
Explore l'analyse de régression logistique des données sur le crabe en fer à cheval, en se concentrant sur l'interprétation du rapport de cotes et l'ajustement du modèle.
Explore la régression logistique pour les variables de réponse binaire, couvrant des sujets tels que l'interprétation du rapport de cotes et l'ajustement du modèle.
Explore des exemples spéciaux de modèles linéaires généralisés, couvrant la régression logistique, les modèles de données de comptage, les problèmes de séparation et les relations non paramétriques.
Explore l'application de Maximum Likelihood Estimation dans les modèles à choix binaire, couvrant les modèles probit et logit, la représentation des variables latentes et les tests de spécification.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Explore la vérification du modèle et les résidus dans lanalyse de régression, en soulignant limportance des diagnostics pour assurer la validité du modèle.
Couvre l'estimation, le rétrécissement et la pénalisation des statistiques pour la science des données, soulignant l'importance d'équilibrer le biais et la variance dans l'estimation des modèles.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.