Couvre les moindres carrés pondérés itératifs, la régression de Poisson et l'analyse bayésienne des données sur l'orge de printemps à l'aide de modèles mixtes.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Couvertures Modèles linéaires généralisés, probabilité, déviance, fonctions de liaison, méthodes d'échantillonnage, régression de Poisson, surdispersion et modèles de régression alternatifs.
Introduit une analyse de régression, couvrant les modèles linéaires et non linéaires, la régression de Poisson et l'analyse du temps de défaillance à l'aide de divers ensembles de données.
Couvre les moindres carrés pondérés itératifs, la vérification du modèle, la régression de Poisson et lajustement des modèles multinomiels en utilisant les erreurs de Poisson.
Explore des exemples spéciaux de modèles linéaires généralisés, couvrant la régression logistique, les modèles de données de comptage, les problèmes de séparation et les relations non paramétriques.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Explore la régression logistique pour les variables de réponse binaire, couvrant des sujets tels que l'interprétation du rapport de cotes et l'ajustement du modèle.
Explore la régularisation dans des modèles linéaires, y compris la régression de crête et le Lasso, les solutions analytiques et la régression de crête polynomiale.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.