Couvre les moindres carrés pondérés itératifs, la régression de Poisson et l'analyse bayésienne des données sur l'orge de printemps à l'aide de modèles mixtes.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre les moindres carrés pondérés itératifs, la vérification du modèle, la régression de Poisson et lajustement des modèles multinomiels en utilisant les erreurs de Poisson.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvertures Modèles linéaires généralisés, probabilité, déviance, fonctions de liaison, méthodes d'échantillonnage, régression de Poisson, surdispersion et modèles de régression alternatifs.
Introduit une analyse de régression, couvrant les modèles linéaires et non linéaires, la régression de Poisson et l'analyse du temps de défaillance à l'aide de divers ensembles de données.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Explore des méthodes robustes et résistantes dans des modèles linéaires, en soulignant l'importance de gérer les observations extrêmes et les implications de la robustesse dans les modèles de régression.