Couvre la théorie derrière l'estimation maximale de la vraisemblance, en discutant des propriétés et des applications dans le choix binaire et des modèles multiréponses ordonnées.
Explore les modèles de mélange, y compris les mélanges discrets et continus, et leur application dans la capture de l'hétérogénéité du goût dans les populations.
Explore l'application de Maximum Likelihood Estimation dans les modèles à choix binaire, couvrant les modèles probit et logit, la représentation des variables latentes et les tests de spécification.
Couvre l'estimation conditionnelle maximale de la probabilité, la contribution à la probabilité et l'application du modèle de VEM dans les échantillons fondés sur le choix.
Explore d'autres variances spécifiques dans les modèles de mélange et discute des questions d'identification et des comparaisons de modèles à l'aide de 500 dessins.
Explore la régression logistique pour les variables de réponse binaire, couvrant des sujets tels que l'interprétation du rapport de cotes et l'ajustement du modèle.
Explore l'interprétation des réponses binaires, les fonctions de liaison, la régression logistique et la sélection des modèles à l'aide de déviances et de critères d'information.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explore l'analyse de régression logistique des données sur le crabe en fer à cheval, en se concentrant sur l'interprétation du rapport de cotes et l'ajustement du modèle.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Explorer l'interprétation des modèles de régression logistique, l'estimation des paramètres et la comparaison des modèles à l'aide de tests de rapport de probabilité.