Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Explore l'estimation de la probabilité maximale et les tests d'hypothèses multivariées, y compris les défis et les stratégies pour tester plusieurs hypothèses.
Explore l'application de Maximum Likelihood Estimation dans les modèles à choix binaire, couvrant les modèles probit et logit, la représentation des variables latentes et les tests de spécification.
Explore le modèle conditionnel gaussien pour la régression linéaire et les propriétés des données gaussiennes, illustré par l'exemple de comparaison du traitement par pierre rénale.
Couvre la théorie derrière l'estimation maximale de la vraisemblance, en discutant des propriétés et des applications dans le choix binaire et des modèles multiréponses ordonnées.
Explore l'inférence statistique pour les modèles linéaires, couvrant l'ajustement du modèle, l'estimation des paramètres et la décomposition de la variance.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Introduit une estimation de vraisemblance maximale en économétrie, couvrant les principes, les propriétés, les applications et les tests de spécification.