Explore la sélection des modèles en utilisant les critères AIC et BIC, en répondant à différentes questions et à l'importance de la parcimonie dans la sélection du meilleur modèle.
Couvre les concepts de lunettes de spin et d'estimation bayésienne, en se concentrant sur l'observation et la déduction de l'information d'un système de près.
Explore linférence de vraisemblance maximale, comparant les modèles basés sur les ratios de vraisemblance et démontrant avec un exemple de pièce de monnaie.
Discute de l'inférence bayésienne pour la moyenne d'une distribution gaussienne avec variance connue, couvrant la moyenne postérieure, la variance et l'estimateur MAP.
Discute de la distribution de Dirichlet, de l'inférence bayésienne, de la moyenne postérieure et de la variance, des antécédents conjugués et de la distribution prédictive dans le modèle de Dirichlet-Multinôme.
Explore la régression linéaire probabiliste et la régression de processus gaussien, en mettant l'accent sur la sélection du noyau et l'ajustement hyperparamétrique pour des prédictions précises.
Couvre l'estimation, le rétrécissement et la pénalisation des statistiques pour la science des données, soulignant l'importance d'équilibrer le biais et la variance dans l'estimation des modèles.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Explore les statistiques non paramétriques, les méthodes bayésiennes et la régression linéaire en mettant l'accent sur l'estimation de la densité du noyau et la distribution postérieure.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, soulignant l'importance de l'expansion des fonctionnalités et des méthodes du noyau.