Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Couvre les probabilités, les variables aléatoires, les attentes, les GLM, les tests d'hypothèse et les statistiques bayésiennes avec des exemples pratiques.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les principes de régression de mélange gaussien, la modélisation des densités articulaires et conditionnelles pour les ensembles de données multimodaux.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Couvre la quantification des distributions de probabilité, le regroupement statistique des moyennes k, l'estimation moyenne, les méthodes de regroupement robustes et les questions de recherche ouvertes.
Couvre la minimisation empirique des risques, l'apprentissage statistique et des exemples de prédiction du cancer, de prix des maisons et de génération d'images.