Couvre l'algorithme de maximisation des attentes et les techniques de regroupement, en mettant l'accent sur l'échantillonnage Gibbs et l'équilibre détaillé.
Explique le regroupement des moyennes k, en attribuant des points de données à des grappes en fonction de la proximité et en minimisant les distances carrées à l'intérieur des grappes.
Couvre le concept de régression du noyau et rend les données linéairement séparables en ajoutant des fonctionnalités et en utilisant des méthodes locales.
Présente la régularisation Lasso et son application à l'ensemble de données MNIST, en mettant l'accent sur la sélection des fonctionnalités et les exercices pratiques sur la mise en œuvre de la descente en gradient.