Explore le cluster spectral, la décomposition des valeurs propres, les matrices laplaciennes et l'identification des clusters au moyen de projections de vecteurs propres.
Explore l'entrelacement des familles de polynômes et des graphiques de Ramanujan à un côté, en se concentrant sur leurs propriétés et leurs méthodes de construction.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Couvre la théorie et la pratique des algorithmes de regroupement, y compris PCA, K-means, Fisher LDA, groupement spectral et réduction de dimensionnalité.
Couvre la preuve du théorème ARV de Bourgain, en se concentrant sur lensemble fini de points dans un espace semi-métrique et lapplication de lalgorithme ARV pour trouver la coupe la plus clairsemée dans un graphique.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.