Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.
Couvre la théorie et les applications de l'analyse des composantes principales, en mettant l'accent sur la réduction des dimensions et les vecteurs propres.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Couvre la règle d'Oja dans les neurorobotiques, se concentrant sur l'apprentissage des eigenvectors et des valeurs propres pour capturer la variance maximale.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Explore l'hypothèse de thermalisation d'état propre dans les systèmes quantiques, en mettant l'accent sur la théorie de la matrice aléatoire et le comportement des observables dans l'équilibre thermique.