Explore la distribution de Wishart, les propriétés des matrices de Wishart, et la distribution de T2 de Hotelling, y compris la statistique T2 de deux exemples Hotelling.
Explore l'analyse des composantes principales, la réduction de la dimensionnalité, l'évaluation de la qualité des données et le contrôle du taux d'erreur.
Couvre l'analyse des composantes principales pour l'estimation de la forme de la courbe de rendement et la réduction des dimensions dans les modèles de taux d'intérêt.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Explore le nettoyage de la matrice de covariance, les estimateurs optimaux et les méthodes invariantes en rotation pour l'optimisation du portefeuille.
Couvre la règle d'Oja dans les neurorobotiques, se concentrant sur l'apprentissage des eigenvectors et des valeurs propres pour capturer la variance maximale.
Explore les vecteurs aléatoires gaussiens et leurs propriétés statistiques, en soulignant l'importance de spécifier des propriétés statistiques dans des vecteurs aléatoires à valeur complexe.