Explore la distribution de Wishart, les propriétés des matrices de Wishart, et la distribution de T2 de Hotelling, y compris la statistique T2 de deux exemples Hotelling.
Explorer l'estimation du rétrécissement des matrices de covariance à haute dimension, en comparant les approches linéaires et non linéaires pour une meilleure précision.
Couvre les matrices définies non négatives, les matrices de covariance et l'analyse en composantes principales pour une réduction optimale des dimensions.
Couvre l'analyse en composantes principales pour la réduction dimensionnelle des données biologiques, en se concentrant sur la visualisation et l'identification des modèles.
Explorer la théorie principale de l'analyse des composants, les propriétés, les applications et les tests d'hypothèse dans les statistiques multivariées.
Explore la dépendance dans les vecteurs aléatoires, couvrant la densité articulaire, l'indépendance conditionnelle, la covariance et les fonctions génératrices de moment.
Explore la génération de vecteurs aléatoires gaussiens avec des composantes spécifiques basées sur des valeurs observées et explique le concept de fonctions de covariance définies positives dans les processus gaussiens.
Couvre la théorie et les applications de l'analyse des composantes principales, en mettant l'accent sur la réduction des dimensions et les vecteurs propres.
Explore l'analyse des composantes principales, la réduction de la dimensionnalité, l'évaluation de la qualité des données et le contrôle du taux d'erreur.
Explore le nettoyage de la matrice de covariance, les estimateurs optimaux et les méthodes invariantes en rotation pour l'optimisation du portefeuille.