Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Explore les matrices, les inverses et leurs applications en algèbre linéaire, en mettant l'accent sur les propriétés de composition et de transformation.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Couvre les concepts fondamentaux de l'algèbre linéaire, y compris les équations linéaires, les opérations matricielles, les déterminants et les espaces vectoriels.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Explore l'équivalence entre les différentes propriétés des transformations linéaires représentées par des matrices et diverses opérations matricielles.
Couvre le concept de matrices inverses et la résolution des systèmes, y compris les conditions d'inversibilité des matrices et l'algorithme de Gauss-Jordan.
Explore la réduction des dimensions linéaires grâce à la PCA, à la maximisation de la variance et à des applications réelles telles que l'analyse des données médicales.
Couvre la transposition de la matrice, le rang et le changement de base dans l'algèbre linéaire, explorant les critères d'invertibilité et les relations de base.
Explore les transformations géométriques en R2 et R3, y compris les transformations linéaires, les projections, les matrices et les propriétés des traces.