Explore l'analyse indépendante des composants en imagerie cérébrale fonctionnelle, en se concentrant sur les sources non gaussiennes, les artefacts de nettoyage et les études de groupe.
Introduit l'analyse des composantes principales, en mettant l'accent sur la maximisation de la variance dans les combinaisons linéaires pour résumer efficacement les données.
Explore la découverte causale à l'aide de modèles variables latents, en mettant l'accent sur les défis et les solutions pour déduire les relations causales à partir de données non gaussiennes.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.
Explore l'analyse des composants principaux pour la réduction de la dimensionnalité dans l'apprentissage automatique, en présentant ses capacités d'extraction de fonctionnalités et de prétraitement de données.
Couvre l'analyse en composantes principales pour la réduction dimensionnelle des données biologiques, en se concentrant sur la visualisation et l'identification des modèles.
Explorer la théorie principale de l'analyse des composants, les propriétés, les applications et les tests d'hypothèse dans les statistiques multivariées.
Couvre l'analyse des composantes principales pour l'estimation de la forme de la courbe de rendement et la réduction des dimensions dans les modèles de taux d'intérêt.
Explore la modélisation à l'échelle atomique au moyen d'exercices interactifs et d'affectations notées, couvrant la cristallographie, la diffraction, les défauts et les modèles de régression.