Explore l'intégration de l'apprentissage automatique dans des modèles à choix discrets, en soulignant l'importance des contraintes théoriques et des approches hybrides de modélisation.
Explore l'apprentissage des modèles latents dans des structures graphiques, en se concentrant sur des scénarios avec des échantillons incomplets et en introduisant la notion de distance entre les variables.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Introduit l'analyse des composantes principales, en mettant l'accent sur la maximisation de la variance dans les combinaisons linéaires pour résumer efficacement les données.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Explore Kernel Principal Component Analysis, une méthode non linéaire utilisant des noyaux pour la résolution linéaire de problèmes et la réduction des dimensions.