Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Couvre la théorie et la pratique des algorithmes de regroupement, y compris PCA, K-means, Fisher LDA, groupement spectral et réduction de dimensionnalité.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Couvre les techniques de réduction de dimensionnalité telles que PCA et LDA, les méthodes de clustering, l'estimation de la densité et la représentation des données.
Introduit des réseaux de neurones artificiels et explore diverses techniques de réduction de la dimensionnalité telles que PCA, LDA, Kernel PCA et t-SNE.