Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Couvre la théorie et la pratique des algorithmes de regroupement, y compris PCA, K-means, Fisher LDA, groupement spectral et réduction de dimensionnalité.
Couvre les techniques de réduction de dimensionnalité telles que PCA et LDA, les méthodes de clustering, l'estimation de la densité et la représentation des données.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Couvre les techniques de réduction de dimensionnalité, de regroupement et d'estimation de la densité, y compris l'ACP, les moyennes K, le MGM et le décalage moyen.
Explore PCA et LDA pour la réduction de dimensionnalité linéaire dans les données, en mettant l'accent sur les techniques de clustering et de séparation de classe.
Introduit l'apprentissage non supervisé en cluster avec les moyennes K et la réduction de dimensionnalité à l'aide de PCA, ainsi que des exemples pratiques.
Couvre l'apprentissage non supervisé, en mettant l'accent sur la réduction de la dimensionnalité et le regroupement, en expliquant comment il aide à trouver des modèles dans les données sans étiquettes.
Introduit des réseaux de neurones artificiels et explore diverses techniques de réduction de la dimensionnalité telles que PCA, LDA, Kernel PCA et t-SNE.
Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.