Explore la méthode de classification la plus proche du voisin, en discutant de ses limites dans les espaces de grande dimension et de l'importance de la corrélation spatiale pour des prédictions efficaces.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Couvre les bases des réseaux neuronaux, des fonctions d'activation, de la formation, du traitement d'image, des CNN, de la régularisation et des méthodes de réduction de dimensionnalité.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Introduit k-Nearest Neighbors pour la classification et l'expansion des fonctionnalités pour gérer les données non linéaires via des entrées transformées.
Couvre les défis posés par les données à haute dimension, la nécessité de réduire la dimensionnalité et les implications pour les modèles d'apprentissage automatique.
Explore les techniques de regroupement de comportement et de réduction de dimensionnalité non supervisées, couvrant des algorithmes comme K-Means, DBSCAN et Gaussian Mixture Model.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Couvre le classificateur k-NN, la reconnaissance numérique manuscrite, la réduction de données, les applications, la construction de graphes, les limitations et la malédiction de la dimensionnalité.
Explore la réduction des dimensions linéaires grâce à la PCA, à la maximisation de la variance et à des applications réelles telles que l'analyse des données médicales.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Couvre PCA et LDA pour la réduction de dimensionnalité, expliquant la maximisation de la variance, les problèmes de vecteurs propres et les avantages de Kernel PCA pour les données non linéaires.
Couvre l'algorithme de recherche le plus proche du voisin et le lemme de Johnson-Lindenstrauss pour la réduction de la dimensionnalité, en explorant les techniques de prétraitement et le hachage sensible à la localité.