Couvre l'algorithme de recherche le plus proche du voisin et le lemme de Johnson-Lindenstrauss pour la réduction de la dimensionnalité, en explorant les techniques de prétraitement et le hachage sensible à la localité.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Explique le classificateur K-Nearest Neighbors, en attribuant des étiquettes basées sur les points les plus proches et en lissant le bruit dans les étiquettes.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Explore la méthode de classification la plus proche du voisin, en discutant de ses limites dans les espaces de grande dimension et de l'importance de la corrélation spatiale pour des prédictions efficaces.
Couvre le classificateur k-NN, la reconnaissance numérique manuscrite, la réduction de données, les applications, la construction de graphes, les limitations et la malédiction de la dimensionnalité.
Introduit les bases de l'apprentissage automatique, couvrant la classification supervisée, les limites de décision et l'ajustement de la courbe polynomiale.
Introduit k-Nearest Neighbors pour la classification et l'expansion des fonctionnalités pour gérer les données non linéaires via des entrées transformées.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Explore les défis d'évolutivité dans les systèmes de travail partagé, en mettant l'accent sur l'optimisation et l'exécution, les configurations expérimentales, les opérateurs de requêtes de données, et l'impact du schéma sur l'apprentissage.
Couvre les défis de classification d'images, les concepts d'apprentissage automatique, la régression linéaire et l'approche voisine la plus proche dans les véhicules autonomes.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.