Couvre la mise en œuvre de combinaisons dans la programmation parallèle à Scala, y compris des méthodes de combinaison efficaces et des structures de données.
Couvre l'algorithme de recherche le plus proche du voisin et le lemme de Johnson-Lindenstrauss pour la réduction de la dimensionnalité, en explorant les techniques de prétraitement et le hachage sensible à la localité.
Explique le classificateur K-Nearest Neighbors, en attribuant des étiquettes basées sur les points les plus proches et en lissant le bruit dans les étiquettes.
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Couvre les flux de données, le calcul de la mémoire sous-linéaire, la similarité des documents et les techniques de réduction des dimensions randomisées pour gérer efficacement les défis «Big Data».