Introduit des arbres de décision pour la classification, couvrant l'entropie, la qualité fractionnée, l'indice Gini, les avantages, les inconvénients, et le classificateur forestier aléatoire.
Explore les techniques d'apprentissage non supervisées pour réduire les dimensions des données, en mettant l'accent sur l'APC, l'ADL et l'APC du noyau.
Couvre les flux de données, le calcul de la mémoire sous-linéaire, la similarité des documents et les techniques de réduction des dimensions randomisées pour gérer efficacement les défis «Big Data».
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Couvre le théorème de Johnson-Lindenstrauss, qui intègre des points de haute dimension dans l'espace de dimension inférieure tout en préservant les distances.
Couvre l'apprentissage non supervisé axé sur les méthodes de regroupement et les défis rencontrés dans les algorithmes de regroupement comme K-means et DBSCAN.