Explore la règle discriminatoire gaussienne pour la classification à l'aide de modèles de mélange gaussien et discute des limites de dessin et de la complexité du modèle.
Couvre les flux de données, le calcul de la mémoire sous-linéaire, la similarité des documents et les techniques de réduction des dimensions randomisées pour gérer efficacement les défis «Big Data».
Couvre l'apprentissage non supervisé axé sur les méthodes de regroupement et les défis rencontrés dans les algorithmes de regroupement comme K-means et DBSCAN.
Explore l'évaluation des modèles avec K-Nearest Neighbor, couvrant la sélection optimale de k, les mesures de similarité et les mesures de performance pour les modèles de classification.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore l'apprentissage supervisé en économétrie financière, en mettant l'accent sur les algorithmes de classification comme Naive Bayes et la régression logistique.