Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Couvre l'inférence statistique, l'apprentissage automatique, les SVM pour la classification des pourriels, le prétraitement des courriels et l'extraction des fonctionnalités.
Explore l'apprentissage de la fonction du noyau en optimisation convexe, en se concentrant sur la prédiction des sorties à l'aide d'un classificateur linéaire et en sélectionnant les fonctions optimales du noyau par validation croisée.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Les couvertures comportent des méthodes d'extraction, de regroupement et de classification pour les ensembles de données de grande dimension et l'analyse comportementale utilisant PCA, t-SNE, k-means, GMM et divers algorithmes de classification.
Présente la régularisation Lasso et son application à l'ensemble de données MNIST, en mettant l'accent sur la sélection des fonctionnalités et les exercices pratiques sur la mise en œuvre de la descente en gradient.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.