Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Explore les modèles linéaires pour la classification, y compris la classification binaire, la régression logistique, les limites de décision et les machines vectorielles de support.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Explore les modèles linéaires pour la classification, y compris les modèles paramétriques, la régression et la régression logistique, ainsi que les mesures d'évaluation des modèles et les classificateurs de marge maximum.
Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Explore l'apprentissage de la fonction du noyau en optimisation convexe, en se concentrant sur la prédiction des sorties à l'aide d'un classificateur linéaire et en sélectionnant les fonctions optimales du noyau par validation croisée.
Couvre le clustering, la classification et le support des principes, des applications et de l'optimisation des machines vectorielles, y compris la classification non linéaire et les effets du noyau gaussien.