Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Explore l'estimation du maximum de vraisemblance dans les modèles linéaires, couvrant le bruit gaussien, l'estimation de la covariance et les machines vectorielles de support pour les problèmes de classification.
Couvre le clustering, la classification et le support des principes, des applications et de l'optimisation des machines vectorielles, y compris la classification non linéaire et les effets du noyau gaussien.
Couvre l'inférence statistique, l'apprentissage automatique, les SVM pour la classification des pourriels, le prétraitement des courriels et l'extraction des fonctionnalités.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.