Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Couvre le clustering, la classification et le support des principes, des applications et de l'optimisation des machines vectorielles, y compris la classification non linéaire et les effets du noyau gaussien.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Explique la machine vectorielle de soutien et la régression logistique pour les tâches de classification, en mettant l'accent sur la maximisation de la marge et la minimisation des risques.
Explore les machines vectorielles de support, maximisant la marge pour une classification robuste et la transition vers la SVM logicielle pour les données séparables non linéairement.
Introduit des méthodes de noyau telles que SVM et régression, couvrant des concepts tels que la marge, la machine vectorielle de support, la malédiction de la dimensionnalité et la régression de processus gaussien.
Explore le lemme de Farkas, la séparation hyperplane, la combinatoire et son application dans la théorie des jeux, en se concentrant sur les stratégies de penalty kick.
Volkan Cevher se penche sur les mathématiques de l’apprentissage profond, explorant la complexité des modèles, les compromis de risque et le mystère de la généralisation.