Couvre le clustering, la classification et le support des principes, des applications et de l'optimisation des machines vectorielles, y compris la classification non linéaire et les effets du noyau gaussien.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Couvre une analyse SWOT de l'apprentissage automatique et de l'intelligence artificielle, explorant les forces, les faiblesses, les possibilités et les menaces sur le terrain.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Explore l'apprentissage machine contradictoire, couvrant la génération d'exemples contradictoires, les défis de robustesse et des techniques telles que la méthode Fast Gradient Sign.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.