Explore l'optimisation avec des contraintes en utilisant les conditions KKT et l'algorithme de point intérieur sur deux exemples de programmation quadratique.
Explore la méthode lagrangienne augmentée avec des contraintes d'égalité et d'inégalité dans l'optimisation, en soulignant l'importance des variables slack.
Explore la maximisation des marges pour une meilleure classification à l'aide de machines vectorielles de support et l'importance de choisir le bon paramètre.
Introduit des machines vectorielles de support, couvrant la perte de charnière, la séparation hyperplane et la classification non linéaire à l'aide de noyaux.
Explore Support Vector Machines, couvrant la marge ferme, la marge souple, la perte de charnière, la comparaison des risques et la perte de charnière quadratique.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.
Explore les modèles linéaires pour la classification, y compris les modèles paramétriques, la régression et la régression logistique, ainsi que les mesures d'évaluation des modèles et les classificateurs de marge maximum.