Explore la dualité de programmation linéaire, couvrant la dualité faible, la dualité forte, l'interprétation des multiplicateurs de Lagrange et les contraintes d'optimisation.
Introduit les bases de la programmation linéaire, y compris les problèmes d'optimisation, les fonctions de coût, l'algorithme simplex, la géométrie des programmes linéaires, les points extrêmes et la dégénérescence.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Explore la méthode lagrangienne augmentée avec des contraintes d'égalité et d'inégalité dans l'optimisation, en soulignant l'importance des variables slack.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.