Explore les conditions KKT dans l'optimisation convexe, couvrant les cônes doubles, les propriétés, les inégalités généralisées et les conditions d'optimisation.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Explore l'estimation de la probabilité maximale, la régression logistique, l'estimation de la covariance et les machines vectorielles de soutien pour les problèmes de classification.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Explore l'optimisation robuste par l'approximation polynôme et les ensembles d'incertitude, y compris des programmes linéaires robustes et des astuces d'optimisation.