Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Explique le processus de recherche d'une solution réalisable de base initiale pour les problèmes d'optimisation linéaire à l'aide de l'algorithme Simplex.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Explore la dualité lagrangienne dans l'optimisation convexe, en discutant de la dualité forte, des solutions duales et des applications pratiques dans les programmes de cônes de second ordre.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Explore la somme des polynômes carrés et la programmation semi-définie dans l'optimisation polynomiale, permettant l'approximation des polynômes non convexes avec SDP convexe.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore la convexification des problèmes non convexes grâce à des astuces sur le noyau, à l'interprétation de la sensibilité et à la réduction de la dimensionnalité non linéaire.
Couvre le débruitage et la reconstruction d'images en utilisant une minimisation totale des variations et discute des effets visuels des différentes forces de régularisation.