Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Couvre des exercices sur l'optimisation convexe, en se concentrant sur la formulation et la résolution de problèmes d'optimisation en utilisant YALMIP et des solveurs comme GUROBI et MOSEK.
Introduit l'optimisation convexe, couvrant les ensembles convexes, les concepts de solution et les méthodes numériques efficaces en optimisation mathématique.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Couvre les bases de l'optimisation convexe, y compris les problèmes mathématiques, les minimiseurs et les concepts de solution, en mettant l'accent sur des méthodes efficaces et des applications pratiques.
Explore la convexification des problèmes non convexes grâce à des astuces sur le noyau, à l'interprétation de la sensibilité et à la réduction de la dimensionnalité non linéaire.
Couvre le débruitage et la reconstruction d'images en utilisant une minimisation totale des variations et discute des effets visuels des différentes forces de régularisation.
Explore la somme des polynômes carrés et la programmation semi-définie dans l'optimisation polynomiale, permettant l'approximation des polynômes non convexes avec SDP convexe.