Explore la somme des polynômes carrés et la programmation semi-définie dans l'optimisation polynomiale, permettant l'approximation des polynômes non convexes avec SDP convexe.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.
Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Explore les méthodes d'optimisation primaire-duelle, se concentrant sur les approches lagrangiennes et diverses méthodes comme la pénalité, la lagrangien augmentée, et les techniques de fractionnement.
Explore la dualité lagrangienne dans l'optimisation convexe, transformant les problèmes en formulations min-max et discutant de l'importance des solutions doubles.
Explore l'optimisation robuste par l'approximation polynôme et les ensembles d'incertitude, y compris des programmes linéaires robustes et des astuces d'optimisation.
Explore l'optimisation primaire-duelle, la conjugaison des fonctions, la dualité forte, et les méthodes de pénalité quadratique en mathématiques de données.
Couvre les concepts fondamentaux de l'optimisation et de la recherche opérationnelle, en explorant des exemples du monde réel et des sujets clés sur un semestre.
Explique le processus de recherche d'une solution réalisable de base initiale pour les problèmes d'optimisation linéaire à l'aide de l'algorithme Simplex.