Explore les problèmes variationnels, en mettant l'accent sur les conditions de convexité et de coercivité dans les fonctions avec des contraintes latérales intégrales.
Explore l'optimisation dans la modélisation des systèmes énergétiques, couvrant les variables de décision, les fonctions objectives et les différentes stratégies avec leurs avantages et leurs inconvénients.
Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Couvre les bases de l'optimisation, y compris les perspectives historiques, les formulations mathématiques et les applications pratiques dans les problèmes de prise de décision.
Explore les compromis entre les données et le temps dans les problèmes de calcul, en mettant l'accent sur les rendements décroissants et les compromis continus.
Explore la convexité de l'extension de Lovsz et la maximisation des fonctions sous-modulaires, en se concentrant sur l'extension des fonctions aux ensembles convexes et en prouvant leur convexité.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Explore l'optimisation primaire-duelle, la conjugaison des fonctions, la dualité forte, et les méthodes de pénalité quadratique en mathématiques de données.