Explore les problèmes variationnels, en mettant l'accent sur les conditions de convexité et de coercivité dans les fonctions avec des contraintes latérales intégrales.
Explore la dualité de programmation linéaire, couvrant la dualité faible, la dualité forte, l'interprétation des multiplicateurs de Lagrange et les contraintes d'optimisation.
Explore la dualité dans la programmation linéaire, la dualité forte, le relâchement complémentaire et l'interprétation économique des variables doubles en tant que prix.
Explique le processus de recherche d'une solution réalisable de base initiale pour les problèmes d'optimisation linéaire à l'aide de l'algorithme Simplex.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Explore la convexité de l'extension de Lovsz et la maximisation des fonctions sous-modulaires, en se concentrant sur l'extension des fonctions aux ensembles convexes et en prouvant leur convexité.