Couvre les bases de l'optimisation contrainte, y compris les directions tangentes, les sous-problèmes de la région de confiance et les conditions d'optimalité nécessaires.
Couvre les bases de la programmation non linéaire et ses applications dans le contrôle optimal, en explorant des techniques, des exemples, des définitions d'optimalité et les conditions nécessaires.
Explore les méthodes d'optimisation primaire-duelle, se concentrant sur les approches lagrangiennes et diverses méthodes comme la pénalité, la lagrangien augmentée, et les techniques de fractionnement.
Couvre les espaces normés, les espaces doubles, les espaces de Banach, les espaces de Hilbert, la convergence faible et forte, les espaces réflexifs et le théorème de Hahn-Banach.
Couvre la régression quantile, en se concentrant sur l'optimisation linéaire pour prédire les résultats et discuter de la sensibilité aux valeurs aberrantes, de la formulation des problèmes et de la mise en œuvre pratique.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Explore l'optimisation primaire-duelle, la conjugaison des fonctions, la dualité forte, et les méthodes de pénalité quadratique en mathématiques de données.