Couvre les bases de l'optimisation contrainte, y compris les directions tangentes, les sous-problèmes de la région de confiance et les conditions d'optimalité nécessaires.
Couvre les techniques d'optimisation avancées en utilisant des multiplicateurs Lagrange pour trouver l'extrémité des fonctions soumises à des contraintes.
Explore le calcul des variations et l'Elastica d'Euler dans le contexte de l'équilibre de la poutre et des courbes élastiques inextensibles sous de grandes rotations.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Explore les méthodes d'optimisation primaire-duelle, se concentrant sur les approches lagrangiennes et diverses méthodes comme la pénalité, la lagrangien augmentée, et les techniques de fractionnement.
Explore les modèles linéaires, la régression logistique, les métriques de classification, la MVS et leur utilisation pratique dans les méthodes de science des données.