Couvre les bases de l'optimisation contrainte, y compris les directions tangentes, les sous-problèmes de la région de confiance et les conditions d'optimalité nécessaires.
Introduit les bases de l'algèbre linéaire, du calcul et de l'optimisation dans les espaces euclidien, en mettant l'accent sur la puissance de l'optimisation en tant qu'outil de modélisation.
Couvre les bases de la programmation non linéaire et ses applications dans le contrôle optimal, en explorant des techniques, des exemples, des définitions d'optimalité et les conditions nécessaires.
Explore des techniques d'optimisation telles que la descente de gradient, la recherche de lignes et la méthode de Newton pour une résolution efficace des problèmes.
Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Explore l'optimisation dans la modélisation des systèmes énergétiques, couvrant les variables de décision, les fonctions objectives et les différentes stratégies avec leurs avantages et leurs inconvénients.
Explore le rôle du calcul dans les mathématiques de données, en mettant l'accent sur les méthodes itératives, l'optimisation, les estimateurs et les principes d'ascendance.
Explore la convexité de l'extension de Lovsz et la maximisation des fonctions sous-modulaires, en se concentrant sur l'extension des fonctions aux ensembles convexes et en prouvant leur convexité.
Présente les méthodes Quasi-Newton pour l'optimisation, expliquant leurs avantages par rapport aux approches traditionnelles comme Gradient Descent et Newton's Method.
Explore les conditions KKT dans l'optimisation convexe, couvrant les problèmes doubles, les contraintes logarithmiques, les moindres carrés, les fonctions matricielles et la sous-optimalité de la couverture des ellipsoïdes.