Explore la descente de gradient riemannienne, couvrant les expansions de Taylor, les conditions d'optimalité, les modèles d'algorithmes, la recherche de lignes et les points critiques.
Couvre les fonctions, la différenciation, les extensions Taylor et les intégrales, fournissant des concepts fondamentaux et des applications pratiques.
Explore l'importance de différencier les champs vectoriels et la méthodologie appropriée pour y parvenir, en soulignant l'importance d'aller au-delà du premier ordre.
Couvre les bases de l'optimisation contrainte, y compris les directions tangentes, les sous-problèmes de la région de confiance et les conditions d'optimalité nécessaires.