Explore les gradients conjugués tronqués pour résoudre le sous-problème de la région de confiance dans l'optimisation sur les collecteurs efficacement.
Explore les transporteurs comme une alternative pratique au transport parallèle, en discutant des exigences minimales, des exemples avec des matrices, des choix pragmatiques et des algorithmes d'optimisation.
Explore l'importance de différencier les champs vectoriels et la méthodologie appropriée pour y parvenir, en soulignant l'importance d'aller au-delà du premier ordre.
Explore les conditions d'optimalité nécessaires et suffisantes pour les minima locaux sur les collecteurs, en mettant l'accent sur les points critiques de deuxième ordre.
Explore l'optimisation pratique en utilisant Manopt pour les collecteurs, couvrant les contrôles de gradient, les erreurs d'approximation, et les calculs Hessian.
Introduit Manopt, une boîte à outils pour l'optimisation sur les manifolds, couvrant le gradient et les contrôles hessiens, les appels de solveur et la mise en cache manuelle.
Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Explore la convexité géodésique et son extension à l'optimisation sur les collecteurs, soulignant la préservation du fait clé que les minima locaux impliquent des minima globaux.
Couvre les concepts d'homéomorphismes locaux et de couvertures en multiples, en mettant l'accent sur les conditions dans lesquelles une carte est considérée comme un homéomorphisme local ou une couverture.
Explore les connexions sur les collecteurs, en mettant l'accent sur la définition axiomatique et les propriétés des dérivés dans les champs vectoriels de différenciation.