Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Explore les connexions sur les collecteurs, en mettant l'accent sur la définition axiomatique et les propriétés des dérivés dans les champs vectoriels de différenciation.
Introduit Manopt, une boîte à outils pour l'optimisation sur les collecteurs lisses avec une structure Riemannienne, couvrant les fonctions de coûts, différents types de collecteurs, et principes d'optimisation.
Explore l'optimisation pratique en utilisant Manopt pour les collecteurs, couvrant les contrôles de gradient, les erreurs d'approximation, et les calculs Hessian.
Couvre les connexions sur les collecteurs, les connexions symétriques, les crochets Lie, et la compatibilité avec la métrique en géométrie Riemannienne.
Introduit des champs vectoriels différenciés le long de courbes sur des collecteurs avec des connexions et l'opérateur unique satisfaisant des propriétés spécifiques.