Explore l'importance de différencier les champs vectoriels et la méthodologie appropriée pour y parvenir, en soulignant l'importance d'aller au-delà du premier ordre.
Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.
Examine la transition entre les multiples intégrés et les multiples généraux, améliore les concepts fondamentaux et discute des raisons mathématiques des deux approches.
Introduit Manopt, une boîte à outils pour l'optimisation sur les collecteurs, en se concentrant sur la résolution des problèmes d'optimisation sur les collecteurs lisses à l'aide de la version Matlab.
Introduit des rétractions et des champs vectoriels sur les collecteurs, fournissant des exemples et discutant des propriétés de douceur et d'extension.