Explore les transporteurs comme une alternative pratique au transport parallèle, en discutant des exigences minimales, des exemples avec des matrices, des choix pragmatiques et des algorithmes d'optimisation.
Explore les gradients conjugués tronqués pour résoudre le sous-problème de la région de confiance dans l'optimisation sur les collecteurs efficacement.
Explore les conditions d'optimalité nécessaires et suffisantes pour les minima locaux sur les collecteurs, en mettant l'accent sur les points critiques de deuxième ordre.
Introduit Manopt, une boîte à outils pour l'optimisation sur les manifolds, couvrant le gradient et les contrôles hessiens, les appels de solveur et la mise en cache manuelle.
Explore la méthode de Newton pour optimiser les fonctions sur les collecteurs à l'aide d'informations de deuxième ordre et discute de ses inconvénients et de ses corrections.
Explore l'optimisation pratique en utilisant Manopt pour les collecteurs, couvrant les contrôles de gradient, les erreurs d'approximation, et les calculs Hessian.
Explore l'importance de différencier les champs vectoriels et la méthodologie appropriée pour y parvenir, en soulignant l'importance d'aller au-delà du premier ordre.
Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Explore les méthodes de descente des gradients pour optimiser les fonctions sur les collecteurs, en mettant l'accent sur les petites garanties de gradient et la convergence globale.