Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Explore les transporteurs comme une alternative pratique au transport parallèle, en discutant des exigences minimales, des exemples avec des matrices, des choix pragmatiques et des algorithmes d'optimisation.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Explore les algorithmes d'optimisation primal-dual pour les problèmes de minimax convexe-concave, en discutant des propriétés de convergence et des applications.
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.
Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.