Couvre les espaces normés, les espaces doubles, les espaces de Banach, les espaces de Hilbert, la convergence faible et forte, les espaces réflexifs et le théorème de Hahn-Banach.
Explore la preuve de convergence de la descente de gradient stochastique avec des fonctions fortement convexes et l'impact de la taille des pas sur les propriétés de convergence.
Couvre les méthodes d'optimisation, les garanties de convergence, les compromis et les techniques de réduction de la variance en optimisation numérique.