Explore les fonctions convexes, les transformations d'affines, le maximum pointu, la minimisation, le Lemma de Schur et l'entropie relative dans l'optimisation mathématique.
Explore les sous-gradients dans les fonctions convexes, mettant l'accent sur les scénarios et les propriétés des subdifférentiels non dissociables mais convexes.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.