Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Explore les résultats élémentaires en optimisation convexe, y compris les coques affines, convexes et coniques, les cônes appropriés et les fonctions convexes.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.