Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.
Couvre les bases de l'optimisation, y compris les métriques, les normes, la convexité, les gradients et la régression logistique, en mettant l'accent sur les forts taux de convexité et de convergence.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Explore les modèles linéaires, la régression logistique, la descente en gradient et la régression logistique multi-classes avec des applications pratiques et des exemples.