Introduit l'optimisation convexe à travers des ensembles et des fonctions, couvrant les intersections, exemples, opérations, gradient, Hessian, et applications du monde réel.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité et ses implications pour une résolution efficace des problèmes.
Couvre les techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la convexité, les algorithmes et leurs applications pour assurer une convergence efficace vers les minima mondiaux.
Fournit un aperçu des techniques d'optimisation, en se concentrant sur la descente de gradient et les propriétés des fonctions convexes dans l'apprentissage automatique.
Explore les modèles linéaires, la régression, la prédiction multi-sorties, la classification, la non-linéarité et l'optimisation basée sur le gradient.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.