Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Introduit des bases d'optimisation, couvrant la régression logistique, les dérivés, les fonctions convexes, la descente de gradient et les méthodes de second ordre.
Présente les méthodes Quasi-Newton pour l'optimisation, expliquant leurs avantages par rapport aux approches traditionnelles comme Gradient Descent et Newton's Method.
Explore le Théorème de Fonction Implicite, supportant les hyperplans, les extrèmes locaux et les dérivés d'ordre supérieur, se terminant par la classification des points stationnaires.