Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.
Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Couvre les concepts fondamentaux de l'optimisation et de la recherche opérationnelle, en explorant des exemples du monde réel et des sujets clés sur un semestre.
Explore les méthodes d'optimisation dans l'apprentissage automatique, en mettant l'accent sur les gradients, les coûts et les efforts informatiques pour une formation efficace des modèles.
Discuter de la prévision du temps d'achèvement et de l'optimisation des activités grâce à des stratégies d'orchestration efficaces et à des prévisions de courbes d'achèvement fondées sur l'expérience.