Couvre les bases d'optimisation, y compris l'optimisation sans contrainte et les méthodes de descente de gradient pour trouver des solutions optimales.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Explore la conception de la surface de réponse, en mettant l'accent sur le manque d'analyse de l'ajustement et de modèles quadratiques, avec des exemples pratiques dans Matlab.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Discute de la descente de gradient stochastique et de son application dans l'optimisation non convexe, en se concentrant sur les taux de convergence et les défis de l'apprentissage automatique.
Explore l'optimisation de l'énergie dans les systèmes de mémoire, en soulignant l'importance des hiérarchies de mémoire et des compromis entre fiabilité et actualité.
Explore l'apprentissage multi-tâches pour l'optimisation accélérée des réactions chimiques, les défis de mise en évidence, les workflows automatisés et les algorithmes d'optimisation.
Explore l'optimisation dans la modélisation des systèmes énergétiques, couvrant les variables de décision, les fonctions objectives et les différentes stratégies avec leurs avantages et leurs inconvénients.