Couvre les problèmes de contrôle optimal en se concentrant sur les conditions nécessaires, l'existence de contrôles optimaux et les solutions numériques.
Introduit l'apprentissage par renforcement, couvrant ses définitions, ses applications et ses fondements théoriques, tout en décrivant la structure et les objectifs du cours.
Explore la programmation dynamique pour un contrôle optimal, en se concentrant sur la stabilité, la politique stationnaire et les solutions récursives.
Couvre le calcul des variations pour trouver des états fondamentaux en mécanique quantique en minimisant l'énergie, en discutant de l'équation d'Euler Lagrange et du théorème fondamental de la théorie des jeunes mesures.
Explore les processus stochastiques contrôlés, en se concentrant sur l'analyse, le comportement et l'optimisation, en utilisant la programmation dynamique pour résoudre les problèmes du monde réel.
Explore la théorie du contrôle quadratique optimal linéaire, couvrant les problèmes FH-LQ et IH-LQ et l'importance de l'observabilité dans les systèmes de contrôle.
Explore l'apprentissage et le contrôle des systèmes complexes, en abordant les défis et les possibilités en matière de technologie et de recherche interdisciplinaire.
Présente les bases de l'apprentissage par renforcement, couvrant les états discrets, les actions, les politiques, les fonctions de valeur, les PDM et les politiques optimales.
Explore l'accélération de l'algorithme d'itération de valeur en utilisant la théorie de contrôle et les techniques de fractionnement de matrice pour atteindre une convergence plus rapide.
Couvre la théorie des systèmes, le contrôle de rétroaction classique et les applications dans les bâtiments écologiques et les installations de réfrigération au gaz naturel.