Couvre les principes fondamentaux de la théorie du contrôle optimal, en se concentrant sur la définition des OCP, l'existence de solutions, les critères de performance, les contraintes physiques et le principe d'optimalité.
Explore la théorie du contrôle quadratique optimal linéaire, couvrant les problèmes FH-LQ et IH-LQ et l'importance de l'observabilité dans les systèmes de contrôle.
Explore la programmation dynamique pour un contrôle optimal, couvrant le remplacement de la machine, les chaînes de Markov, les politiques de contrôle et les problèmes quadratiques linéaires.
Explore le contrôle de l'agrégation protéique par des stratégies optimales, des inhibiteurs et une régulation spatiale à l'aide de compartiments liquides, éclairant les interventions médicamenteuses et la dynamique des agrégats.
Explore l'algorithme Kalman Predictor étendu et le filtre Kalman linéaire pour les systèmes de contrôle multivariables, en discutant des défis et des applications.
Introduit une théorie de contrôle optimale, couvrant les modèles, la discrétisation, les mesures, les conditions lagrangiennes, KKT et l'invertibilité.
Présente les bases de l'apprentissage par renforcement, couvrant les états discrets, les actions, les politiques, les fonctions de valeur, les PDM et les politiques optimales.