Explore la programmation dynamique pour un contrôle optimal, en se concentrant sur la stabilité, la politique stationnaire et les solutions récursives.
Explore les sujets d'apprentissage avancés du renforcement, y compris les politiques, les fonctions de valeur, la récursion de Bellman et le contrôle de la TD sur les politiques.
Présente les bases de l'apprentissage par renforcement, couvrant les états discrets, les actions, les politiques, les fonctions de valeur, les PDM et les politiques optimales.
Explore le contrôle optimal stochastique, mettant l'accent sur la consommation et l'investissement optimaux, le théorème de représentation de Martingale et le théorème de vérification.
Explore la stabilité des équations différentielles ordinaires, en se concentrant sur la dépendance des solutions, les données critiques, la linéarisation et le contrôle des systèmes non linéaires.
Introduit une conception LQR distribuée sous-optimale pour les systèmes couplés physiquement avec des garanties de stabilité et des comparaisons de simulation.
Explore la conception de poids et l'analyse de stabilité dans les systèmes de contrôle multivariables, en mettant l'accent sur la théorie Lyapunov et la stabilité LQR.
Explore la régulation quadratique linéaire pour un contrôle optimal des systèmes linéaires, en se concentrant sur la minimisation d'une fonction de coût quadratique pour déplacer l'état du système vers zéro.
Explore la programmation dynamique pour optimiser les processus de prise de décision au fil du temps, en utilisant des exemples concrets tels que l'extraction de pétrole et la négociation d'actions.
Explore les processus stochastiques contrôlés, en se concentrant sur l'analyse, le comportement et l'optimisation, en utilisant la programmation dynamique pour résoudre les problèmes du monde réel.