Couvre les principes fondamentaux de la théorie du contrôle optimal, en se concentrant sur la définition des OCP, l'existence de solutions, les critères de performance, les contraintes physiques et le principe d'optimalité.
Explore le contrôle optimal stochastique, mettant l'accent sur la consommation et l'investissement optimaux, le théorème de représentation de Martingale et le théorème de vérification.
Présente les bases de l'apprentissage par renforcement, couvrant les états discrets, les actions, les politiques, les fonctions de valeur, les PDM et les politiques optimales.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Explore les sujets d'apprentissage avancés du renforcement, y compris les politiques, les fonctions de valeur, la récursion de Bellman et le contrôle de la TD sur les politiques.
Couvre les méthodes Monte Carlo, la réduction de la variance et le contrôle optimal stochastique, explorant les techniques de simulation, l'efficacité et la dynamique d'investissement.
Explore la programmation dynamique pour un contrôle optimal, en se concentrant sur la stabilité, la politique stationnaire et les solutions récursives.
Explore la programmation dynamique pour un contrôle optimal, couvrant le remplacement de la machine, les chaînes de Markov, les politiques de contrôle et les problèmes quadratiques linéaires.
Couvre les problèmes de contrôle optimal en se concentrant sur les conditions nécessaires, l'existence de contrôles optimaux et les solutions numériques.
Couvre la méthode de Newton sur les variétés riemanniennes, en se concentrant sur les conditions d'optimalité du second ordre et la convergence quadratique.
Explore la descente de gradient riemannienne, couvrant les expansions de Taylor, les conditions d'optimalité, les modèles d'algorithmes, la recherche de lignes et les points critiques.