Couvre les méthodes de prédiction sans modèle dans l'apprentissage par renforcement, en se concentrant sur Monte Carlo et les différences temporelles pour estimer les fonctions de valeur sans connaissance de la dynamique de transition.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Couvre les méthodes de gradient de politique dans l'apprentissage du renforcement, en se concentrant sur les techniques d'optimisation et les applications pratiques comme le problème du poteau.
Couvre l’apprentissage par renforcement d’horizons finis, les politiques non stationnaires et la variante optimiste de l’Optimisation Proximale des Politiques (OPPO).
Discute des techniques avancées d'apprentissage par renforcement, en se concentrant sur des méthodes profondes et robustes, y compris des cadres d'acteur-critique et des stratégies d'apprentissage contradictoire.
Introduit l'apprentissage par renforcement, couvrant ses définitions, ses applications et ses fondements théoriques, tout en décrivant la structure et les objectifs du cours.