Se plonge dans la programmation dynamique en mettant l'accent sur la multiplication de chaînes matricielles et le plus long problème de sous-séquence commune.
Explore les processus stochastiques contrôlés, en se concentrant sur l'analyse, le comportement et l'optimisation, en utilisant la programmation dynamique pour résoudre les problèmes du monde réel.
Explore le concept de sous-séquence commune la plus longue et son algorithme de programmation dynamique, en mettant l'accent sur une sous-structure optimale et une résolution efficace des problèmes.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Explore la programmation dynamique pour un contrôle optimal, couvrant le remplacement de la machine, les chaînes de Markov, les politiques de contrôle et les problèmes quadratiques linéaires.
Explore les sujets d'apprentissage avancés du renforcement, y compris les politiques, les fonctions de valeur, la récursion de Bellman et le contrôle de la TD sur les politiques.
Explore la programmation dynamique du problème Knapsack, en discutant des stratégies, des algorithmes, de la dureté du NP et de l'analyse de la complexité temporelle.
Introduit l'apprentissage par renforcement, couvrant ses définitions, ses applications et ses fondements théoriques, tout en décrivant la structure et les objectifs du cours.