Explore la théorie et les applications de l'optimisation convexe, couvrant des sujets tels que la fonction log-déterminante, les transformations affines et l'entropie relative.
Couvre des méthodes de descente de gradient plus rapides et une descente de gradient projetée pour une optimisation contrainte dans l'apprentissage automatique.
Couvre l'approche de programmation linéaire de l'apprentissage par renforcement, en se concentrant sur ses applications et ses avantages dans la résolution des processus décisionnels de Markov.
Explore l'optimisation des polynômes, y compris l'écriture de polynômes en tant que produits matriciels et la résolution d'équations linéaires pour la non-négativité.