Discute des techniques d'optimisation dans l'apprentissage automatique, en se concentrant sur la descente de gradient stochastique et ses applications dans les problèmes contraints et non convexes.
Couvre les bases de l'optimisation contrainte, y compris les directions tangentes, les sous-problèmes de la région de confiance et les conditions d'optimalité nécessaires.
Explore la somme des polynômes carrés et la programmation semi-définie dans l'optimisation polynomiale, permettant l'approximation des polynômes non convexes avec SDP convexe.
Explore les biais implicites, la descente de gradient, la stabilité dans les algorithmes d'optimisation et les limites de généralisation dans l'apprentissage automatique.
Présente un nouvel algorithme pour des problèmes de transport optimaux, montrant des améliorations de vitesse et de performance, avec des applications dans l'adaptation de domaine et les modèles générateurs.
Explore l'optimisation robuste en radiothérapie, en mettant l'accent sur l'optimisation de la dose et les compromis entre les solutions nominales et robustes.
Explore l'optimisation non linéaire, en se concentrant sur la méthode de Newton et les méthodes de descente pour trouver des solutions optimales efficacement.
Explore l'optimisation robuste dans la radiothérapie et les machines vectorielles de soutien, en mettant l'accent sur les scénarios les plus défavorables et l'utilisation de règles de décision linéaires.
Fournit un aperçu de l'économie de l'environnement, couvrant la structure des cours, les concepts clés et la relation entre l'activité économique et les questions environnementales.