Explore la descente de gradient stochastique, couvrant les taux de convergence, l'accélération et les applications pratiques dans les problèmes d'optimisation.
Analyse les problèmes d'optimisation sans contrainte à l'aide de méthodes de descente de gradient et explore les taux de convergence et le comportement de l'algorithme.
Discute de l'interprétation des courbes de convergence dans l'optimisation, de l'identification des bogues en fonction des taux de convergence et de la compréhension des algorithmes d'optimisation.
Explore la minimisation non lisse, la détection compressive, la récupération de signal clairsemée et les représentations simples à l'aide d'ensembles atomiques et d'atomes.
Explore la preuve de convergence de la descente de gradient stochastique avec des fonctions fortement convexes et l'impact de la taille des pas sur les propriétés de convergence.
Explore les algorithmes d'optimisation composite, y compris les opérateurs proximaux et les méthodes de gradient, avec des exemples et des limites théoriques.
Introduit des opérateurs proximaux, des méthodes de gradient et une optimisation contrainte, explorant leur convergence et leurs applications pratiques.
Explore les compromis entre les données et le temps dans les problèmes de calcul, en mettant l'accent sur les rendements décroissants et les compromis continus.
Explore les compromis d'optimisation, la réduction de la variance, la dimension statistique et l'analyse de convergence dans les algorithmes d'optimisation.
Explore les mathématiques de l'apprentissage profond, les réseaux neuronaux et leurs applications dans les tâches de vision par ordinateur, en abordant les défis et le besoin de robustesse.
Explore les défis de l'apprentissage profond et des applications d'apprentissage automatique, couvrant la surveillance, la confidentialité, la manipulation, l'équité, l'interprétabilité, l'efficacité énergétique, les coûts et la généralisation.
Volkan Cevher se penche sur les mathématiques de l’apprentissage profond, explorant la complexité des modèles, les compromis de risque et le mystère de la généralisation.