Explore l'optimisation stochastique, les méthodes de gradient adaptatif, les systèmes de recommandation et la factorisation matricielle dans les matrices d'évaluation des éléments utilisateurs.
Plongez dans l'optimisation du deep learning, les défis, les variantes SGD, les points critiques, les réseaux surparamétrés et les méthodes adaptatives.
Couvre l'évaluation de la stabilité des protéines en utilisant RFP et GFP, la cytométrie de flux, la mutagénèse, les rapporteurs de calcium et les expériences CRISPR-Cas9.
Couvre l'optimalité des taux de convergence dans les méthodes de descente en gradient accéléré et stochastique pour les problèmes d'optimisation non convexes.
Couvre le cours de simulations stochastiques, le modèle de file d'attente G/G/1, la finance computationnelle, les statistiques, la physique et l'inférence bayésienne.
Explore la simulation stochastique, les événements rares et la méthode Crude Monte Carlo, en soulignant l'importance des seuils et des expressions de forme fermée.
Explore la prise de décision dans l'incertitude, en se concentrant sur la thèse de doctorat posthume de Kilian Schindler sur l'optimisation stochastique évolutive et la réduction de scénarios.
Couvre l'optimisation non convexe, les problèmes d'apprentissage profond, la descente stochastique des gradients, les méthodes d'adaptation et les architectures réseau neuronales.
Explore l'impact du bruit de gradient sur les algorithmes d'optimisation, en se concentrant sur les fonctions de risque lisses et non lisses et la dérivation des moments de bruit de gradient.
Explore l'optimisation non convexe dans l'apprentissage profond, couvrant les points critiques, la convergence SGD, les points de selle et les méthodes de gradient adaptatif.
Explore l'optimisation adaptative efficace dans la mémoire pour l'apprentissage à grande échelle et les défis de la mémoire dans la formation de grands modèles.
Couvre les techniques de réduction de la variance dans l'optimisation, en mettant l'accent sur la descente en gradient et les méthodes de descente en gradient stochastique.
Explore la quantification de l'incertitude à l'aide des méthodes de Quasi Monte Carlo et des mesures des écarts pour l'approximation intégrale et l'estimation du volume.