Couvre les méthodes itératives pour résoudre des équations linéaires et analyser la convergence, y compris le contrôle des erreurs et les matrices définies positives.
Introduit des méthodes itératives pour les équations linéaires, les critères de convergence, le gradient des formes quadratiques et les champs de force classiques dans les systèmes atomistiques complexes.
Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Explore les méthodes itératives pour les équations linéaires, y compris les méthodes Jacobi et Gauss-Seidel, les critères de convergence et la méthode du gradient conjugué.
Explore l'optimalité des taux de convergence dans l'optimisation convexe, en mettant l'accent sur la descente accélérée des gradients et les méthodes d'adaptation.
Explore les méthodes de descente de gradient pour les problèmes convexes lisses et non convexes, couvrant les stratégies itératives, les taux de convergence et les défis d'optimisation.
Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.
Introduit la méthode de Newton pour résoudre les équations non linéaires itérativement, en soulignant sa convergence rapide, mais aussi son incapacité potentielle à converger dans certains cas.