Couvre les méthodes de recherche de ligne de gradient et les techniques d'optimisation en mettant l'accent sur les conditions Wolfe et la définition positive.
Explore l'estimation des erreurs dans les méthodes numériques pour résoudre les équations différentielles ordinaires, en mettant l'accent sur l'impact des erreurs sur la précision et la stabilité de la solution.
Couvre la dérivation de l'équation du mouvement, de l'interpolation, de l'équation de Newton et de la conservation de l'énergie dans la modélisation des éléments finis.
Explore la stabilité zéro et la stabilité absolue dans les méthodes numériques, y compris Forward Euler, Backward Euler, Crank-Nicolson, et les méthodes Heun.
Explore explicitement les méthodes de Runge-Kutta stabilisées et leur application aux problèmes inverses bayésiens, couvrant l'optimisation, l'échantillonnage et les expériences numériques.
Couvre les méthodes numériques pour résoudre les problèmes de valeurs limites en utilisant des méthodes de différence finie, de FFT et d'éléments finis.