Couvre l'analyse numérique et l'optimisation, en se concentrant sur la résolution de systèmes linéaires dans des dimensions supérieures à l'aide de méthodes à différences finies.
Couvre les méthodes itératives pour résoudre les systèmes linéaires déquations et discute des propriétés de convergence des méthodes comme la méthode de Richardson.
Couvre les méthodes itératives pour résoudre des équations linéaires et analyser la convergence, y compris le contrôle des erreurs et les matrices définies positives.
Couvre la vectorisation en Python en utilisant Numpy pour un calcul scientifique efficace, en soulignant les avantages d'éviter les boucles et de démontrer des applications pratiques.
Explore les méthodes itératives pour résoudre les systèmes linéaires, y compris les méthodes Jacobi et Gauss-Seidel, la factorisation Cholesky et le gradient conjugué préconditionné.
Explore la conception de mémoire cache, les succès, les ratés et les politiques d'expulsion dans les systèmes informatiques, en mettant l'accent sur la localité spatiale et temporelle.
Explore les valeurs propres, les vecteurs propres et les méthodes de résolution de systèmes linéaires en mettant l'accent sur les erreurs d'arrondi et les matrices de préconditionnement.
Couvre le concept de descente de gradient dans les cas scalaires, en se concentrant sur la recherche du minimum d'une fonction en se déplaçant itérativement dans la direction du gradient négatif.
Explore la méthode Extra-Gradient pour l'optimisation Primal-dual, couvrant les problèmes non convexes, les taux de convergence et les performances pratiques.