Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Explore les transformations de Lorentz, les tenseurs covariants, l'invariance de rotation et les transformations linéaires dans les espaces vectoriels.
Explore les transformations géométriques en R2 et R3, y compris les transformations linéaires, les projections, les matrices et les propriétés des traces.
Couvre les bases de l'optimisation convexe, y compris les problèmes mathématiques, les minimiseurs et les concepts de solution, en mettant l'accent sur des méthodes efficaces et des applications pratiques.