Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore les principes fondamentaux de la régression linéaire, en soulignant limportance des techniques de régularisation pour améliorer la performance du modèle.
Couvre la régression linéaire, la régularisation, les problèmes inverses, la tomographie par rayons X, la reconstruction d'images, l'inférence de données et l'intensité du détecteur.
Explore la Décomposition de la Valeur Singulière et son rôle dans l'apprentissage non supervisé et la réduction de dimensionnalité, en mettant l'accent sur ses propriétés et applications.