Explore la théorie de la généralisation dans l'apprentissage automatique, en abordant les défis dans les espaces de dimension supérieure et le compromis entre les biais et les variables.
Explore le compromis entre le biais et la variation dans l'apprentissage automatique, en mettant l'accent sur l'équilibre entre le biais et la variance dans les prédictions du modèle.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore les courbes de double descente et la surparamétrisation dans les modèles d'apprentissage automatique, en soulignant les risques et les avantages.
Discuter du compromis entre les variables biaisées dans l'apprentissage automatique, en mettant l'accent sur l'équilibre entre la complexité du modèle et l'exactitude des prédictions.
S'insère dans le compromis entre la complexité du modèle et le risque, les limites de généralisation, et les dangers d'un ajustement excessif des classes de fonctions complexes.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.
Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Explore limpact de la complexité du modèle sur la qualité de la prédiction à travers le compromis biais-variance, en mettant laccent sur la nécessité déquilibrer le biais et la variance pour une performance optimale.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre le surajustement, la régularisation et la validation croisée dans l'apprentissage des machines, explorant le réglage des courbes polynômes, l'expansion des fonctionnalités, les fonctions du noyau et la sélection des modèles.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Explore les splines, en mettant l'accent sur la méthode des moindres carrés pour interpoler les splines et en démontrant son application à l'aide de MATLAB.