Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Couvre la régression linéaire, la régression pondérée, la régression pondérée localement, la régression vectorielle de soutien, la manipulation du bruit et la cartographie oculaire à l'aide de SVR.
Couvre la méthode ANOVA, en se concentrant sur la partition de la somme totale des carrés en composantes de traitement et d'erreur, les calculs carrés moyens, les statistiques de Fisher et la distribution F.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Explore la régression quantile pour la prévision des prix de l'électricité en utilisant des données de séries chronologiques, la régularisation et l'astuce du noyau.
Explore l'explication géométrique des raisons pour lesquelles les solutions Lasso sont rares et comment les coefficients changent avec le paramètre de régularisation.
Explore la construction de modèles dans la régression linéaire, couvrant des techniques comme la régression par étapes et la régression par crête pour traiter la multicolinéarité.
Explore la sélection des modèles dans la régression des moindres carrés, en abordant les défis de multicollinéarité et en introduisant des techniques de rétrécissement.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.