Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.
Couvre l'estimation, le rétrécissement et la pénalisation des statistiques pour la science des données, soulignant l'importance d'équilibrer le biais et la variance dans l'estimation des modèles.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, soulignant l'importance de l'expansion des fonctionnalités et des méthodes du noyau.
Explore la régularisation dans des modèles linéaires, y compris la régression de crête et le Lasso, les solutions analytiques et la régression de crête polynomiale.
Couvre la pénalisation dans la régression des crêtes, en mettant l'accent sur le compromis entre le biais et la variance dans les modèles de régression.
Explore la sélection des modèles dans la régression des moindres carrés, en abordant les défis de multicollinéarité et en introduisant des techniques de rétrécissement.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.
Explore le compromis entre les variables de biais dans l'estimation des crêtes, montrant comment un peu de biais peut augmenter l'erreur carrée moyenne en réduisant la variance.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.