Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Introduit des modèles linéaires dans l'apprentissage automatique, couvrant les bases, les modèles paramétriques, la régression multi-sorties et les mesures d'évaluation.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, y compris la formation des modèles, les fonctions de perte et les mesures d'évaluation.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.
Explore l'inférence statistique pour les modèles linéaires, couvrant l'ajustement du modèle, l'estimation des paramètres et la décomposition de la variance.
Couvre les techniques d'apprentissage supervisées et non supervisées dans l'apprentissage automatique, en mettant en évidence leurs applications dans la finance et l'analyse environnementale.
Explore la sélection des modèles dans la régression des moindres carrés, en abordant les défis de multicollinéarité et en introduisant des techniques de rétrécissement.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
S'insère dans l'évaluation du modèle, couvrant la théorie, l'erreur de formation, l'erreur de prédiction, les méthodes de rééchantillonnage et les critères d'information.
Explore Ridge et Lasso Regression pour la régularisation dans les modèles d'apprentissage automatique, en mettant l'accent sur le réglage hyperparamétrique et la visualisation des coefficients des paramètres.