Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Introduit les bases de l'apprentissage automatique, y compris la collecte de données, l'évaluation des modèles et la normalisation des fonctionnalités.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Explore le sous-ajustement, le surajustement, les hyperparamètres, le compromis biais-variance et l'évaluation de modèle dans l'apprentissage automatique.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Introduit des concepts d'apprentissage automatique appliqués tels que la collecte de données, l'ingénierie des caractéristiques, la sélection des modèles et les mesures d'évaluation du rendement.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.
Explore la généralisation, la sélection des modèles et la validation dans l'apprentissage automatique, en soulignant l'importance de l'évaluation impartiale des modèles.
S'insère dans l'évaluation du modèle, couvrant la théorie, l'erreur de formation, l'erreur de prédiction, les méthodes de rééchantillonnage et les critères d'information.
Plongez dans l'importance des fonctionnalités, de l'évolution des modèles, des défis d'étiquetage et de la sélection des modèles dans l'apprentissage automatique.
Explore la classification des images en utilisant des arbres de décision et des forêts aléatoires pour réduire la variance et améliorer la robustesse du modèle.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.