S'insère dans l'évaluation du modèle, couvrant la théorie, l'erreur de formation, l'erreur de prédiction, les méthodes de rééchantillonnage et les critères d'information.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Explore les mesures d'évaluation des modèles, les techniques de sélection, le compromis biais-variance et la gestion des distributions de données biaisées dans l'apprentissage automatique.
Couvre l'échantillonnage, la validation croisée, la quantification des performances, la détermination optimale du modèle, la détection des surajustements et la sensibilité de classification.
Introduit les bases de l'apprentissage automatique, y compris la collecte de données, l'évaluation des modèles et la normalisation des fonctionnalités.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.
Aborde l'ajustement excessif dans l'apprentissage supervisé par le biais d'études de cas de régression polynomiale et de techniques de sélection de modèles.
Explore les mesures de surajustement et de précision dans la classification des images, en soulignant limportance de la généralisation du modèle et de la précision optimale.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.