Couvre des exemples de modèles de décision pour lapprentissage supervisé, y compris la régression, la classification, les paires de classement et le décodage de séquence pour les modèles OCR.
Explore l'explication géométrique des raisons pour lesquelles les solutions Lasso sont rares et comment les coefficients changent avec le paramètre de régularisation.
Compare L1 et L0 pénalisation en régression linéaire avec des conceptions orthogonales en utilisant des algorithmes gourmands et des comparaisons empiriques.
Introduit des bases de régression linéaire du point de vue de la minimisation empirique des risques, couvrant la perte carrée, le prétraitement des données et le calcul du gradient.
Explore la sélection des modèles en utilisant les critères AIC et BIC, en répondant à différentes questions et à l'importance de la parcimonie dans la sélection du meilleur modèle.
Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Introduit des techniques pour obtenir des estimations impartiales du risque des prédicteurs appris et leur application pour l'accord hyperparamétrique.
Couvre l'interprétation des estimations du risque de validation croisée et la construction d'un prédicteur final à partir des résultats de validation croisée.
Explore diverses approches de régularisation, y compris la quasi-norme L0 et la méthode Lasso, en discutant de la sélection des variables et des algorithmes efficaces pour l'optimisation.
Couvre les prédicteurs de moyenne locaux, y compris les voisins les plus proches K et les estimateurs Nadaraya-Watson, ainsi que la régression linéaire locale et ses applications.