S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.
Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.
Explore les techniques d'apprentissage automatique pour la régression non linéaire et la prévision des tendances dans des ensembles de données complexes.
Explore la régularisation dans des modèles linéaires, y compris la régression de crête et le Lasso, les solutions analytiques et la régression de crête polynomiale.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore le surajustement, la régularisation et la validation croisée dans l'apprentissage automatique, soulignant l'importance de l'expansion des fonctionnalités et des méthodes du noyau.
Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Explore l'application de l'apprentissage automatique dans la dynamique moléculaire et les matériaux, en mettant l'accent sur la création de caractéristiques significatives et l'importance de la généralisabilité.
Couvre les prédicteurs de moyenne locaux, y compris les voisins les plus proches K et les estimateurs Nadaraya-Watson, ainsi que la régression linéaire locale et ses applications.