Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Explore les arbres de décision et de régression, les mesures d'impuretés, les algorithmes d'apprentissage et les implémentations, y compris les arbres d'inférence conditionnelle et la taille des arbres.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Présente les principes fondamentaux de la régression dans l'apprentissage automatique, couvrant la logistique des cours, les concepts clés et l'importance des fonctions de perte dans l'évaluation des modèles.
Explore la régression linéaire probabiliste et la régression de processus gaussien, en mettant l'accent sur la sélection du noyau et l'ajustement hyperparamétrique pour des prédictions précises.
Enquêter sur la façon dont le mois de naissance influence le succès des athlètes, analyser l'ensemble de données des athlètes japonais pour explorer les tendances dans les dates de naissance et les professions.
Couvre les principes et les applications de la régression linéaire, en mettant l'accent sur la construction d'un modèle simple pour faire des suggestions.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Couvre les prédicteurs de moyenne locaux, y compris les voisins les plus proches K et les estimateurs Nadaraya-Watson, ainsi que la régression linéaire locale et ses applications.
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Explore la régression non paramétrique pour les réseaux, couvrant l'analyse des données d'objets, les graphiques de réseaux, les distances extrinsèques et les projections pratiques.
Couvre les arbres de décision pour la régression et la classification, expliquant la construction des arbres, la sélection des caractéristiques et les critères d'induction.
Explore les techniques d'apprentissage automatique pour la régression non linéaire et la prévision des tendances dans des ensembles de données complexes.
Introduit la régression linéaire, l'ajustement de la ligne de couverture, l'entraînement, les gradients et les fonctions multivariées, avec des exemples pratiques tels que l'achèvement du visage et la prédiction de l'âge.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Explore la construction de modèles dans la régression linéaire, couvrant des techniques comme la régression par étapes et la régression par crête pour traiter la multicolinéarité.