Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Explore les concepts avancés dans les modèles de régression linéaire, y compris la multicolinéarité, les tests d'hypothèses et les valeurs aberrantes de manipulation.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, y compris la formation des modèles, les fonctions de perte et les mesures d'évaluation.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
S'insère dans l'analyse de régression, en mettant l'accent sur le rôle des prédicteurs linéaires dans le rapprochement des résultats et en discutant des modèles linéaires généralisés et des techniques d'inférence causale.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Explore comment les variables instrumentales corrigent les biais à partir des erreurs de mesure et de la causalité inverse dans les modèles de régression.
Introduit une régression linéaire simple, les propriétés des résidus, la décomposition de la variance et le coefficient de détermination dans le contexte de la loi d'Okun.
Couvre la modélisation de la dépendance temporelle dans les séries chronologiques, y compris la tendance, les composantes périodiques, la régression, la stationnarité, l'autocorrélation et les essais d'indépendance.