Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Couvre l'inférence, la construction de modèles, la sélection de variables, la robustesse, la régression régularisée, les modèles mixtes et les méthodes de régression.
Couvre la régression non paramétrique à l'aide de techniques d'estimation basées sur le noyau pour modéliser des relations complexes entre les variables.
Explore les concepts avancés dans les modèles de régression linéaire, y compris la multicolinéarité, les tests d'hypothèses et les valeurs aberrantes de manipulation.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
S'insère dans l'analyse de régression, en mettant l'accent sur le rôle des prédicteurs linéaires dans le rapprochement des résultats et en discutant des modèles linéaires généralisés et des techniques d'inférence causale.
Couvre la modélisation de la dépendance temporelle dans les séries chronologiques, y compris la tendance, les composantes périodiques, la régression, la stationnarité, l'autocorrélation et les essais d'indépendance.
Couvre les bases de la régression linéaire dans l'apprentissage automatique, y compris la formation des modèles, les fonctions de perte et les mesures d'évaluation.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.