Explore comment les variables instrumentales corrigent les biais à partir des erreurs de mesure et de la causalité inverse dans les modèles de régression.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Explore les concepts avancés dans les modèles de régression linéaire, y compris la multicolinéarité, les tests d'hypothèses et les valeurs aberrantes de manipulation.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore des exemples spéciaux de modèles linéaires généralisés, couvrant la régression logistique, les modèles de données de comptage, les problèmes de séparation et les relations non paramétriques.
Explore les modèles paramétriques dans l'analyse des données, couvrant les estimateurs de régression, les problèmes d'optimisation et les modèles statistiques.
Explore les techniques de régression non paramétrique, y compris les splines, le compromis entre les variables de biais, les fonctions orthogonales, les ondulations et les estimateurs de modulation.
Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.