Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Explore la régression linéaire avec et sans covariables, couvrant des modèles capturés par des distributions indépendantes et des outils comme des sous-espaces et des projections orthogonales.
Couvre les solutions les moins carrées pour les systèmes linéaires utilisant des opérations matricielles et des systèmes normaux, illustrés par des exemples.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Introduit la régression linéaire, l'ajustement de la ligne de couverture, l'entraînement, les gradients et les fonctions multivariées, avec des exemples pratiques tels que l'achèvement du visage et la prédiction de l'âge.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.