Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.
Couvre les modèles linéaires, y compris la régression, les dérivés, les gradients, les hyperplans et la transition de classification, en mettant laccent sur la minimisation des risques et des mesures dévaluation.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore la théorie de la décomposition de la valeur singulière, les solutions de systèmes linéaires, les moindres carrés et les concepts d'ajustement des données.
Couvre les solutions les moins carrées pour les systèmes linéaires utilisant des opérations matricielles et des systèmes normaux, illustrés par des exemples.
Couvre les concepts fondamentaux de l'algèbre linéaire, y compris les équations linéaires, les opérations matricielles, les déterminants et les espaces vectoriels.
Couvre des exemples de modèles de décision pour lapprentissage supervisé, y compris la régression, la classification, les paires de classement et le décodage de séquence pour les modèles OCR.
Discute de la méthode de gradient pour l'optimisation, en se concentrant sur son application dans l'apprentissage automatique et les conditions de convergence.