Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre les solutions les moins carrées pour les systèmes linéaires utilisant des opérations matricielles et des systèmes normaux, illustrés par des exemples.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.
Explore l'apprentissage supervisé en économétrie financière, couvrant la régression linéaire, l'ajustement du modèle, les problèmes potentiels, les fonctions de base, la sélection de sous-ensembles, la validation croisée, la régularisation et les forêts aléatoires.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.