Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Couvre les concepts fondamentaux de probabilité et de statistiques, en se concentrant sur l'analyse des données, la représentation graphique et les applications pratiques.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.
Couvre les bases de la régression linéaire, la méthode OLS, les valeurs prédites, les résidus, la notation matricielle, la bonté d'adaptation, les tests d'hypothèse et les intervalles de confiance.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Explore les concepts avancés dans les modèles de régression linéaire, y compris la multicolinéarité, les tests d'hypothèses et les valeurs aberrantes de manipulation.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.