Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Fournit un aperçu des modèles linéaires généralisés, en mettant l'accent sur les modèles de régression logistique et de Poisson, et leur mise en oeuvre dans R.
Introduit les bases de l'apprentissage supervisé, en mettant l'accent sur la régression logistique, la classification linéaire et la maximisation de la probabilité.
Couvre les bases de la régression linéaire, des variables instrumentales, de l'hétéroscédasticité, de l'autocorrélation et de l'estimation du maximum de vraisemblance.
Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.
Explore les modèles linéaires, la régression logistique, la descente en gradient et la régression logistique multi-classes avec des applications pratiques et des exemples.
Couvre les bases de la régression linéaire, y compris l'OLS, l'hétéroskédasticité, l'autocorrélation, les variables instrumentales, l'estimation maximale de la probabilité, l'analyse des séries chronologiques et les conseils pratiques.
Explore la régression linéaire dans une perspective d'inférence statistique, couvrant les modèles probabilistes, la vérité au sol, les étiquettes et les estimateurs de probabilité maximale.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Couvertures Modèles linéaires généralisés, probabilité, déviance, fonctions de liaison, méthodes d'échantillonnage, régression de Poisson, surdispersion et modèles de régression alternatifs.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.