Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Présente les principes fondamentaux de la régression dans l'apprentissage automatique, couvrant la logistique des cours, les concepts clés et l'importance des fonctions de perte dans l'évaluation des modèles.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Couvre les distributions conditionnelles et les corrélations dans les statistiques multivariées, y compris la variance partielle et la covariance, avec les applications aux distributions non normales.
Introduit la régression linéaire, l'ajustement de la ligne de couverture, l'entraînement, les gradients et les fonctions multivariées, avec des exemples pratiques tels que l'achèvement du visage et la prédiction de l'âge.
Couvre l'analyse de régression pour les données de désassemblage à l'aide de la modélisation de régression linéaire, des transformations, des interprétations des coefficients et des modèles linéaires généralisés.
Couvre la régression polynôme, la descente en gradient, le surajustement, le sous-ajustement, la régularisation et la mise à l'échelle des caractéristiques dans les algorithmes d'optimisation.
Enquêter sur la façon dont le mois de naissance influence le succès des athlètes, analyser l'ensemble de données des athlètes japonais pour explorer les tendances dans les dates de naissance et les professions.