Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre l'apprentissage supervisé en mettant l'accent sur la régression linéaire, y compris des sujets comme la classification numérique, la détection des pourriels et la prédiction de la vitesse du vent.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Explore les fondamentaux de la régression linéaire, la formation des modèles, l'évaluation et les mesures du rendement, en soulignant l'importance de la R2, du MSE et de l'EAM.
Présente les principes fondamentaux de la régression dans l'apprentissage automatique, couvrant la logistique des cours, les concepts clés et l'importance des fonctions de perte dans l'évaluation des modèles.
Couvre les bases de la régression linéaire et la façon de résoudre les problèmes d'estimation en utilisant les moindres carrés et la notation matricielle.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Couvre la descente du gradient stochastique, la régression linéaire, la régularisation, l'apprentissage supervisé et la nature itérative de la descente du gradient.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Couvre la régression linéaire et pondérée, les paramètres optimaux, les solutions locales, l'application SVR et la sensibilité des techniques de régression.