Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
Introduit une régression linéaire et logistique, couvrant les modèles paramétriques, la prédiction multi-sorties, la non-linéarité, la descente de gradient et les applications de classification.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Explore le surajustement, la validation croisée et la régularisation dans l'apprentissage automatique, en mettant l'accent sur la complexité du modèle et l'importance de la force de régularisation.
Explore la régression logistique pour prédire les proportions de la végétation dans la région amazonienne grâce à l'analyse des données de télédétection.
Explore les fondamentaux de régression logistique, y compris les fonctions de coût, la régularisation et les limites de classification, avec des exemples pratiques utilisant scikit-learn.
Couvre la décomposition des erreurs, la régression polynomiale et les voisins K les plus proches pour la modélisation flexible et les prédictions non linéaires.
Explore les modèles linéaires, la régression logistique, la descente en gradient et la régression logistique multi-classes avec des applications pratiques et des exemples.