Cette vidéo est disponible exclusivement sur Mediaspace pour un public restreint. Veuillez vous connecter à Mediaspace pour y accéder si vous disposez des autorisations nécessaires.
Cette page est générée automatiquement et peut contenir des informations qui ne sont pas correctes, complètes, à jour ou pertinentes par rapport à votre recherche. Il en va de même pour toutes les autres pages de ce site. Veillez à vérifier les informations auprès des sources officielles de l'EPFL.
Explore des méthodes d'optimisation telles que la descente de gradient et les sous-gradients pour la formation de modèles d'apprentissage automatique, y compris des techniques avancées telles que l'optimisation d'Adam.
Explore la régression logistique, les fonctions de coût, la descente en gradient et la modélisation de probabilité à l'aide de la fonction sigmoïde logistique.
Discuter du compromis entre les variables biaisées dans l'apprentissage automatique, en mettant l'accent sur l'équilibre entre la complexité du modèle et l'exactitude des prédictions.
Explore les fonctions de perte, la descente de gradient et l'impact de la taille des pas sur l'optimisation dans les modèles d'apprentissage automatique, en soulignant l'équilibre délicat requis pour une convergence efficace.