Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Explore l'évaluation de la précision et de la robustesse de la machine et de l'homme sur ImageNet, en soulignant les progrès, les défis et la nécessité d'améliorer.
Explore le sous-ajustement, le surajustement, les hyperparamètres, le compromis biais-variance et l'évaluation de modèle dans l'apprentissage automatique.
Examine la généralisation des classificateurs ImageNet, les applications critiques pour la sécurité, le surajustement et la fiabilité des modèles d'apprentissage automatique.
Introduit les bases de l'apprentissage automatique, y compris la collecte de données, l'évaluation des modèles et la normalisation des fonctionnalités.
Introduit des concepts d'apprentissage automatique appliqués tels que la collecte de données, l'ingénierie des caractéristiques, la sélection des modèles et les mesures d'évaluation du rendement.
Introduit les bases de l'apprentissage automatique, couvrant l'apprentissage supervisé et non supervisé, la régression linéaire et la compréhension des données.
Introduit un cours sur l'apprentissage automatique des données comportementales à l'EPFL, couvrant les algorithmes ML, le traitement des données et l'évaluation des modèles.
Couvre les problèmes de surajustement, de sélection de modèle, de validation, de validation croisée, de régularisation, de régression du noyau et de représentation des données.
Discute du surajustement, de la sélection des modèles, de la validation croisée, de la régularisation, des représentations de données et de la gestion des données déséquilibrées dans l'apprentissage automatique.
Fournit une vue d'ensemble des concepts d'apprentissage profond, en se concentrant sur les données, l'architecture du modèle et les défis liés à la gestion de grands ensembles de données.
Couvre le surajustement, la régularisation et la validation croisée dans l'apprentissage des machines, explorant le réglage des courbes polynômes, l'expansion des fonctionnalités, les fonctions du noyau et la sélection des modèles.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Explore la théorie de la généralisation dans l'apprentissage automatique, en abordant les défis dans les espaces de dimension supérieure et le compromis entre les biais et les variables.