Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.
S'insère dans le compromis entre la complexité du modèle et le risque, les limites de généralisation, et les dangers d'un ajustement excessif des classes de fonctions complexes.
Introduit les principes fondamentaux de l'apprentissage statistique, couvrant l'apprentissage supervisé, la théorie de la décision, la minimisation des risques et l'ajustement excessif.
Couvre le surajustement, la régularisation et la validation croisée dans l'apprentissage des machines, explorant le réglage des courbes polynômes, l'expansion des fonctionnalités, les fonctions du noyau et la sélection des modèles.
Couvre la divergence Kullback-Leibler, la régularisation et les statistiques bayésiennes pour lutter contre le surajustement dans les modèles d'apprentissage automatique.
Couvre les apprenants faibles dans la stimulation, l'algorithme AdaBoost, les inconvénients, les apprenants faibles simples, les variantes de stimulation et les ondelettes Viola-Jones Haar-Like.
Explore la règle discriminatoire gaussienne pour la classification à l'aide de modèles de mélange gaussien et discute des limites de dessin et de la complexité du modèle.
Explore les arbres de décision, l'ajustement excessif et la randomisation dans l'apprentissage supervisé, en soulignant l'importance de la gestion de la variance et de la sélection des fonctionnalités.
Explore les arbres de décision dans l'apprentissage automatique, leur flexibilité, les critères d'impureté et introduit des méthodes de renforcement comme Adaboost.
Explore le surajustement dans la régression polynomiale, en soulignant l'importance de la généralisation dans l'apprentissage automatique et les statistiques.
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Explore les méthodes de descente de gradient pour l'entraînement des réseaux de neurones artificiels, couvrant l'apprentissage supervisé, les réseaux monocouches et les règles modernes de descente de gradient.
Explore l'évaluation de la précision et de la robustesse de la machine et de l'homme sur ImageNet, en soulignant les progrès, les défis et la nécessité d'améliorer.
Discuter de la façon dont l'apprentissage de caractéristiques éparses peut conduire à une suradaptation dans les réseaux neuraux malgré des preuves empiriques de généralisation.