Introduit les bases de la science des données, couvrant les arbres de décision, les progrès de l'apprentissage automatique et l'apprentissage par renforcement profond.
Discute des arbres de décision et des forêts aléatoires, en se concentrant sur leur structure, leur optimisation et leur application dans les tâches de régression et de classification.
Couvre les bases de l'apprentissage automatique, l'apprentissage supervisé et non supervisé, diverses techniques comme les voisins k-nearest et les arbres de décision, et les défis de l'ajustement excessif.
Explore la classification des images en utilisant des arbres de décision et des forêts aléatoires pour réduire la variance et améliorer la robustesse du modèle.
Discute des arbres de régression, des méthodes d'ensemble et de leurs applications dans la prévision des prix des voitures d'occasion et des rendements des stocks.
Couvre les méthodes d'ensemble comme les forêts aléatoires et les baies de Naive de Gaussian, expliquant comment elles améliorent la précision de prédiction et estimer les distributions gaussiennes conditionnelles.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Explore les arbres de décision dans l'apprentissage automatique, leur flexibilité, les critères d'impureté et introduit des méthodes de renforcement comme Adaboost.
Explore l'apprentissage supervisé en mettant l'accent sur les méthodes de régression, y compris l'ajustement des modèles, la régularisation, la sélection des modèles et l'évaluation du rendement.
Explore les forêts aléatoires en tant que méthode d'ensemble puissante pour la classification, en discutant des stratégies d'ensachage, d'empilage, de renforcement et d'échantillonnage.
Introduit les bases de l'apprentissage automatique supervisé, couvrant les types, les techniques, le compromis biais-variance et l'évaluation du modèle.
Couvre les forêts de décision, la formation, les apprenants faibles, l'entropie, la stimulation, l'estimation de pose 3D et les applications pratiques.
Introduit des arbres de décision pour la classification, couvrant l'entropie, la qualité fractionnée, l'indice Gini, les avantages, les inconvénients, et le classificateur forestier aléatoire.
Explore l'apprentissage supervisé en économétrie financière, en mettant l'accent sur les algorithmes de classification comme Naive Bayes et la régression logistique.
Discute des méthodes d'estimation en probabilité et en statistiques, en se concentrant sur l'estimation du maximum de vraisemblance et les intervalles de confiance.