Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Introduit la modélisation fondée sur les données en mettant l'accent sur la régression, couvrant la régression linéaire, les risques de raisonnement inductif, l'APC et la régression des crêtes.
Couvre les modèles linéaires, la régression logistique, les limites de décision, k-NN, et les applications pratiques dans l'attribution des auteurs et l'analyse des données d'image.
Introduit les bases de l'apprentissage automatique supervisé, couvrant les types, les techniques, le compromis biais-variance et l'évaluation du modèle.
Introduit l'apprentissage supervisé, couvrant la classification, la régression, l'optimisation des modèles, le surajustement, et les méthodes du noyau.
Explore les classificateurs voisins les plus proches, le compromis entre les biais, la malédiction de la dimensionnalité et les limites de généralisation dans l'apprentissage automatique supervisé.
S'insère dans le compromis entre la flexibilité du modèle et la variation des biais dans la décomposition des erreurs, la régression polynomiale, le KNN, et la malédiction de la dimensionnalité.
Introduit k-Nearest Neighbors pour la classification et l'expansion des fonctionnalités pour gérer les données non linéaires via des entrées transformées.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Introduit la méthode k-Nearest Neighbors et l'expansion des fonctionnalités pour l'apprentissage non linéaire de la machine par des transformations polynômes.
Couvre l'analyse des composantes principales pour la réduction de dimensionnalité, en explorant ses applications, ses limites et l'importance de choisir les composantes appropriées.
Couvre la régression linéaire et logistique pour les tâches de régression et de classification, en mettant l'accent sur les fonctions de perte et la formation de modèle.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.