Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore les arbres de décision pour la classification, l'entropie, le gain d'information, l'encodage à chaud, l'optimisation de l'hyperparamètre et les forêts aléatoires.
Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Explore l'évaluation des modèles avec K-Nearest Neighbor, couvrant la sélection optimale de k, les mesures de similarité et les mesures de performance pour les modèles de classification.
Explore la règle discriminatoire gaussienne pour la classification à l'aide de modèles de mélange gaussien et discute des limites de dessin et de la complexité du modèle.
Explore l'apprentissage supervisé en économétrie financière, en mettant l'accent sur les algorithmes de classification comme Naive Bayes et la régression logistique.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Couvre l'échantillonnage, la validation croisée, la quantification des performances, la détermination optimale du modèle, la détection des surajustements et la sensibilité de classification.
Introduit des algorithmes ML non linéaires, couvrant le voisin le plus proche, k-NN, ajustement des courbes polynômes, complexité du modèle, surajustement, et régularisation.
Introduit des modèles linéaires pour l'apprentissage supervisé, couvrant le suréquipement, la régularisation et les noyaux, avec des applications dans les tâches d'apprentissage automatique.
Couvre les défis de classification d'images, les concepts d'apprentissage automatique, la régression linéaire et l'approche voisine la plus proche dans les véhicules autonomes.
Introduit les bases de l'apprentissage automatique, couvrant la classification supervisée, les limites de décision et l'ajustement de la courbe polynomiale.
Couvre le classificateur k-NN, la reconnaissance numérique manuscrite, la réduction de données, les applications, la construction de graphes, les limitations et la malédiction de la dimensionnalité.