Explore les règles de voisinage les plus proches, les défis de l'algorithme k-NN, le classificateur Bayes et l'algorithme k-means pour le regroupement.
Examine la régression probabiliste linéaire, couvrant les probabilités articulaires et conditionnelles, la régression des crêtes et l'atténuation excessive.
Explore l'apprentissage supervisé en économétrie financière, en mettant l'accent sur les algorithmes de classification comme Naive Bayes et la régression logistique.
Explore les algorithmes de classification génératifs et discriminatifs, en mettant l'accent sur leurs applications et leurs différences dans les tâches d'apprentissage automatique.
Couvre l'interprétation probabiliste de la régression logistique, la régression multinomiale, le KNN, les hyperparamètres et la malédiction de la dimensionnalité.
Déplacez-vous dans les probabilités, les statistiques, les paradoxes et les variables aléatoires, montrant leurs applications et propriétés du monde réel.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore la classification des données textuelles, en se concentrant sur des méthodes telles que les bayes naïques et les techniques de réduction de la dimensionnalité telles que l'analyse des composantes principales.
Couvre les concepts fondamentaux en probabilité et en statistiques, en mettant l'accent sur les techniques d'analyse de données et la modélisation statistique.
Couvre les méthodes d'ensemble comme les forêts aléatoires et les baies de Naive de Gaussian, expliquant comment elles améliorent la précision de prédiction et estimer les distributions gaussiennes conditionnelles.
Couvre les probabilités conditionnelles, illustrant comment les événements influencent les probabilités des uns et des autres et leurs applications dans des scénarios réels.