Couvre les concepts de lunettes de spin et d'estimation bayésienne, en se concentrant sur l'observation et la déduction de l'information d'un système de près.
Introduit la probabilité, les statistiques, les distributions, l'inférence, la probabilité et la combinatoire pour étudier les événements aléatoires et la modélisation en réseau.
Couvre les techniques de réduction de dimensionnalité, de regroupement et d'estimation de la densité, y compris l'ACP, les moyennes K, le MGM et le décalage moyen.
Introduit des techniques de clustering d'apprentissage automatique non supervisées telles que K-means, Gaussian Mixture Models et DBSCAN, expliquant leurs algorithmes et leurs applications.
Explore linférence de vraisemblance maximale, comparant les modèles basés sur les ratios de vraisemblance et démontrant avec un exemple de pièce de monnaie.
Explique le regroupement des moyennes k, en attribuant des points de données à des grappes en fonction de la proximité et en minimisant les distances carrées à l'intérieur des grappes.
Explore l'inférence bayésienne pour la précision dans le modèle gaussien avec la moyenne connue, en utilisant un précédent Gamma et en discutant des précédents subjectifs vs objectifs.