Explore les modèles thématiques, les modèles de mélange gaussien, la répartition des dirichlets latents et l'inférence variationnelle dans la compréhension des structures latentes à l'intérieur des données.
Couvre des modèles thématiques, en se concentrant sur l'allocation de Dirichlet latente, le regroupement, les MGM, la distribution de Dirichlet, l'apprentissage LDA et les applications en humanités numériques.
Explore Latent Dirichlet Allocation, un modèle de sujet probabiliste pour le regroupement et l'analyse de documents à l'aide de distributions sur des mots et des sujets.
Explore les modèles de mélange, y compris les mélanges discrets et continus, et leur application dans la capture de l'hétérogénéité du goût dans les populations.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore les signaux de débruitage avec des modèles de mélange gaussien et l'algorithme EM, l'analyse de signal EMG et la segmentation d'image à l'aide de modèles markoviens.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.