Couvre des modèles thématiques, en se concentrant sur l'allocation de Dirichlet latente, le regroupement, les MGM, la distribution de Dirichlet, l'apprentissage LDA et les applications en humanités numériques.
Présente l'attribution des dirichlets latents pour la modélisation des sujets dans les documents, en discutant de son processus, de ses demandes et de ses limites.
Explore les modèles thématiques, les modèles de mélange gaussien, la répartition des dirichlets latents et l'inférence variationnelle dans la compréhension des structures latentes à l'intérieur des données.
Discute de la distribution de Dirichlet, de l'inférence bayésienne, de la moyenne postérieure et de la variance, des antécédents conjugués et de la distribution prédictive dans le modèle de Dirichlet-Multinôme.
Explore les intégrations de mots, les modèles de sujet, Word2vec, les réseaux bayésiens et les méthodes d'inférence telles que l'échantillonnage Gibbs.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.