Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.
Couvre les autoencodeurs variationnels, une approche probabiliste des autoencodeurs pour la génération de données et la représentation de fonctionnalités, avec des applications dans le traitement du langage naturel.
Explorer la densité de calcul des états et l'inférence bayésienne à l'aide d'un échantillonnage d'importance, montrant une variance inférieure et la parallélisation de la méthode proposée.
Présente l'attribution des dirichlets latents pour la modélisation des sujets dans les documents, en discutant de son processus, de ses demandes et de ses limites.
Introduit l'estimation bayésienne, qui couvre l'inférence classique par rapport à l'inférence bayésienne, les antécédents conjugués, les méthodes MCMC et des exemples pratiques comme l'estimation de la température et la modélisation de choix.
Explore les modèles thématiques, les modèles de mélange gaussien, la répartition des dirichlets latents et l'inférence variationnelle dans la compréhension des structures latentes à l'intérieur des données.
Discute de la distribution de Dirichlet, de l'inférence bayésienne, de la moyenne postérieure et de la variance, des antécédents conjugués et de la distribution prédictive dans le modèle de Dirichlet-Multinôme.
Introduit des concepts fondamentaux d'apprentissage automatique, couvrant la régression, la classification, la réduction de dimensionnalité et des modèles générateurs profonds.
Explore les techniques bayésiennes pour les problèmes de valeur extrême, y compris l'inférence de la chaîne Markov Monte Carlo et de Bayesian, en soulignant l'importance de l'information antérieure et l'utilisation des graphiques.