Couvre les modèles générateurs en mettant l'accent sur l'auto-attention et les transformateurs, en discutant des méthodes d'échantillonnage et des moyens empiriques.
Couvre les autoencodeurs variationnels, une approche probabiliste des autoencodeurs pour la génération de données et la représentation de fonctionnalités, avec des applications dans le traitement du langage naturel.
Couvre les techniques de réduction de dimensionnalité non linéaire à l'aide d'autoencodeurs, d'autoencodeurs profonds et d'autoencodeurs convolutifs pour diverses applications.
Explore les codeurs automatiques variables, l'inférence bayésienne, les espaces latents axés sur l'attention et l'efficacité des transformateurs dans le traitement des langues.
Explore la combinaison de la force et de la vision pour des tâches de manipulation efficaces en utilisant une représentation dimensionnelle inférieure.
Explore les réseaux profonds et convolutifs, couvrant la généralisation, l'optimisation et les applications pratiques dans l'apprentissage automatique.
Couvre un examen des concepts d'apprentissage automatique, y compris l'apprentissage supervisé, la classification vs régression, les modèles linéaires, les fonctions du noyau, les machines vectorielles de soutien, la réduction de la dimensionnalité, les modèles génératifs profonds et la validation croisée.
Explore l'apprentissage autosupervisé pour les véhicules autonomes, en dérivant des étiquettes de données elles-mêmes et en discutant de ses applications et de ses défis.