Couvre le processus de formation d'un réseau neuronal, y compris l'avancement, la fonction de coût, la vérification des gradients et la visualisation des couches cachées.
Explore les défis d'apprentissage avec les déplacements de distribution et la géométrie de perturbation, en mettant l'accent sur des classificateurs robustes et la modélisation de variation naturelle.
Explore l'importance de la modélisation et de la prévision d'environnements incertains pour assurer une autonomie sûre et performante dans les systèmes autonomes modernes.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Couvre les architectures de transformateurs avancées en apprentissage profond, en se concentrant sur les modèles Swin, HUBERT et Flamingo pour les applications multimodales.
Couvre l'impact des transformateurs dans la vision par ordinateur, en discutant de leur architecture, de leurs applications et de leurs progrès dans diverses tâches.
Couvre les concepts d'apprentissage profond, en se concentrant sur les graphiques, les transformateurs et leurs applications dans le traitement des données multimodales.
Explore les réseaux neuronaux artificiels, les informations sur les récompenses dans le cerveau, le conditionnement animal, l'apprentissage par renforcement profond et un quiz sur les récompenses.
Couvre les machines d'apprentissage extrêmes photoniques et le calcul de réservoir, en se concentrant sur leurs architectures, leurs techniques de programmation et leurs applications en informatique optique.
Couvre l'algorithme de maximisation des attentes et les techniques de regroupement, en mettant l'accent sur l'échantillonnage Gibbs et l'équilibre détaillé.