Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Couvre l'informatique neuromorphe, les défis dans l'informatique ternaire et binaire, les simulations matérielles du cerveau, et les nouveaux matériaux pour les cellules cérébrales artificielles.
Explore les progrès récents dans les matériaux magnétiques et la spintronics, y compris la manipulation de l'aimantation avec des impulsions lumineuses et des éléments essentiels pour la mémoire magnétique d'accès aléatoire haute densité.
Explore la dynamique d'apprentissage des réseaux neuronaux profonds en utilisant des réseaux linéaires pour l'analyse, couvrant les réseaux à deux couches et à plusieurs couches, l'apprentissage autosupervisé et les avantages de l'initialisation découplée.
Explore les modèles de calcul du système visuel ventral, en se concentrant sur l'optimisation des réseaux pour les tâches réelles et la comparaison avec les données cérébrales.
Couvre la fonction neuronale, les modèles hiérarchiques, les comportements des taxis odorants et les paramètres de circuit disparates dans 18 diapositives.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Se penche sur l'ordre magnétique dans les matériaux, couvrant les interactions de spin négligées, la température de Curie, la température de Neel et le hamiltonien de Heisenberg.