Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Couvre l'informatique neuromorphe, les défis dans l'informatique ternaire et binaire, les simulations matérielles du cerveau, et les nouveaux matériaux pour les cellules cérébrales artificielles.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore la dynamique d'apprentissage des réseaux neuronaux profonds en utilisant des réseaux linéaires pour l'analyse, couvrant les réseaux à deux couches et à plusieurs couches, l'apprentissage autosupervisé et les avantages de l'initialisation découplée.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.
Explique le processus d'apprentissage dans les réseaux neuronaux multicouches, y compris la rétropropagation, les fonctions d'activation, la mise à jour des poids et la rétropropagation des erreurs.
Explore la logique de la fonction neuronale, le modèle Perceptron, les applications d'apprentissage profond et les niveaux d'abstraction dans les modèles neuronaux.