Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Explore l'histoire, les modèles, la formation, la convergence et les limites des réseaux neuronaux, y compris l'algorithme de rétropropagation et l'approximation universelle.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explore l'informatique scientifique en neuroscience, en mettant l'accent sur la simulation des neurones et des réseaux à l'aide d'outils comme NEURON, NEST et BRIAN.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Explore la dynamique d'apprentissage des réseaux neuronaux profonds en utilisant des réseaux linéaires pour l'analyse, couvrant les réseaux à deux couches et à plusieurs couches, l'apprentissage autosupervisé et les avantages de l'initialisation découplée.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Explore l'apprentissage bio-inspiré avec des réseaux neuronaux et des algorithmes génétiques, couvrant la structure, la formation et les applications pratiques.