Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore l'optimisation des systèmes neuroprothétiques, y compris la restauration de rétroaction sensorielle et les stratégies de stimulation neuronale.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Explore les modèles de calcul du système visuel ventral, en se concentrant sur l'optimisation des réseaux pour les tâches réelles et la comparaison avec les données cérébrales.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.
Introduit des réseaux neuronaux, des fonctions d'activation et de rétropropagation pour la formation, en répondant aux défis et aux méthodes puissantes.
Couvre les faits stylisés du rendement des actifs, des statistiques sommaires, des tests de la normalité, des placettes Q-Q et des hypothèses de marché efficaces.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.