Par Meenakshi Khosla explore la modélisation basée sur les données dans les neurosciences naturalistes à grande échelle, en mettant l'accent sur la représentation de l'activité cérébrale et les modèles de calcul.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
S'engage dans l'apprentissage continu des modèles de représentation après déploiement, soulignant les limites des réseaux neuronaux artificiels actuels.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Explore les défis et les points de vue de l'apprentissage profond, en mettant l'accent sur le paysage des pertes, la généralisation et l'apprentissage caractéristique.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Discute des réseaux neuronaux convolutifs, de leur architecture, des techniques de formation et des défis tels que des exemples contradictoires en apprentissage profond.