Couvre l'informatique neuromorphe, les défis dans l'informatique ternaire et binaire, les simulations matérielles du cerveau, et les nouveaux matériaux pour les cellules cérébrales artificielles.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre les fondamentaux des réseaux neuronaux multicouches et de l'apprentissage profond, y compris la propagation arrière et les architectures réseau comme LeNet, AlexNet et VGG-16.
Explique la rétropropagation dans les réseaux neuronaux, la mise à jour des poids en fonction des erreurs et l'évaluation des réseaux par le biais de pertes d'entraînement et de tests.
Explique le processus d'apprentissage dans les réseaux neuronaux multicouches, y compris la rétropropagation, les fonctions d'activation, la mise à jour des poids et la rétropropagation des erreurs.
Plonge dans l'interprétation statistique des réseaux de neurones artificiels, explorant la probabilité de données et maximisant la précision du modèle.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
S'inscrit dans les limites fondamentales de l'apprentissage par gradient sur les réseaux neuronaux, couvrant des sujets tels que le théorème binôme, les séries exponentielles et les fonctions génératrices de moments.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.