Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Discute des réseaux neuronaux convolutifs, de leur architecture, des techniques de formation et des défis tels que des exemples contradictoires en apprentissage profond.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore l'intelligence visuelle, la formation d'images, la vision par ordinateur et la compréhension de la représentation dans les machines et les esprits.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Couvre les bases de Pytorch avec les ensembles de données MNIST et Digits, en mettant l'accent sur la formation des réseaux neuronaux pour la reconnaissance manuscrite des chiffres.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre les questions pratiques et les objectifs de l'apprentissage profond, y compris les types de neurones, l'architecture du réseau, l'optimisation et l'initialisation du poids.