Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Explore le modèle de perceptron multicouche, la formation, l'optimisation, le prétraitement des données, les fonctions d'activation, la rétropropagation et la régularisation.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Discute des réseaux neuronaux convolutifs, de leur architecture, des techniques de formation et des défis tels que des exemples contradictoires en apprentissage profond.
Couvre la préparation pour dériver l'algorithme Backprop dans des réseaux en couches en utilisant des perceptrons multicouches et la descente de gradient.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.
Couvre la représentation des données, la formation MLP, les fonctions d'activation et l'apprentissage basé sur le gradient dans les réseaux de neurones profonds.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre un cours intensif sur l'apprentissage profond, y compris le Mark I Perceptron, les réseaux neuronaux, les algorithmes d'optimisation et les aspects de formation pratique.
Couvre l'optimisation dans l'apprentissage automatique, en mettant l'accent sur la descente par gradient pour la régression linéaire et logistique, la descente par gradient stochastique et des considérations pratiques.