Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Couvre la dérivation de la formule de descente de gradient stochastique pour un perceptron simple et explore l'interprétation géométrique de la classification.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore la perception dans l'apprentissage profond pour les véhicules autonomes, couvrant la classification d'image, les méthodes d'optimisation, et le rôle de la représentation dans l'apprentissage automatique.
Explore la capacité des réseaux de neurones à apprendre des fonctionnalités et à faire des prédictions linéaires, en soulignant l'importance de la quantité de données pour une performance efficace.
Explore le modèle de perceptron multicouche, la formation, l'optimisation, le prétraitement des données, les fonctions d'activation, la rétropropagation et la régularisation.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Explore la formation, l'optimisation et les considérations environnementales des réseaux neuronaux, avec des informations sur les clusters PCA et K-means.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.