Couvre les Perceptrons multicouches, les neurones artificiels, les fonctions d'activation, la notation matricielle, la flexibilité, la régularisation, la régression et les tâches de classification.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Introduit un apprentissage profond, de la régression logistique aux réseaux neuraux, soulignant la nécessité de traiter des données non linéairement séparables.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Présente les réseaux neuronaux convolutifs, en expliquant leur architecture, leur processus de formation et leurs applications dans les tâches de segmentation sémantique.
Explore les réseaux neuronaux à deux couches et la rétropropagation pour l'apprentissage des espaces de fonctionnalités et l'approximation des fonctions continues.
Explore les bases des réseaux neuraux, le problème XOR, la classification et les applications pratiques comme la prévision des données météorologiques.
Explore l'analyse stochastique de la descente et du champ moyen dans les réseaux neuraux à deux couches, en mettant l'accent sur leurs processus itératifs et leurs fondements mathématiques.