Couvre les perceptrons multicouches (MLP) et leur application de la classification à la régression, y compris le théorème d'approximation universelle et les défis liés aux gradients.
Discute de la différenciation automatique, en mettant l'accent sur la différenciation en mode inverse pour optimiser les filtres de couche convolutifs par descente de gradient.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Couvre l'algorithme BackProp, y compris l'initialisation, la propagation du signal, le calcul des erreurs, la mise à jour du poids et la comparaison de la complexité avec la différenciation numérique.
Discute des défis liés à la construction de réseaux neuraux physiques, en mettant l'accent sur la profondeur, les connexions et la capacité de formation.
Explore l'évolution des CNN dans le traitement de l'image, couvrant les réseaux neuronaux classiques et profonds, les algorithmes d'entraînement, la rétropropagation, les étapes non linéaires, les fonctions de perte et les frameworks logiciels.
Explique le processus d'apprentissage dans les réseaux neuronaux multicouches, y compris la rétropropagation, les fonctions d'activation, la mise à jour des poids et la rétropropagation des erreurs.
Explore l'apprentissage par renforcement profond basé sur des modèles, en se concentrant sur Monte Carlo Tree Search et ses applications dans les stratégies de jeu et les processus décisionnels.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.