Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Fournit un aperçu du traitement du langage naturel, en se concentrant sur les transformateurs, la tokenisation et les mécanismes d'auto-attention pour une analyse et une synthèse efficaces du langage.
Couvre les principes fondamentaux de l'apprentissage profond, y compris les données, l'architecture et les considérations éthiques dans le déploiement de modèles.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les bases de l'apprentissage profond, y compris les représentations de données, le sac de mots, le prétraitement des données, les réseaux de neurones artificiels et les réseaux de neurones convolutifs.
En savoir plus sur l'apprentissage profond pour le traitement des langues naturelles, l'exploration de l'intégration des mots neuraux, des réseaux neuraux récurrents et de la modélisation des neurones avec les transformateurs.
Explore l'apprentissage en apprentissage profond pour les véhicules autonomes, couvrant les modèles prédictifs, RNN, ImageNet, et l'apprentissage de transfert.
Couvre les concepts d'apprentissage profond, en se concentrant sur les graphiques, les transformateurs et leurs applications dans le traitement des données multimodales.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.