Couvre la structure syntaxique, l'analyse de dépendance et l'analyse basée sur la transition du réseau neuronal, soulignant l'importance de la structure de dépendance dans l'analyse linguistique.
Couvre les modèles de séquence à séquence, leur architecture, leurs applications et le rôle des mécanismes d'attention dans l'amélioration des performances.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Explore l'apprentissage profond pour la PNL, en couvrant les insertions de mots, les représentations contextuelles, les techniques d'apprentissage et les défis tels que les gradients de disparition et les considérations éthiques.
Introduit les réseaux de mémoire à long terme (LSTM) comme une solution pour la disparition et l'explosion des gradients dans les réseaux neuronaux récurrents.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Explore les grammaires formelles, les algorithmes d'analyse, l'efficacité de l'algorithme CYK et la correction syntaxique dans le traitement du langage naturel.
Explore les réseaux neuronaux récurrents pour les données comportementales, couvrant le repérage de connaissances profondes, les réseaux LSTM, GRU, le réglage hyperparamétrique et les tâches de prévision de séries chronologiques.
Explore la cartographie des atomes dans les réactions chimiques et la transition vers la grammaire réactionnelle à l'aide de l'architecture du transformateur.
Introduit des réseaux de flux, couvrant la structure du réseau neuronal, la formation, les fonctions d'activation et l'optimisation, avec des applications en prévision et finance.
Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Explore le développement historique et la formation de perceptrons multicouches, en mettant l'accent sur l'algorithme de rétropropagation et la conception de fonctionnalités.