Couvre les bases du traitement du langage naturel, des approches traditionnelles aux approches modernes, soulignant les défis et l'importance d'étudier les deux méthodes.
Couvre l'architecture du transformateur, en se concentrant sur les modèles codeurs-décodeurs et les mécanismes d'attention subquadratiques pour un traitement efficace des séquences d'entrée.
Explore l'optimisation des réseaux neuronaux, y compris la rétropropagation, la normalisation des lots, l'initialisation du poids et les stratégies de recherche d'hyperparamètres.
Introduit le cours sur le traitement du langage naturel moderne, couvrant son importance, ses applications, ses défis et les progrès de la technologie.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.