Couvre les fondamentaux et les algorithmes du classement basé sur les liens, y compris l'indexation de texte d'ancrage, PageRank, HITS, et les implémentations pratiques.
Explore les transformateurs et les MLP pour la classification des documents, en mettant l'accent sur leurs avantages par rapport aux méthodes traditionnelles.
Couvre les concepts fondamentaux de l'apprentissage profond et de l'architecture Transformer, en se concentrant sur les réseaux neuronaux, les mécanismes d'attention et leurs applications dans les tâches de modélisation de séquence.
Couvre les approches modernes du réseau neuronal en matière de PNL, en mettant l'accent sur l'intégration de mots, les réseaux neuronaux pour les tâches de PNL et les futures techniques d'apprentissage par transfert.
Couvre les réseaux neuronaux convolutionnels, y compris les couches, les stratégies de formation, les architectures standard, les tâches comme la segmentation sémantique, et les astuces d'apprentissage profond.
Couvre les réseaux neuronaux convolutifs, les architectures standard, les techniques de formation et les exemples contradictoires en apprentissage profond.
Explore l'apprentissage profond pour la PNL, en couvrant les insertions de mots, les représentations contextuelles, les techniques d'apprentissage et les défis tels que les gradients de disparition et les considérations éthiques.
Explore les méthodes de classification des documents, y compris k-Nearest-Neighbors, Naïve Bayes Classifier, les modèles de transformateurs, et l'attention multi-têtes.
Introduit des fondamentaux d'apprentissage profond, couvrant les représentations de données, les réseaux neuronaux et les réseaux neuronaux convolutionnels.
Explore les mathématiques des modèles de langues, couvrant la conception de l'architecture, la pré-formation et l'ajustement fin, soulignant l'importance de la pré-formation et de l'ajustement fin pour diverses tâches.
Fournit un aperçu du traitement du langage naturel, en se concentrant sur les transformateurs, la tokenisation et les mécanismes d'auto-attention pour une analyse et une synthèse efficaces du langage.