Explore le modèle Vector Space, le sac de mots, tf-idf, cosine similarité, Okapi BM25, et la précision et le rappel dans la récupération d'information.
Explore l'indexation sémantique latente dans la récupération d'information, en discutant des algorithmes, des défis dans la récupération spatiale vectorielle et des méthodes de récupération axées sur le concept.
Explore la recherche de documents, la classification, l'analyse des sentiments, les matrices TF-IDF, les méthodes de voisinage les plus proches, la factorisation matricielle, la régularisation, LDA, les vecteurs de mots contextualisés et BERT.
Explore les intégrations de mots, les modèles tels que CBOW et Skipgram, Fasttext, Glove, les intégrations de sous-mots et leurs applications dans la recherche et la classification de documents.
Couvre l'indexation sémantique latente, une méthode pour améliorer la récupération d'informations en cartographiant des documents et des requêtes dans un espace conceptuel de dimension inférieure.
Couvre la récupération de documents, la classification, l'analyse des sentiments et la détection de sujets à l'aide de matrices TF-IDF et de vecteurs de mots contextualisés tels que BERT.
Présente les bases de la récupération d'informations, couvrant la récupération basée sur le texte, les caractéristiques du document, les fonctions de similarité et la différence entre la récupération booléenne et la récupération classée.
Introduit les bases de la recherche de l'information, couvrant la recherche par texte et booléen, la recherche de l'espace vectoriel et le calcul de la similitude.
Présente les bases de la récupération d'informations, couvrant la représentation de documents, l'expansion des requêtes et TF-IDF pour le classement des documents.