Introduit les bases de la recherche de l'information, couvrant la recherche par texte et booléen, la recherche de l'espace vectoriel et le calcul de la similitude.
Présente les bases de la récupération d'informations, couvrant la représentation de documents, l'expansion des requêtes et TF-IDF pour le classement des documents.
Couvre la récupération de documents, la classification, l'analyse des sentiments et la détection de sujets à l'aide de matrices TF-IDF et de vecteurs de mots contextualisés tels que BERT.
Introduit les bases de la récupération d'informations, couvrant l'indexation, les schémas de pondération, la similarité cosinus et l'évaluation des requêtes.
Explore la gestion du texte, en se concentrant sur les matrices, les documents et les sujets, y compris les défis de la classification des documents et des modèles avancés comme BERT.
Couvre les bases de la récupération d'informations à l'aide de modèles d'espace vectoriel et d'exercices pratiques sur la rétroaction de pertinence et la numérisation de la liste de publication.
Explore le traitement des données texte, en dérivant des ensembles de données propres à partir de textes non structurés, et diverses techniques d'analyse de texte.
Introduit des modèles Booléen et Vector Space pour la recherche d'informations, couvrant la syntaxe, le calcul de similarité, la fréquence des termes et les poids des requêtes.
Couvre la recherche de documents, la classification, l'analyse des sentiments et la détection de sujets à l'aide de matrices TF-IDF et de vecteurs de mots contextualisés.
Présente les bases de l'analyse de données textuelles, couvrant la récupération de documents, la classification, l'analyse des sentiments et la détection de sujets à l'aide de techniques de prétraitement et de modèles d'apprentissage automatique.
Explore le modèle Vector Space, le sac de mots, tf-idf, cosine similarité, Okapi BM25, et la précision et le rappel dans la récupération d'information.
Plongez dans le traitement de grandes collections de textes numériques, en explorant les régularités cachées, la réutilisation du texte et l'analyse TF-IDF.
Introduit le traitement du langage naturel, qui couvre le prétraitement du texte, l'analyse des sentiments et l'analyse des sujets, en mettant l'accent sur l'établissement d'un indice de risque pour le changement climatique.
Présente les bases du traitement de données textuelles, couvrant la récupération de documents, la classification, l'analyse des sentiments et la détection de sujets.
Couvre l'indexation sémantique latente, une méthode pour améliorer la récupération d'informations en cartographiant des documents et des requêtes dans un espace conceptuel de dimension inférieure.
Couvre la récupération d'informations probabilistes, la pertinence de la modélisation en tant que probabilité, l'expansion des requêtes et la génération automatique de thésaurus.