DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Facteur d'impactUn facteur d'impact ou FI (en anglais, impact factor ou IF, journal impact factor ou JIF) est un indicateur qui estime indirectement la visibilité d'une revue scientifique. Pour une année donnée, le FI d'une revue est égal à la moyenne des nombres de citations des articles de cette revue publiés durant les deux années précédentes. Ce facteur d'impact, qui mesure une certaine visibilité, est considéré par certains gestionnaires de la recherche et certains chercheurs comme un critère pertinent : une revue avec un FI élevé serait ainsi considérée comme plus importante (parce que plus visible : plus lue et plus citée) qu'une revue avec un FI faible.
Référence bibliographiqueUne référence bibliographique est un ensemble de données permettant d'identifier un document publié, ou une partie de ce document, et d'y faire référence. En général, une référence bibliographique contient au moins le titre du document, son auteur, l'éditeur et la date de publication. Une référence bibliographique peut être utilisée à l'intérieur du corps d'un texte, souvent sous une forme alphanumérique ou abrégée avec renvoi en fin de document ou en bas de page.
Indice de citationthumb|Recueils d'indices de citation à la bibliothèque de l'Université de Göttingen (2017). Un indice de citation est une sorte de base de données bibliographique permettant à un utilisateur d'établir facilement quels documents citent quels documents antérieurs. Les premiers indices de citations étaient des citators juridiques tels que Shepard's Citations (1873). En 1960, l'Institute for Scientific Information (ISI) d'Eugene Garfield a introduit le premier indice de citations pour les articles publiés dans les revues scientifiques.
Citation analysisCitation analysis is the examination of the frequency, patterns, and graphs of citations in documents. It uses the directed graph of citations — links from one document to another document — to reveal properties of the documents. A typical aim would be to identify the most important documents in a collection. A classic example is that of the citations between academic articles and books. For another example, judges of law support their judgements by referring back to judgements made in earlier cases (see citation analysis in a legal context).
Données ouvertesvignette|Autocollants utilisés par les militants des données ouvertes. Les données ouvertes (en anglais : open data) sont des données numériques dont l'accès et l'usage sont laissés libres aux usagers, qui peuvent être d'origine privée mais surtout publique, produites notamment par une collectivité ou un établissement public. Elles sont diffusées de manière structurée selon une méthode et une licence ouverte garantissant leur libre accès et leur réutilisation par tous, sans restriction technique, juridique ou financière.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Modèle de donnéesEn informatique, un modèle de données est un modèle qui décrit la manière dont sont représentées les données dans une organisation métier, un système d'information ou une base de données. Le terme modèle de données peut avoir deux significations : Un modèle de données théorique, c'est-à-dire une description formelle ou un modèle mathématique. Voir aussi modèle de base de données Un modèle de données instance, c'est-à-dire qui applique un modèle de données théorique (modélisation des données) pour créer un modèle de données instance.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Scientométrievignette|SCIENTROMETRIE La scientométrie est la science de la mesure et l'analyse de la science. Elle est souvent en partie liée avec la bibliométrie et peut être considérée à la fois comme une réduction et une extension de celle-ci. Réduction puisqu’elle n’applique les techniques bibliométriques qu’au champ des études de la science et de la technologie, en comptabilisant les publications scientifiques. Extension puisqu’elle n’analyse pas seulement les publications mais également des financements, ressources humaines, brevets, etc.
Web of ScienceLe Web of Science est une plateforme d’information scientifique et technique gérée par Clarivate, et originellement produite par la société ISI – Institute for Scientific Information de Thomson Scientific, division du groupe canadien Thomson Reuters.
Data sharingData sharing is the practice of making data used for scholarly research available to other investigators. Many funding agencies, institutions, and publication venues have policies regarding data sharing because transparency and openness are considered by many to be part of the scientific method. A number of funding agencies and science journals require authors of peer-reviewed papers to share any supplemental information (raw data, statistical methods or source code) necessary to understand, develop or reproduce published research.
BibliométrieLa bibliométrie est une méta-science qui prend la science pour objet d'étude. Elle concerne trois éléments de l'activité scientifique : ses intrants, ses extrants et ses impacts. La bibliométrie peut être définie comme « l’application des mathématiques et des méthodes statistiques aux livres, articles et autres moyens de communication » (Beauvens, 1969). . Cette discipline, qui s'appuie sur l'analyse statistique des données et des réseaux, a un volet cognitif, en interaction avec les champs se donnant les sciences et les communautés scientifiques comme objet (économie de la connaissance, sociologie des sciences, épistémologie, histoire des sciences, etc.
Indice hL'indice h (ou indice de Hirsch ou h-index en anglais) est un ayant pour but de quantifier la productivité scientifique et l'impact d'un scientifique en fonction du niveau de citation de ses publications. En résumé, un chercheur avec un indice de h a publié h articles qui ont été cités au moins h fois. Cet indice peut aussi s'appliquer à un groupe de scientifiques, tel qu'un département, une université ou un pays. Cet indice appartient à l'ensemble des .
Author-level metricsAuthor-level metrics are citation metrics that measure the bibliometric impact of individual authors, researchers, academics, and scholars. Many metrics have been developed that take into account varying numbers of factors (from only considering the total number of citations, to looking at their distribution across papers or journals using statistical or graph-theoretic principles). These quantitative comparisons between researchers are mostly done to distribute resources (such money and academic positions).
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Dictionnaire des donnéesUn dictionnaire des données est une collection de métadonnées ou de données de référence nécessaire à la conception d'une base de données relationnelle. Il revêt une importance stratégique particulière, car il est le vocabulaire commun de l'organisation. Il décrit des données aussi importantes que les clients, les nomenclatures de produits et de services, les annuaires, etc. Il est souvent représenté par un tableau à quatre colonnes contenant le nom, le code et le type de donnée ainsi que des commentaires.
Qualité des donnéesLa qualité des données, en informatique se réfère à la conformité des données aux usages prévus, dans les modes opératoires, les processus, les prises de décision, et la planification (J.M. Juran). De même, les données sont jugées de grande qualité si elles représentent correctement la réalité à laquelle elles se réfèrent. Ces deux points de vue peuvent souvent entrer en contradiction, y compris lorsqu'un même ensemble de données est utilisé avec un objectif commun.