DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Gestion des donnéesLa gestion des données est une discipline de gestion qui tend à valoriser les données en tant que ressources numériques. La gestion des données permet d'envisager le développement d'architectures, de réglementations, de pratiques et de procédures qui gèrent correctement les besoins des organismes sur le plan de tout le cycle de vie des données. Les données sont, avec les traitements, l'un des deux aspects des systèmes d'information traditionnellement identifiés, et l'un ne peut aller sans l'autre pour un management du système d'information cohérent.
Méthode scientifiqueLa méthode scientifique désigne l'ensemble des canons guidant ou devant guider le processus de production des connaissances scientifiques, qu'il s'agisse d'observations, d'expériences, de raisonnements, ou de calculs théoriques. Très souvent, le terme de « méthode » engage l'idée implicite de son unicité, tant auprès du grand public que de certains chercheurs, qui de surcroît la confondent parfois avec la seule méthode hypothético-déductive.
Science des donnéesLa science des données est l'étude de l’extraction automatisée de connaissance à partir de grands ensembles de données. Plus précisément, la science des données est un domaine interdisciplinaire qui utilise des méthodes, des processus, des algorithmes et des systèmes scientifiques pour extraire des connaissances et des idées à partir de nombreuses données structurées ou non . Elle est souvent associée aux données massives et à l'analyse des données.
WorkflowUn workflow, flux de travaux ou encore flux opérationnel, est la représentation d'une suite de tâches ou d'opérations effectuées par une personne, un groupe de personnes, un organisme Le terme flow (« flux ») renvoie au passage du produit, du document, de l'information, d'une étape à l'autre. En France, le terme officiellement recommandé par la Commission d'enrichissement de la langue française est « flux de travaux ». Au Canada, le Grand Dictionnaire terminologique propose « flux de travaux » ou « flux des travaux ».
Sciences numériquesLes sciences numériques (traduction de l'anglais computational sciences), autrement dénommées calcul scientifique ou informatique scientifique, ont pour objet la construction de modèles mathématiques et de méthodes d'analyse quantitative, en se basant sur l'utilisation des sciences du numérique, pour analyser et résoudre des problèmes scientifiques. Cette approche scientifique basée sur un recours massif aux modélisations informatiques et mathématiques et à la simulation se décline en : médecine numérique, biologie numérique, archéologie numérique, mécanique numérique, par exemple.
Programmation concurrenteLa programmation concurrente est un paradigme de programmation tenant compte, dans un programme, de l'existence de plusieurs piles sémantiques qui peuvent être appelées threads, processus ou tâches. Elles sont matérialisées en machine par une pile d'exécution et un ensemble de données privées. La concurrence est indispensable lorsque l'on souhaite écrire des programmes interagissant avec le monde réel (qui est concurrent) ou tirant parti de multiples unités centrales (couplées, comme dans un système multiprocesseurs, ou distribuées, éventuellement en grille ou en grappe).
Ordinateur portablevignette|Un ordinateur portable de la marque ASUS. Un ordinateur portable, ou simplement portable, est un ordinateur personnel dont le poids et les dimensions limitées permettent un transport facile. Les ordinateurs portables ont plusieurs usages, à la fois professionnels, personnels et éducatifs, et sont parfois utilisés pour la sauvegarde de médias personnels. Un ordinateur portable est muni des mêmes types de composants qu'un ordinateur de bureau classique, incluant notamment un écran, des haut-parleurs et un clavier physique.
Workflow management systemA workflow management system (WfMS or WFMS) provides an infrastructure for the set-up, performance and monitoring of a defined sequence of tasks, arranged as a workflow application. There are several international standards-setting bodies in the field of workflow management: Workflow Management Coalition World Wide Web Consortium Organization for the Advancement of Structured Information Standards WS-BPEL 2.0 (integration-centric) and WS-BPEL4People (human task-centric) published by OASIS Standards Body.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Scientific workflow systemA scientific workflow system is a specialized form of a workflow management system designed specifically to compose and execute a series of computational or data manipulation steps, or workflow, in a scientific application. Distributed scientists can collaborate on conducting large scale scientific experiments and knowledge discovery applications using distributed systems of computing resources, data sets, and devices. Scientific workflow systems play an important role in enabling this vision.
Moteur de workflowUn moteur de workflow est un dispositif logiciel permettant d'exécuter des instances de workflow (l'enchaînement des activités décrit par la définition de processus de workflow). La WfMC introduit une nuance avec un système de gestion de workflow qui est un logiciel pouvant être constitué d'un ou plusieurs moteurs de workflow et dont le but est de créer, de gérer et d'exécuter des instances de workflow.
Job Control LanguageJob Control Language (« langage de contrôle des tâches »), couramment appelé JCL, désigne certains langages de scripts, en particulier sur les systèmes d'exploitation mainframe d'IBM, dont le rôle est d'exécuter un batch. Il existe deux langages JCL d'IBM, l'un utilisé sur la famille DOS/360, l'autre sur la famille OS/360. Bien qu'ils aient en commun des règles de syntaxe et de conception, il s'agit de langages assez différents. Dans le JCL, l'unité est le job (la tâche), laquelle consiste en un ou plusieurs steps (étapes).
Sciencethumb|Allégorie de la Science par Jules Blanchard, située sur le parvis de l'hôtel de ville de Paris. La (du latin scientia, « connaissance », ) est dans son sens premier « la somme des connaissances » et plus spécifiquement une entreprise systématique de construction et d'organisation des connaissances sous la forme d'explications et de prédictions testables.
Superordinateurvignette|redresse=1.2|Le supercalculateur IBM Blue Gene/P de l'Argonne National Laboratory fonctionne avec utilisant un système de refroidissement standard par air, groupé dans et interconnectés par un réseau de fibre optique à haute vitesse (2007). vignette|redresse=1.2|Le superordinateur Columbia du centre de recherche Ames Research Center de la NASA, composé de Intel Itanium 2, regroupés en de , et exécutant un système d'exploitation Linux (2006).
One Laptop per Childvignette|Un ordinateur portable par enfant, mission et principes fondamentaux. One Laptop per Child (OLPC), en français « un portable par enfant », est une association à but non lucratif établie en 2005 dans le Delaware aux États-Unis qui a pour but de promouvoir « l'ordinateur portable à » XO. Cet ordinateur a été développé au départ par des membres du corps enseignant du Media Lab, un département du Massachusetts Institute of Technology (MIT).
Paradigm shiftA paradigm shift is a fundamental change in the basic concepts and experimental practices of a . It is a concept in the philosophy of science that was introduced and brought into the common lexicon by the American physicist and philosopher Thomas Kuhn. Even though Kuhn restricted the use of the term to the natural sciences, the concept of a paradigm shift has also been used in numerous non-scientific contexts to describe a profound change in a fundamental model or perception of events.
ReproductibilitéLa reproductibilité d'une expérience scientifique est une des conditions qui permettent d'inclure les observations réalisées durant cette expérience dans le processus d'amélioration perpétuelle des connaissances scientifiques. Cette condition part du principe qu'on ne peut tirer de conclusions que d'un événement bien décrit, qui est apparu plusieurs fois, provoqué par des personnes différentes. Cette condition permet de s'affranchir d'effets aléatoires venant fausser les résultats ainsi que des erreurs de jugement ou des manipulations de la part des scientifiques.