Fonction de transfertEn traitement du signal, une fonction de transfert est un modèle mathématique de la relation entre l'entrée et la sortie d'un système linéaire, le plus souvent invariant. Elle est utilisée notamment en théorie des communications, en automatique, et dans toutes les sciences de l'ingénieur qui font appel à cette discipline (électronique, mécanique, mécatronique). Les signaux d'entrée et de sortie ci-dessus peuvent avoir plusieurs composantes, auquel cas on précise souvent (sans que ce soit une obligation) que la fonction de transfert est une matrice de transfert.
Entrepôt de donnéesvignette|redresse=1.5|Vue d'ensemble d'une architecture entrepôt de données. Le terme entrepôt de données ou EDD (ou base de données décisionnelle ; en anglais, data warehouse ou DWH) désigne une base de données utilisée pour collecter, ordonner, journaliser et stocker des informations provenant de base de données opérationnelles et fournir ainsi un socle à l'aide à la décision en entreprise. Un entrepôt de données est une base de données regroupant une partie ou l'ensemble des données fonctionnelles d'une entreprise.
Erreur typeLerreur type d'une statistique (souvent une estimation d'un paramètre) est l'écart type de sa distribution d'échantillonnage ou l'estimation de son écart type. Si le paramètre ou la statistique est la moyenne, on parle d'erreur type de la moyenne. La distribution d'échantillonnage est générée par tirage répété et enregistrements des moyennes obtenues. Cela forme une distribution de moyennes différentes, et cette distribution a sa propre moyenne et variance.
Variance (mathématiques)vignette|Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de (écart-type = SD = 50). En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire.
DonnéeUne donnée est ce qui est connu et qui sert de point de départ à un raisonnement ayant pour objet la détermination d'une solution à un problème en relation avec cette donnée. Cela peut être une description élémentaire qui vise à objectiver une réalité, le résultat d'une comparaison entre deux événements du même ordre (mesure) soit en d'autres termes une observation ou une mesure. La donnée brute est dépourvue de tout raisonnement, supposition, constatation, probabilité.
Analyse de la varianceEn statistique, lanalyse de la variance (terme souvent abrégé par le terme anglais ANOVA : analysis of variance) est un ensemble de modèles statistiques utilisés pour vérifier si les moyennes des groupes proviennent d'une même population. Les groupes correspondent aux modalités d'une variable qualitative (p. ex. variable : traitement; modalités : programme d'entrainement sportif, suppléments alimentaires; placebo) et les moyennes sont calculés à partir d'une variable continue (p. ex. gain musculaire).
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.
Microscopie électronique à balayagethumb|right|Premier microscope électronique à balayage par M von Ardenne thumb|right|Microscope électronique à balayage JEOL JSM-6340F thumb|upright=1.5|Principe de fonctionnement du Microscope Électronique à Balayage La microscopie électronique à balayage (MEB) ou scanning electron microscope (SEM) en anglais est une technique de microscopie électronique capable de produire des images en haute résolution de la surface d’un échantillon en utilisant le principe des interactions électrons-matière.
Cuivres (musique)La famille des cuivres regroupe de nombreux instruments à vent (également appelés aérophones). L'obtention du son est produit par les vibrations de l'air provoquées par les lèvres du musicien sur l’embouchure, contrairement aux instruments de la famille des bois dont le son est produit par le souffle et la vibration d’une anche simple clarinette ou double hautbois ou un biseau flûte. Tous les cuivres possèdent une embouchure. Leur point commun est la technique utilisée par le musicien pour produire le son : la vibration des lèvres.
Traitement de donnéesEn informatique, le terme traitement de données ou traitement électronique des données renvoie à une série de processus qui permettent d'extraire de l'information ou de produire du savoir à partir de données brutes. Ces processus, une fois programmés, sont le plus souvent automatisés à l'aide d'ordinateurs. Si les résultats finaux produits par ces processus sont destinés à des humains, leur présentation est souvent essentielle pour en apprécier la valeur. Cette appréciation est cependant variable selon les personnes.
Instrument à cordesUn instrument à cordes est un instrument de musique dans lequel le son est produit par la vibration d'une ou plusieurs cordes. L'organologie les classe dans la catégorie des cordophones. L'histoire des instruments à cordes est vieille de plusieurs milliers d'années. Les premiers n'avaient probablement qu'une seule corde, comme l'arc musical. Dès l'Égypte ancienne, on connaissait les joueurs de harpe. Au Moyen Âge, les ménestriers s'accompagnaient au luth, etc. La vibration de la corde seule est peu audible.
Instrument de musiqueright|thumb|280px|Fresque étrusque de la tombe des Léopards à Monterozzi en Italie. right|thumb|280px|Planche illustrée d'instruments de musique extraite du "Systematische Bilder-Gallerie zur allgemeinen deutschen Real Encyclopädie in lithographirten Blättern" (1842) Un instrument de musique est un objet pouvant produire un son contrôlé par un musicien — que cet objet soit conçu dans cet objectif, ou bien qu'il soit modifié ou écarté de son usage premier.
Sample mean and covarianceThe sample mean (sample average) or empirical mean (empirical average), and the sample covariance or empirical covariance are statistics computed from a sample of data on one or more random variables. The sample mean is the average value (or mean value) of a sample of numbers taken from a larger population of numbers, where "population" indicates not number of people but the entirety of relevant data, whether collected or not. A sample of 40 companies' sales from the Fortune 500 might be used for convenience instead of looking at the population, all 500 companies' sales.
Résidu (statistiques)In statistics and optimization, errors and residuals are two closely related and easily confused measures of the deviation of an observed value of an element of a statistical sample from its "true value" (not necessarily observable). The error of an observation is the deviation of the observed value from the true value of a quantity of interest (for example, a population mean). The residual is the difference between the observed value and the estimated value of the quantity of interest (for example, a sample mean).
Microscopie à sonde localeLa microscopie à sonde locale (MSL) ou microscopie en champ proche (MCP) ou scanning probe microscopy (SPM) en anglais est une technique de microscopie permettant de cartographier le relief (nano-topographie) ou une autre grandeur physique en balayant la surface à imager à l'aide d'une pointe très fine (la pointe est idéalement un cône se terminant par un seul atome). Le pouvoir de résolution obtenu par cette technique permet d'observer jusqu'à des atomes, ce qui est physiquement impossible avec un microscope optique, quel que soit son grossissement.
Analyse des donnéesL’analyse des données (aussi appelée analyse exploratoire des données ou AED) est une famille de méthodes statistiques dont les principales caractéristiques sont d'être multidimensionnelles et descriptives. Dans l'acception française, la terminologie « analyse des données » désigne donc un sous-ensemble de ce qui est appelé plus généralement la statistique multivariée. Certaines méthodes, pour la plupart géométriques, aident à faire ressortir les relations pouvant exister entre les différentes données et à en tirer une information statistique qui permet de décrire de façon plus succincte les principales informations contenues dans ces données.
Big dataLe big data ( « grosses données » en anglais), les mégadonnées ou les données massives, désigne les ressources d’informations dont les caractéristiques en termes de volume, de vélocité et de variété imposent l’utilisation de technologies et de méthodes analytiques particulières pour créer de la valeur, et qui dépassent en général les capacités d'une seule et unique machine et nécessitent des traitements parallélisés. L’explosion quantitative (et souvent redondante) des données numériques permet une nouvelle approche pour analyser le monde.
Erreur de mesurevignette|upright|Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition : L'indication d'une balance de ménage pour une masse de certifiée est de . L'erreur de mesure est de – ; La distance entre deux murs, donnée par un télémètre laser est de , valeur considérée ici comme exacte. La valeur mesurée, au même endroit, avec un mètre à ruban est de . L'erreur de mesure, avec le mètre à ruban, est de ou ; La différence sur 24 heures de temps entre une pendule radio pilotée et une montre bracelet est de .
Data PreprocessingData preprocessing can refer to manipulation or dropping of data before it is used in order to ensure or enhance performance, and is an important step in the data mining process. The phrase "garbage in, garbage out" is particularly applicable to data mining and machine learning projects. Data collection methods are often loosely controlled, resulting in out-of-range values, impossible data combinations, and missing values, amongst other issues. Analyzing data that has not been carefully screened for such problems can produce misleading results.
Unbiased estimation of standard deviationIn statistics and in particular statistical theory, unbiased estimation of a standard deviation is the calculation from a statistical sample of an estimated value of the standard deviation (a measure of statistical dispersion) of a population of values, in such a way that the expected value of the calculation equals the true value. Except in some important situations, outlined later, the task has little relevance to applications of statistics since its need is avoided by standard procedures, such as the use of significance tests and confidence intervals, or by using Bayesian analysis.