Coefficient de variationvignette|CV (coefficient de variation) = l'écart-type sur la moyenne En théorie des probabilités et statistiques, le coefficient de variation également nommé écart type relatif, est une mesure de dispersion relative. Le RSD (relative standard deviation en anglais) est défini comme la valeur absolue du coefficient de variation et est souvent exprimé en pourcentage. Le coefficient de variation est défini comme le rapport entre l'écart-type et la moyenne : L'écart-type seul ne permet le plus souvent pas de juger de la dispersion des valeurs autour de la moyenne.
Deviation (statistics)In mathematics and statistics, deviation is a measure of difference between the observed value of a variable and some other value, often that variable's mean. The sign of the deviation reports the direction of that difference (the deviation is positive when the observed value exceeds the reference value). The magnitude of the value indicates the size of the difference. Errors and residuals A deviation that is a difference between an observed value and the true value of a quantity of interest (where true value denotes the Expected Value, such as the population mean) is an error.
Corrélation (statistiques)En probabilités et en statistique, la corrélation entre plusieurs variables aléatoires ou statistiques est une notion de liaison qui contredit leur indépendance. Cette corrélation est très souvent réduite à la corrélation linéaire entre variables quantitatives, c’est-à-dire l’ajustement d’une variable par rapport à l’autre par une relation affine obtenue par régression linéaire. Pour cela, on calcule un coefficient de corrélation linéaire, quotient de leur covariance par le produit de leurs écarts types.
Corrélation croiséeLa corrélation croisée est parfois utilisée en statistique pour désigner la covariance des vecteurs aléatoires X et Y, afin de distinguer ce concept de la « covariance » d'un vecteur aléatoire, laquelle est comprise comme étant la matrice de covariance des coordonnées du vecteur. En traitement du signal, la corrélation croisée (aussi appelée covariance croisée) est la mesure de la similitude entre deux signaux.
Pearson correlation coefficientIn statistics, the Pearson correlation coefficient (PCC) is a correlation coefficient that measures linear correlation between two sets of data. It is the ratio between the covariance of two variables and the product of their standard deviations; thus, it is essentially a normalized measurement of the covariance, such that the result always has a value between −1 and 1. As with covariance itself, the measure can only reflect a linear correlation of variables, and ignores many other types of relationships or correlations.
AutocorrélationL'autocorrélation est un outil mathématique souvent utilisé en traitement du signal. C'est la corrélation croisée d'un signal par lui-même. L'autocorrélation permet de détecter des régularités, des profils répétés dans un signal comme un signal périodique perturbé par beaucoup de bruit, ou bien une fréquence fondamentale d'un signal qui ne contient pas effectivement cette fondamentale, mais l'implique avec plusieurs de ses harmoniques. Note : La confusion est souvent faite entre l'auto-covariance et l'auto-corrélation.
Corrélation partielleLe coefficient de corrélation partielle, noté ici , permet de connaître la valeur de la corrélation entre deux variables A et B, si la variable C était demeurée constante pour la série d’observations considérées. Dit autrement, le coefficient de corrélation partielle est le coefficient de corrélation totale entre les variables A et B quand on leur a retiré leur meilleure explication linéaire en termes de C. Il est donné par la formule : La démonstration la plus rapide de la formule consiste à s’appuyer sur l’interprétation géométrique de la corrélation (cosinus).
Écart type géométriqueDans les domaines des statistiques et des probabilités, l'écart type géométrique décrit la dispersion d'un ensemble de nombres autour de la moyenne géométrique. Si la moyenne géométrique d'un ensemble de nombres {A1, A2, ..., An} est notée μg, alors l'écart type géométrique est défini par : où on a et est donc la moyenne arithmétique de , par conséquent l'écart type de cet ensemble de nombres est : d'où L'écart type géométrique est relié à la loi log-normale.
Tau de KendallEn statistique, le tau de Kendall (ou de Kendall) est une statistique qui mesure l'association entre deux variables. Plus spécifiquement, le tau de Kendall mesure la corrélation de rang entre deux variables. Elle est nommée ainsi en hommage à Maurice Kendall qui en a développé l'idée dans un article de 1938 bien que Gustav Fechner ait proposé une idée similaire appliquée aux séries temporelles dès 1897. Soit un ensemble d'observations des variables jointes et tel que les valeurs des et sont uniques.
Intervalle de confiancevignette|Chaque ligne montre 20 échantillons tirés selon la loi normale de moyenne μ. On y montre l'intervalle de confiance de niveau 50% pour la moyenne correspondante aux 20 échantillons, marquée par un losange. Si l'intervalle contient μ, il est bleu ; sinon il est rouge. En mathématiques, plus précisément en théorie des probabilités et en statistiques, un intervalle de confiance encadre une valeur réelle que l’on cherche à estimer à l’aide de mesures prises par un procédé aléatoire.
Loi de RaoultEn physique, et plus particulièrement en thermodynamique, la loi de Raoult énonce que : Dans une solution idéale, à température constante, la pression partielle en phase vapeur d'un constituant est proportionnelle à sa fraction molaire en phase liquide. Cette loi a été établie empiriquement par le physicien français François-Marie Raoult en 1882, elle est dérivée de sa loi de la tonométrie. Elle est utilisée dans de nombreux domaines de la chimie, de la physique et de la météorologie.
Racine de l'erreur quadratique moyenneLa racine de l'erreur quadratique moyenne (REQM) ou racine de l'écart quadratique moyen (en anglais, root-mean-square error ou RMSE, et root-mean-square deviation ou RMSD) est une mesure fréquemment utilisée des différences entre les valeurs (valeurs d'échantillon ou de population) prédites par un modèle ou estimateur et les valeurs observées (ou vraies valeurs). La REQM représente la racine carrée du deuxième moment d'échantillonnage des différences entre les valeurs prédites et les valeurs observées.
Loi log-normaleEn théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
Modulation de fréquenceright|Illustration de modulation en amplitude et en fréquence. La modulation de fréquence ou MF (FM en anglais) est un mode de modulation consistant à transmettre un signal par la modulation de la fréquence d'un signal porteur (porteuse). On parle de modulation de fréquence par opposition à la modulation d'amplitude. En modulation de fréquence, l'information est portée par une modification de la fréquence de la porteuse, et non par une variation d'amplitude.
Interval estimationIn statistics, interval estimation is the use of sample data to estimate an interval of possible values of a parameter of interest. This is in contrast to point estimation, which gives a single value. The most prevalent forms of interval estimation are confidence intervals (a frequentist method) and credible intervals (a Bayesian method); less common forms include likelihood intervals and fiducial intervals.
Azéotropevignette|350px|Diagramme de phase d'un azéotropisme négatif. vignette|350px|Diagramme de phase d'un azéotropisme positif. Un mélange azéotrope ou azéotropique (a privatif, du grec zêin bouillir et tropos manière de) est un mélange liquide qui bout à température fixe en gardant une composition fixe. Un mélange azéotropique est un mélange qui présente, pour une composition particulière, une phase vapeur ayant la même composition que la phase liquide avec laquelle elle est en équilibre.
MagnétohydrodynamiqueLa magnétohydrodynamique (MHD) est une discipline scientifique qui décrit le comportement d'un fluide conducteur du courant électrique en présence de champs électromagnétiques. Elle s'applique notamment aux plasmas, au noyau externe et même à l'eau de mer. C'est une généralisation de l'hydrodynamique (appelée plus communément dynamique des fluides, définie par les équations de Navier-Stokes) couplée à l'électromagnétisme (équations de Maxwell).
Codage neuronalLe codage neuronal désigne, en neurosciences, la relation hypothétique entre le stimulus et les réponses neuronales individuelles ou globales. C'est une théorie sur l'activité électrique du système nerveux, selon laquelle les informations, par exemple sensorielles, numériques ou analogiques, sont représentées dans le cerveau par des réseaux de neurones. Le codage neuronal est lié aux concepts du souvenir, de l'association et de la mémoire sensorielle.