Tension superficiellevignette|et aux gerridés de se déplacer à la surface d'une mare. La tension superficielle est un phénomène physico-chimique lié aux interactions moléculaires d'un fluide. Elle résulte de l'augmentation de l'énergie à l'interface entre deux fluides. Le système tend vers un équilibre qui correspond à la configuration de plus basse énergie, il modifie donc sa géométrie pour diminuer l'aire de cette interface. La force qui maintient le système dans cette configuration est la tension superficielle.
Mesure physiqueLa mesure physique est l'action de déterminer la ou les valeurs d'une grandeur (longueur, capacité), par comparaison avec une grandeur constante de même espèce prise comme terme de référence (étalon ou unité). Selon la définition canonique : La mesure physique vise à l'objectivité et à la reproductibilité. La comparaison est numérique ; on exprime une caractéristique bien définie de l'objet par un nombre rationnel multipliant l'unité.
Problème de la mesure quantiqueLe problème de la mesure quantique consiste en un ensemble de problèmes, qui mettent en évidence des difficultés de corrélation entre les postulats de la mécanique quantique et le monde macroscopique tel qu'il nous apparaît ou tel qu'il est mesuré.
Mesure faibleEn mécanique quantique, une mesure faible (weak measurement en anglais) est une technique permettant de mesurer la valeur moyenne d'une observable d'un système quantique, en ne perturbant celui-ci que de manière négligeable. La théorie de ce type de mesure a été développé initialement par Yakir Aharonov, David Albert and Lev Vaidman en 1988.
Analyse discriminante linéaireEn statistique, l’analyse discriminante linéaire ou ADL (en anglais, linear discriminant analysis ou LDA) fait partie des techniques d’analyse discriminante prédictive. Il s’agit d’expliquer et de prédire l’appartenance d’un individu à une classe (groupe) prédéfinie à partir de ses caractéristiques mesurées à l’aide de variables prédictives. Dans l’exemple de l'article Analyse discriminante, le fichier Flea Beetles, l’objectif est de déterminer l’appartenance de puces à telle ou telle espèce à partir de la largeur et de l’angle de son édéage (partie des organes génitaux mâles de l'insecte.
Algèbre linéairevignette|R3 est un espace vectoriel de dimension 3. Droites et plans qui passent par l'origine sont des sous-espaces vectoriels. L’algèbre linéaire est la branche des mathématiques qui s'intéresse aux espaces vectoriels et aux transformations linéaires, formalisation générale des théories des systèmes d'équations linéaires. L'algèbre linéaire est initiée dans son principe par le mathématicien perse Al-Khwârizmî qui s'est inspiré des textes de mathématiques indiens et qui a complété les travaux de l'école grecque, laquelle continuera de se développer des siècles durant.
Analyse fonctionnelle (mathématiques)L'analyse fonctionnelle est la branche des mathématiques et plus particulièrement de l'analyse qui étudie les espaces de fonctions. Elle prend ses racines historiques dans l'étude des transformations telles que la transformation de Fourier et dans l'étude des équations différentielles ou intégro-différentielles. Le terme fonctionnelle trouve son origine dans le cadre du calcul des variations, pour désigner des fonctions dont les arguments sont des fonctions.
Densité surfacique d'énergieLa densité surfacique d'énergie ou énergie surfacique, voire densité énergétique (quand le contexte surfacique est clair), est la quantité d’énergie par une unité de surface. Dans le Système international elle se mesure en J/m (joules par mètre carré). Dans un contexte industriel on l'exprime souvent en kWh/m (kilowatts-heures par mètre carré). Cette grandeur physique est principalement utilisée dans l'étude physique des interfaces entre liquides non miscibles, ou entre liquide et gaz, où elle caractérise l'énergie nécessaire à former une interface d'une certaine surface.
Salinisationthumb|upright=1.2|Un exemple de salinisation dans le Colorado La salinisation est l'accumulation des sels hydrosolubles (potassium, magnésium, calcium, chlore, sulfate, carbonate, bicarbonate) dans les sols à des niveaux toxiques pour la plupart des plantes, animaux et champignons. La sodification est l'augmentation dans les sols de sels à haute teneur en sodium. La salinisation et la sodification sont devenue une cause importante de désertification, d'érosion et de dégradation des sols et de l'agriculture et plus largement de la biodiversité.
Analyse de sensibilitéL’analyse de sensibilité est l'étude de la façon dont l'incertitude de la sortie d'un code ou d'un système (numérique ou autre) peut être attribuée à l'incertitude dans ses entrées. Il s'agit d'estimer des indices de sensibilité qui quantifient l'influence d'une entrée ou d'un groupe d'entrées sur la sortie. L'analyse de sensibilité peut être utile pour beaucoup d'applications: Tester la robustesse d'un modèle ou d'un système en présence d'incertitude.
Level of measurementLevel of measurement or scale of measure is a classification that describes the nature of information within the values assigned to variables. Psychologist Stanley Smith Stevens developed the best-known classification with four levels, or scales, of measurement: nominal, ordinal, interval, and ratio. This framework of distinguishing levels of measurement originated in psychology and has since had a complex history, being adopted and extended in some disciplines and by some scholars, and criticized or rejected by others.
GoniomètreUn goniomètre est un appareil ou un capteur servant à mesurer les angles. Le goniomètre a été inventé vers 1780 par le minéralogiste français Arnould Carangeot (1742-1806). vignette|Raies spectrales du mercure à travers un réseau de diffraction, observées dans un goniomètre optique. En optique, le goniomètre est utilisé pour déterminer la déviation d'un rayon lumineux par un dispositif optique (par exemple un prisme ou un réseau de diffraction). Le goniomètre comporte une partie fixe, sur laquelle est montée une partie mobile portant une lunette de visée.
Analyse de la varianceEn statistique, lanalyse de la variance (terme souvent abrégé par le terme anglais ANOVA : analysis of variance) est un ensemble de modèles statistiques utilisés pour vérifier si les moyennes des groupes proviennent d'une même population. Les groupes correspondent aux modalités d'une variable qualitative (p. ex. variable : traitement; modalités : programme d'entrainement sportif, suppléments alimentaires; placebo) et les moyennes sont calculés à partir d'une variable continue (p. ex. gain musculaire).
Criblage à haut débitthumb|Machine de criblage à haut débit en Allemagne Le criblage à haut débit (high-throughput screening, HTS) désigne dans le domaine de la pharmacologie, de la biochimie, de la génomique et de la protéomique, les techniques visant à étudier et à identifier dans les chimiothèques et ciblothèques, des molécules aux propriétés nouvelles, biologiquement actives. L’expression haut débit évoque ici l’utilisation de la robotique, de l’informatique et de la bio-informatique pour accélérer la phase de test des molécules, protéines, catalyseurs, etc.
Incertitude de mesurevignette|Mesurage avec une colonne de mesure. En métrologie, une incertitude de mesure liée à un mesurage (d'après le Bureau international des poids et mesures). Elle est considérée comme une dispersion et fait appel à des notions de statistique. Les causes de cette dispersion, liées à différents facteurs, influent sur le résultat de mesurage, donc sur l'incertitude et in fine sur la qualité de la mesure. Elle comprend de nombreuses composantes qui sont évaluées de deux façons différentes : certaines par une analyse statistique, d'autres par d'autres moyens.
Maîtrise de la salinitévignette|250px|Modélisation numérique avec le logiciel SegReg : production de grains de moutarde en fonction de la salinité du sol. Le contrôle de la salinité permet de préserver le potentiel d'un sol, essentiellement en vue de son exploitation agricole. De façon préventive, il permet de limiter la dégradation par excès de sels et de restaurer des sols comportant des éléments chimiques en excès quelle qu'en soit l'origine . On parle aussi d'amélioration, de remédiation ou de récupération des sols.
Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Unconventional computingUnconventional computing is computing by any of a wide range of new or unusual methods. It is also known as alternative computing. The term unconventional computation was coined by Cristian S. Calude and John Casti and used at the First International Conference on Unconventional Models of Computation in 1998. The general theory of computation allows for a variety of models. Computing technology first developed using mechanical systems and then evolved into the use of electronic devices.
Salinitéthumb|upright=1.5|Cristaux de sel. La salinité désigne la quantité de sels dissous dans un liquide, notamment l'eau qui est un puissant solvant pour de nombreux minéraux. Il ne faut pas confondre la salinité avec la dureté de l'eau qui est relative à son dosage en calcium et magnésium. Le sel dissous modifie les propriétés de l'eau, en premier lieu sa capacité de dissolution, sa densité, mais aussi sa compressibilité, son point de congélation et d'ébullition, sa conductivité électrique, sa dureté ainsi que sa viscosité ou sa corrosivité, et très légèrement sa capacité à transporter les sons et la lumière.
Analyse en composantes principalesL'analyse en composantes principales (ACP ou PCA en anglais pour principal component analysis), ou, selon le domaine d'application, transformation de Karhunen–Loève (KLT) ou transformation de Hotelling, est une méthode de la famille de l'analyse des données et plus généralement de la statistique multivariée, qui consiste à transformer des variables liées entre elles (dites « corrélées » en statistique) en nouvelles variables décorrélées les unes des autres. Ces nouvelles variables sont nommées « composantes principales » ou axes principaux.