Uncertainty quantificationUncertainty quantification (UQ) is the science of quantitative characterization and estimation of uncertainties in both computational and real world applications. It tries to determine how likely certain outcomes are if some aspects of the system are not exactly known. An example would be to predict the acceleration of a human body in a head-on crash with another car: even if the speed was exactly known, small differences in the manufacturing of individual cars, how tightly every bolt has been tightened, etc.
Incertitude de mesurevignette|Mesurage avec une colonne de mesure. En métrologie, une incertitude de mesure liée à un mesurage (d'après le Bureau international des poids et mesures). Elle est considérée comme une dispersion et fait appel à des notions de statistique. Les causes de cette dispersion, liées à différents facteurs, influent sur le résultat de mesurage, donc sur l'incertitude et in fine sur la qualité de la mesure. Elle comprend de nombreuses composantes qui sont évaluées de deux façons différentes : certaines par une analyse statistique, d'autres par d'autres moyens.
Propagation des incertitudesUne mesure est toujours entachée d'erreur, dont on estime l'intensité par l'intermédiaire de l'incertitude. Lorsqu'une ou plusieurs mesures sont utilisées pour obtenir la valeur d'une ou de plusieurs autres grandeurs (par l'intermédiaire d'une formule explicite ou d'un algorithme), il faut savoir, non seulement calculer la valeur estimée de cette ou ces grandeurs, mais encore déterminer l'incertitude ou les incertitudes induites sur le ou les résultats du calcul.
Analyse de sensibilitéL’analyse de sensibilité est l'étude de la façon dont l'incertitude de la sortie d'un code ou d'un système (numérique ou autre) peut être attribuée à l'incertitude dans ses entrées. Il s'agit d'estimer des indices de sensibilité qui quantifient l'influence d'une entrée ou d'un groupe d'entrées sur la sortie. L'analyse de sensibilité peut être utile pour beaucoup d'applications: Tester la robustesse d'un modèle ou d'un système en présence d'incertitude.
Experimental uncertainty analysisExperimental uncertainty analysis is a technique that analyses a derived quantity, based on the uncertainties in the experimentally measured quantities that are used in some form of mathematical relationship ("model") to calculate that derived quantity. The model used to convert the measurements into the derived quantity is usually based on fundamental principles of a science or engineering discipline. The uncertainty has two components, namely, bias (related to accuracy) and the unavoidable random variation that occurs when making repeated measurements (related to precision).
Fonction de vraisemblancevignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
UncertaintyUncertainty refers to epistemic situations involving imperfect or unknown information. It applies to predictions of future events, to physical measurements that are already made, or to the unknown. Uncertainty arises in partially observable or stochastic environments, as well as due to ignorance, indolence, or both. It arises in any number of fields, including insurance, philosophy, physics, statistics, economics, finance, medicine, psychology, sociology, engineering, metrology, meteorology, ecology and information science.
Test du rapport de vraisemblanceEn statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint. Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type : contre On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous .
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Posterior predictive distributionIn Bayesian statistics, the posterior predictive distribution is the distribution of possible unobserved values conditional on the observed values. Given a set of N i.i.d. observations , a new value will be drawn from a distribution that depends on a parameter , where is the parameter space. It may seem tempting to plug in a single best estimate for , but this ignores uncertainty about , and because a source of uncertainty is ignored, the predictive distribution will be too narrow.
Purification de l'eauvignette|Usine de traitement de l'eau à Fontburn, dans le nord de l'Angleterre. La purification de l'eau regroupe l'ensemble des techniques et méthodes permettant d'obtenir de l'« eau de procédé » à partir d'eau potable. Beaucoup d'industries utilisent de l'eau douce pour leurs procédés de production. L'eau de procédé peut avoir différents noms – et différentes caractéristiques – selon l'industrie et l'application, par exemple : « eau purifiée » et « eau pour préparation injectable » (eau PPI) dans l'industrie pharmaceutique ; « eau ultrapure » ou « eau » en microélectronique.
Likelihood principleIn statistics, the likelihood principle is the proposition that, given a statistical model, all the evidence in a sample relevant to model parameters is contained in the likelihood function. A likelihood function arises from a probability density function considered as a function of its distributional parameterization argument.
Erreur de mesurevignette|upright|Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition : L'indication d'une balance de ménage pour une masse de certifiée est de . L'erreur de mesure est de – ; La distance entre deux murs, donnée par un télémètre laser est de , valeur considérée ici comme exacte. La valeur mesurée, au même endroit, avec un mètre à ruban est de . L'erreur de mesure, avec le mètre à ruban, est de ou ; La différence sur 24 heures de temps entre une pendule radio pilotée et une montre bracelet est de .
Étalonnage (métrologie)En métrologie, l'étalonnage est une opération qui concerne les appareils de mesure ou de restitution de données. Deux appareils différents — de conception différente, mais aussi deux appareils de la même gamme (même marque, même modèle) — ne réagissent pas exactement de la même manière. Il faut donc une procédure permettant d'obtenir le même résultat à partir de la même situation initiale. On rencontre aussi l'anglicisme en. Le mot « calibrage » a un sens différent.
Lampe à déchargeUne lampe à décharge est une lampe électrique constituée d'un tube ou d'une ampoule en verre remplie de gaz ou de vapeur métallique, sous haute ou basse pression, au travers duquel on fait passer un courant électrique, il s'ensuit une conversion en photons donc de la lumière. La couleur de la lumière émise par luminescence, par ces lampes dépend du gaz utilisé parmi lesquels : le néon donne une couleur rouge ; le mercure s'approche du bleu tout en produisant une quantité d'ultraviolet importante ; le sodium rayonne dans le orange ; le xénon est légèrement grisé à gris clair ou à forte intensité bleu-vert très vif à bleu.
Méthode de Monte-CarloUne méthode de Monte-Carlo, ou méthode Monte-Carlo, est une méthode algorithmique visant à calculer une valeur numérique approchée en utilisant des procédés aléatoires, c'est-à-dire des techniques probabilistes. Les méthodes de Monte-Carlo sont particulièrement utilisées pour calculer des intégrales en dimensions plus grandes que 1 (en particulier, pour calculer des surfaces et des volumes). Elles sont également couramment utilisées en physique des particules, où des simulations probabilistes permettent d'estimer la forme d'un signal ou la sensibilité d'un détecteur.
MétaheuristiqueUne métaheuristique est un algorithme d’optimisation visant à résoudre des problèmes d’optimisation difficile (souvent issus des domaines de la recherche opérationnelle, de l'ingénierie ou de l'intelligence artificielle) pour lesquels on ne connaît pas de méthode classique plus efficace. Les métaheuristiques sont généralement des algorithmes stochastiques itératifs, qui progressent vers un optimum global (c'est-à-dire l'extremum global d'une fonction), par échantillonnage d’une fonction objectif.
Qualité de l'eauthumb|Eau du robinet La qualité de l'eau est caractérisée du point de vue physico-chimique, biologique et hydromorphologique (dans le cadre de la Directive-cadre sur l'eau, norme européenne). La qualité de l'eau attendue est dépendante de son usage ; les normes à respecter ne seront pas les mêmes selon que l'eau est destinée à être bue, utilisée pour l'irrigation de cultures, ou simplement à alimenter un cours d'eau naturel.