Incertitude de mesurevignette|Mesurage avec une colonne de mesure. En métrologie, une incertitude de mesure liée à un mesurage (d'après le Bureau international des poids et mesures). Elle est considérée comme une dispersion et fait appel à des notions de statistique. Les causes de cette dispersion, liées à différents facteurs, influent sur le résultat de mesurage, donc sur l'incertitude et in fine sur la qualité de la mesure. Elle comprend de nombreuses composantes qui sont évaluées de deux façons différentes : certaines par une analyse statistique, d'autres par d'autres moyens.
Uncertainty quantificationUncertainty quantification (UQ) is the science of quantitative characterization and estimation of uncertainties in both computational and real world applications. It tries to determine how likely certain outcomes are if some aspects of the system are not exactly known. An example would be to predict the acceleration of a human body in a head-on crash with another car: even if the speed was exactly known, small differences in the manufacturing of individual cars, how tightly every bolt has been tightened, etc.
Prédiction dynamiqueLa prédiction dynamique est une méthode inventée par Newton et Leibniz. Newton l’a appliquée avec succès au mouvement des planètes et de leurs satellites. Depuis elle est devenue la grande méthode de prédiction des mathématiques appliquées. Sa portée est universelle. Tout ce qui est matériel, tout ce qui est en mouvement, peut être étudié avec les outils de la théorie des systèmes dynamiques. Mais il ne faut pas en conclure que pour connaître un système il est nécessaire de connaître sa dynamique.
UncertaintyUncertainty refers to epistemic situations involving imperfect or unknown information. It applies to predictions of future events, to physical measurements that are already made, or to the unknown. Uncertainty arises in partially observable or stochastic environments, as well as due to ignorance, indolence, or both. It arises in any number of fields, including insurance, philosophy, physics, statistics, economics, finance, medicine, psychology, sociology, engineering, metrology, meteorology, ecology and information science.
Erreur de mesurevignette|upright|Mesurage avec une colonne de mesure. Une erreur de mesure, dans le langage courant, est Exemples usuels et fictifs d'après cette définition : L'indication d'une balance de ménage pour une masse de certifiée est de . L'erreur de mesure est de – ; La distance entre deux murs, donnée par un télémètre laser est de , valeur considérée ici comme exacte. La valeur mesurée, au même endroit, avec un mètre à ruban est de . L'erreur de mesure, avec le mètre à ruban, est de ou ; La différence sur 24 heures de temps entre une pendule radio pilotée et une montre bracelet est de .
Principe d'incertitudeEn mécanique quantique, le principe d'incertitude ou, plus correctement, principe d'indétermination, aussi connu sous le nom de principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position (x) et sa quantité de mouvement (p).
Prévision numérique du tempsLa prévision numérique du temps (PNT) est une application de la météorologie et de l'informatique. Elle repose sur le choix d'équations mathématiques offrant une proche approximation du comportement de l'atmosphère réelle. Ces équations sont ensuite résolues, à l'aide d'un ordinateur, pour obtenir une simulation accélérée des états futurs de l'atmosphère. Le logiciel mettant en œuvre cette simulation est appelé un modèle de prévision numérique du temps.
Variable aléatoire à densitéEn théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
ParameterA parameter (), generally, is any characteristic that can help in defining or classifying a particular system (meaning an event, project, object, situation, etc.). That is, a parameter is an element of a system that is useful, or critical, when identifying the system, or when evaluating its performance, status, condition, etc. Parameter has more specific meanings within various disciplines, including mathematics, computer programming, engineering, statistics, logic, linguistics, and electronic musical composition.
Fonction de masse (probabilités)En théorie des probabilités, la fonction de masse est la fonction qui donne la probabilité de chaque issue ( résultat élémentaire) d'une expérience aléatoire. C'est souvent ainsi que l'on définit une loi de probabilité discrète. Elle se distingue de la fonction de densité, de la densité de probabilité, en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues, et que ce sont leurs intégrales sur des domaines qui ont valeurs de probabilités (et non leurs valeurs en des points).
Système complexe adaptatifUn système complexe adaptatif ou système complexe auto-adaptatif est l'ensemble des cas particuliers d'un système complexe capable de s'adapter à son environnement par des expériences d'apprentissage. Le terme anglais complex adaptive systems (CAS) a été introduit par l'Institut interdisciplinaire de Santa Fe notamment par John H. Holland et Murray Gell-Mann. En 1962, Vero Copner Wynne-Edwards a observé la sélection de groupe à l’œuvre dans les communautés d’oiseaux sauvages.
Identification de systèmeL'identification de système ou identification paramétrique est une technique de l'automatique consistant à obtenir un modèle mathématique d'un système à partir de mesures. L'identification consiste à appliquer ou observer des signaux de perturbation à l'entrée d'un système (par exemple, pour un système électronique, ceux-ci peuvent être de type binaire aléatoire ou pseudo-aléatoire, galois, sinus à fréquences multiples...) et en analyser la sortie dans le but d'obtenir un modèle purement mathématique.
Prédiction de gènesEn bio-informatique, la prédiction de gènes consiste à identifier les zones de l'ADN qui correspondent à des gènes (le reste étant non codant). Les méthodes par similitudes, aussi appelées méthodes par homologie ou méthodes extrinsèques, consistent à utiliser des informations extérieures au génome pour trouver les gènes. Plus précisément, ces méthodes consistent à comparer la séquence étudiée avec des séquences connues, rassemblées dans les bases de données.
Prédiction de la structure des protéinesLa prédiction de la structure des protéines est l'inférence de la structure tridimensionnelle des protéines à partir de leur séquences d'acides aminés, c'est-à-dire la prédiction de leur pliage et de leur structures secondaire et tertiaire à partir de leur structure primaire. La prédiction de la structure est fondamentalement différente du problème inverse de la conception des protéines. Elle est l'un des objectifs les plus importants poursuivis par la bioinformatique et la chimie théorique.
Robustesse (ingénierie)En ingénierie, la robustesse d'un système se définit comme la « stabilité de sa performance ». On distingue trois types de systèmes : les systèmes non-performants, qui ne remplissent pas les fonctionnalités attendues par l'utilisateur ; les systèmes performants fragiles, qui sont performants mais uniquement pour une plage réduite des paramètres internes ou externes ; les systèmes performants robustes, qui restent performants malgré des conditions externes présentant de larges variations d'amplitude (exemple : variation de température, d'adhérence au sol, de dispersion d'usinage.
Système complexevignette|Visualisation sous forme de graphe d'un réseau social illustrant un système complexe. Un système complexe est un ensemble constitué d'un grand nombre d'entités en interaction dont l'intégration permet d'achever un but commun. Les systèmes complexes sont caractérisés par des propriétés émergentes qui n'existent qu'au niveau du système et ne peuvent pas être observées au niveau de ses constituants. Dans certains cas, un observateur ne peut pas prévoir les rétroactions ou les comportements ou évolutions des systèmes complexes par le calcul, ce qui amène à les étudier à l'aide de la théorie du chaos.
Inférence bayésiennevignette|Illustration comparant les approches fréquentiste et bayésienne (Christophe Michel, 2018). L’inférence bayésienne est une méthode d'inférence statistique par laquelle on calcule les probabilités de diverses causes hypothétiques à partir de l'observation d'événements connus. Elle s'appuie principalement sur le théorème de Bayes. Le raisonnement bayésien construit, à partir d'observations, une probabilité de la cause d'un type d'événements.
Propagation des incertitudesUne mesure est toujours entachée d'erreur, dont on estime l'intensité par l'intermédiaire de l'incertitude. Lorsqu'une ou plusieurs mesures sont utilisées pour obtenir la valeur d'une ou de plusieurs autres grandeurs (par l'intermédiaire d'une formule explicite ou d'un algorithme), il faut savoir, non seulement calculer la valeur estimée de cette ou ces grandeurs, mais encore déterminer l'incertitude ou les incertitudes induites sur le ou les résultats du calcul.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Théorie de l'estimationEn statistique, la théorie de l'estimation s'intéresse à l'estimation de paramètres à partir de données empiriques mesurées ayant une composante aléatoire. Les paramètres décrivent un phénomène physique sous-jacent tel que sa valeur affecte la distribution des données mesurées. Un estimateur essaie d'approcher les paramètres inconnus à partir des mesures.