Événement élémentaireEn théorie des probabilités, on appelle événement élémentaire un ensemble de l'univers (un évènement) constitué d'un seul élément. Par exemple dans un jeu de carte classique de 52 cartes, tirer le roi de cœur est un événement élémentaire car le paquet de carte ne contient qu'un seul roi de cœur. Supposons qu'une tribu contienne tous les événements élémentaires ; elle contient alors toutes les parties finies ou dénombrables de , et chacune de ces parties peut s'écrire sous la forme : La réunion étant disjointe, cette relation permet de déterminer la probabilité de tout événement à partir des probabilités des événements élémentaires constituant .
Événement (probabilités)vignette|Jeu de dés : une expérience aléatoire. En théorie des probabilités, un événement lié à une expérience aléatoire est un sous-ensemble des résultats possibles pour cette expérience (c'est-à-dire un certain sous-ensemble de l'univers lié à l'expérience). Un événement étant souvent défini par une proposition, nous devons pouvoir dire, connaissant le résultat de l'expérience aléatoire, si l'événement a été réalisé ou non au cours de cette expérience. Par exemple, considérons l'expérience aléatoire consistant à lancer un dé à 6 faces.
Tribu boréliennevignette|Normal distribution pdf. En mathématiques, la tribu borélienne (également appelée tribu de Borel ou tribu des boréliens) sur un espace topologique est la plus petite tribu sur contenant tous les ensembles ouverts. Les éléments de la tribu borélienne sont appelés des boréliens. Le concept doit son nom à Émile Borel, qui a publié en 1898 une première exposition de la tribu borélienne de la droite réelle. La tribu borélienne peut, de manière équivalente, se définir comme la plus petite tribu qui contient tous les sous-ensembles fermés de .
Tribu (mathématiques)En mathématiques, une tribu ou σ-algèbre (lire sigma-algèbre) ou plus rarement corps de Borel sur un ensemble X est un ensemble non vide de parties de X, stable par passage au complémentaire et par union dénombrable (donc aussi par intersection dénombrable). Les tribus permettent de définir rigoureusement la notion d'ensemble mesurable. Progressivement formalisées pendant le premier tiers du , les tribus constituent le cadre dans lequel s'est développée la théorie de la mesure.
Univers (probabilités)vignette|Lancé d'une pièce (pile ou face) En théorie des probabilités, un univers, souvent noté , ou , est l'ensemble de toutes les issues (résultats) pouvant être obtenues au cours d'une expérience aléatoire. À chaque élément de l'univers , c'est-à-dire à chacun des résultats possibles de l'expérience considérée, nous pouvons associer le sous-ensemble constitué de cet élément, appelé événement élémentaire. De manière plus générale, toute partie de l'univers est appelée un événement.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Presque sûrementvignette|alt=Illustration d'un évènement négligeable|Illustration du concept : l'évènement où la fléchette atteint exactement le point central de la cible est de probabilité 0. Autrement dit, l'évènement où la fléchette n'atteint pas le point central de la cible est presque sûr. En théorie des probabilités, un évènement est dit presque sûr s'il a une probabilité de un. En d'autres mots, l'ensemble des cas où l'évènement ne se réalise pas est de probabilité nulle.
Axiomes des probabilitésEn théorie des probabilités, les axiomes de probabilités, également appelés axiomes de Kolmogorov du nom d'Andreï Nikolaievitch Kolmogorov qui les a développés, désignent les propriétés que doit vérifier une application afin de formaliser l'idée de probabilité. Ces propriétés peuvent être résumées ainsi : si est une mesure sur un espace mesurable , alors doit être un espace de probabilité. Le théorème de Cox fournit une autre approche pour formaliser les probabilités, privilégiée par certains bayésiens.
Indépendance (probabilités)vignette|Paire de dés L'indépendance est une notion probabiliste qualifiant de manière intuitive des événements aléatoires n'ayant aucune influence l'un sur l'autre. Il s'agit d'une notion très importante en statistique et en théorie des probabilités. Par exemple, la valeur d'un premier lancer de dés n'a aucune influence sur la valeur du second lancer. De même, pour un lancer, le fait dobtenir une valeur inférieure ou égale à quatre n'influe en rien sur la probabilité que le résultat soit pair ou impair : les deux événements sont dits indépendants.
Expérience aléatoirevignette|Exemple d'expérience aléatoire: pile ou face En théorie des probabilités, une expérience aléatoire est une expérience renouvelable (en théorie si ce n'est en pratique), dont le résultat ne peut être prévu, et qui, renouvelée dans des conditions identiques –pour autant que l'observateur puisse s'en assurer– ne donne pas forcément le même résultat à chaque renouvellement. Une succession de lancers d'une même pièce en est un exemple classique. Le tirage au hasard d'un élément dans un ensemble en est un autre exemple.
Outcome (probability)In probability theory, an outcome is a possible result of an experiment or trial. Each possible outcome of a particular experiment is unique, and different outcomes are mutually exclusive (only one outcome will occur on each trial of the experiment). All of the possible outcomes of an experiment form the elements of a sample space. For the experiment where we flip a coin twice, the four possible outcomes that make up our sample space are (H, T), (T, H), (T, T) and (H, H), where "H" represents a "heads", and "T" represents a "tails".
Fonction mesurableSoient E et F des espaces mesurables munis de leurs tribus respectives E et F. Une fonction f : E → F est dite (E, F)-mesurable si la par f de la tribu F est incluse dans E, c'est-à-dire si : L'identité, la composée de deux fonctions mesurables, sont mesurables. Les fonctions mesurables fournissent donc à la classe des espaces mesurables une structure de catégorie. Si F est l'ensemble des réels et si F est sa tribu borélienne, on dira simplement que f est une fonction mesurable sur (E, E).
Variable aléatoirevignette|La valeur d’un dé après un lancer est une variable aléatoire comprise entre 1 et 6. En théorie des probabilités, une variable aléatoire est une variable dont la valeur est déterminée après la réalisation d’un phénomène, expérience ou événement, aléatoire. En voici des exemples : la valeur d’un dé entre 1 et 6 ; le côté de la pièce dans un pile ou face ; le nombre de voitures en attente dans la 2e file d’un télépéage autoroutier ; le jour de semaine de naissance de la prochaine personne que vous rencontrez ; le temps d’attente dans la queue du cinéma ; le poids de la part de tomme que le fromager vous coupe quand vous lui en demandez un quart ; etc.
Processus stochastiqueUn processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Celle-ci intervient dans le calcul classique des probabilités, où elle mesure chaque résultat possible (ou réalisation) d'une épreuve. Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.
Hasardvignette|Les jeux de dés sont des symboles du hasard (jeux de hasard). vignette|Tyché ou Fortuna et sa corne d'abondance (fortune, hasard, en grec ancien, sort en latin) déesse allégorique gréco-romaine de la chance, des coïncidences, de la fortune, de la prospérité, de la destinée...|alt= Le hasard est le principe déclencheur d'événements non liés à une cause connue. Il peut être synonyme de l'« imprévisibilité », de l'« imprédictibilité », de fortune ou de destin.
Probabilité conditionnellevignette|Illustration des probabilités conditionnelles avec un diagramme d'Euler. On a la probabilité a priori et les probabilités conditionnelles , et .|320x320px En théorie des probabilités, une probabilité conditionnelle est la probabilité d'un événement sachant qu'un autre événement a eu lieu. Par exemple, si une carte d'un jeu est tirée au hasard, on estime qu'il y a une chance sur quatre d'obtenir un cœur ; mais si on aperçoit un reflet rouge sur la table, il y a maintenant une chance sur deux d'obtenir un cœur.
Set functionIn mathematics, especially measure theory, a set function is a function whose domain is a family of subsets of some given set and that (usually) takes its values in the extended real number line which consists of the real numbers and A set function generally aims to subsets in some way. Measures are typical examples of "measuring" set functions. Therefore, the term "set function" is often used for avoiding confusion between the mathematical meaning of "measure" and its common language meaning.
Théorie des probabilitésLa théorie des probabilités en mathématiques est l'étude des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard qui sont partie intégrante des mathématiques. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques par exemple. Bien que le calcul de probabilités sur des questions liées au hasard existe depuis longtemps, la formalisation mathématique n'est que récente.
Théorie des possibilitésEn mathématiques et en informatique, la théorie des possibilités est une alternative à la théorie des probabilités pour représenter l'incertitude. Lotfi Zadeh a d'abord introduit la théorie des possibilités en 1978 comme une extension de sa théorie des ensembles flous et la logique floue. Didier Dubois et Henri Prade ont ensuite contribué à son développement. Étant donné un univers Ω que l'on suppose fini pour simplifier la présentation, une mesure ou distribution de possibilité est une fonction de dans [0, 1], c'est-à-dire à chaque sous-ensemble d'événements U, on associe pos(U) qui mesure la possibilité de U.
Fuzzy measure theoryIn mathematics, fuzzy measure theory considers generalized measures in which the additive property is replaced by the weaker property of monotonicity. The central concept of fuzzy measure theory is the fuzzy measure (also capacity, see ), which was introduced by Choquet in 1953 and independently defined by Sugeno in 1974 in the context of fuzzy integrals. There exists a number of different classes of fuzzy measures including plausibility/belief measures; possibility/necessity measures; and probability measures, which are a subset of classical measures.