Épreuve de Bernoullivignette|Le pile ou face est un exemple d'épreuve de Bernouilli. En probabilité, une épreuve de Bernoulli de paramètre p (réel compris entre 0 et 1) est une expérience aléatoire (c'est-à-dire soumise au hasard) comportant deux issues, le succès ou l'échec. L'exemple typique est le lancer d'une pièce de monnaie possiblement pipée. On note alors p la probabilité d'obtenir pile (qui correspond disons à un succès) et 1-p d'obtenir face. Le réel p représente la probabilité d'un succès.
Loi de BernoulliEn mathématiques et plus précisément en théorie des probabilités, la loi de Bernoulli, du nom du mathématicien suisse Jacques Bernoulli, désigne la loi de probabilité d'une variable aléatoire discrète qui prend la valeur 1 avec la probabilité p et 0 avec la probabilité q = 1 – p. gauche|vignette Par exemple, dans pile ou face, le lancer d'une pièce de monnaie bien équilibrée tombe sur pile avec une probabilité 1/2 et sur face avec une probabilité 1/2.
Système dynamique mesuréUn système dynamique mesuré est un objet mathématique, représentant un espace de phases muni d'une loi d'évolution, particulièrement étudié en théorie ergodique. Un système dynamique mesuré est la donnée d'un espace probabilisé et d'une application mesurable f : X → X. On exige que f préserve la mesure, ce qui veut dire que : Cette propriété très riche permet d'obtenir de puissants théorèmes. Par ailleurs, un théorème affirme qu'il existe, pour toute transformation continue X → X d'un espace topologique compact X, une mesure de probabilité, borélienne, préservant cette transformation.
Mixing (mathematics)In mathematics, mixing is an abstract concept originating from physics: the attempt to describe the irreversible thermodynamic process of mixing in the everyday world: e.g. mixing paint, mixing drinks, industrial mixing. The concept appears in ergodic theory—the study of stochastic processes and measure-preserving dynamical systems. Several different definitions for mixing exist, including strong mixing, weak mixing and topological mixing, with the last not requiring a measure to be defined.
Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Décalage de Bernoulli (mathématiques)Le décalage de Bernoulli (également connu comme fonction dyadique ou fonction 2x mod 1) est l'application produite par la règle De façon équivalente, le décalage de Bernoulli peut également être défini comme la fonction itérée de la fonction affine par parties Le décalage de Bernoulli fournit un exemple de la manière dont une simple fonction unidimensionnelle peut mener au chaos. Si x0 est rationnel, l'image de x0 contient un nombre fini de valeurs différentes dans [0 ; 1] et l'orbite positive de x0 est périodique à partir d'un certain point, avec la même période que le développement binaire de x0.
Décalage de Bernoulli (langage formel)Un décalage de Bernoulli (en anglais Bernoulli shift) est une transformation opérant sur des mots de longueur infinie, étudiée en dynamique symbolique. Étant donné un alphabet Λ, c'est-à-dire un ensemble fini. Un mot infini est une suite à valeurs dans l'alphabet Λ. Le décalage de Bernoulli est l'application qui décale un mot d'un cran vers la gauche : On peut définir de même les décalages de Bernoulli pour des mots infinis indexés sur et les résultats et propriétés énoncés sont similaires.
Théorie ergodiquevignette|Flux d'un ensemble statistique dans le potentiel x6 + 4*x3 - 5x**2 - 4x. Sur de longues périodes, il devient tourbillonnant et semble devenir une distribution lisse et stable. Cependant, cette stabilité est un artefact de la pixellisation (la structure réelle est trop fine pour être perçue). Cette animation est inspirée d'une discussion de Gibbs dans son wikisource de 1902 : Elementary Principles in Statistical Mechanics, Chapter XII, p. 143 : « Tendance d'un ensemble de systèmes isolés vers un état d'équilibre statistique ».
ErgodicityIn mathematics, ergodicity expresses the idea that a point of a moving system, either a dynamical system or a stochastic process, will eventually visit all parts of the space that the system moves in, in a uniform and random sense. This implies that the average behavior of the system can be deduced from the trajectory of a "typical" point. Equivalently, a sufficiently large collection of random samples from a process can represent the average statistical properties of the entire process.
Uncorrelatedness (probability theory)In probability theory and statistics, two real-valued random variables, , , are said to be uncorrelated if their covariance, , is zero. If two variables are uncorrelated, there is no linear relationship between them. Uncorrelated random variables have a Pearson correlation coefficient, when it exists, of zero, except in the trivial case when either variable has zero variance (is a constant). In this case the correlation is undefined.
Variables indépendantes et identiquement distribuéesvignette|upright=1.5|alt=nuage de points|Ce nuage de points représente 500 valeurs aléatoires iid simulées informatiquement. L'ordonnée d'un point est la valeur simulée suivante, dans la liste des 500 valeurs, de la valeur simulée pour l'abscisse du point. En théorie des probabilités et en statistique, des variables indépendantes et identiquement distribuées sont des variables aléatoires qui suivent toutes la même loi de probabilité et sont indépendantes. On dit que ce sont des variables aléatoires iid ou plus simplement des variables iid.
Pile ou faceLe pile ou face est un jeu de hasard se jouant avec une pièce de monnaie. Le principe du jeu est de lancer en l'air une pièce équilibrée et de parier sur le côté sorti. La pièce tournoyante tombe au sol et s'y stabilise, ou bien elle est rattrapée d'une main et posée à plat dans l'autre main. L'origine du nom « pile ou face » vient des noms des deux côtés d'une pièce de monnaie. La première utilisation de ce jeu sous cette forme date de la création de la monnaie métallique.
Ornstein isomorphism theoremIn mathematics, the Ornstein isomorphism theorem is a deep result in ergodic theory. It states that if two Bernoulli schemes have the same Kolmogorov entropy, then they are isomorphic. The result, given by Donald Ornstein in 1970, is important because it states that many systems previously believed to be unrelated are in fact isomorphic; these include all finite stationary stochastic processes, including Markov chains and subshifts of finite type, Anosov flows and Sinai's billiards, ergodic automorphisms of the n-torus, and the continued fraction transform.
Exchangeable random variablesIn statistics, an exchangeable sequence of random variables (also sometimes interchangeable) is a sequence X1, X2, X3, ... (which may be finitely or infinitely long) whose joint probability distribution does not change when the positions in the sequence in which finitely many of them appear are altered. Thus, for example the sequences both have the same joint probability distribution. It is closely related to the use of independent and identically distributed random variables in statistical models.
Fair coinIn probability theory and statistics, a sequence of independent Bernoulli trials with probability 1/2 of success on each trial is metaphorically called a fair coin. One for which the probability is not 1/2 is called a biased or unfair coin. In theoretical studies, the assumption that a coin is fair is often made by referring to an ideal coin. John Edmund Kerrich performed experiments in coin flipping and found that a coin made from a wooden disk about the size of a crown and coated on one side with lead landed heads (wooden side up) 679 times out of 1000.
Loi des grands nombresvignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
Processus stochastiqueUn processus ou processus aléatoire (voir Calcul stochastique) ou fonction aléatoire (voir Probabilité) représente une évolution, discrète ou à temps continu, d'une variable aléatoire. Celle-ci intervient dans le calcul classique des probabilités, où elle mesure chaque résultat possible (ou réalisation) d'une épreuve. Cette notion se généralise à plusieurs dimensions. Un cas particulier important, le champ aléatoire de Markov, est utilisé en analyse spatiale.
Opérateur de transfertEn mathématiques, l'opérateur de transfert encode l'information d'une application itérée et est fréquemment utilisé pour étudier le comportement des systèmes dynamiques, de la mécanique statistique, du chaos quantique et des fractales. L'opérateur de transfert est quelquefois appelé l'opérateur de Ruelle, en l'honneur de David Ruelle, ou l'opérateur de Ruelle-Perron-Frobenius faisant référence à l'applicabilité du théorème de Perron-Frobenius pour la détermination des valeurs propres de l'opérateur.