Mesure aléatoireEn théorie des probabilités, une mesure aléatoire est une détermination de mesure d'un élément aléatoire. Soit X un espace métrique séparable complet et la tribu de son ensemble de Borel. Une mesure de Borel μ sur X est finie si μ (A) < ∞ pour chaque ensemble A borélien limité. Soit l'espace de toutes les mesures finies sur . Soit un espace probabilisé. Alors, une mesure aléatoire des cartes de cet espace de probabilité à l'espace mesurable .
Processus de LévyEn théorie des probabilités, un processus de Lévy, nommé d'après le mathématicien français Paul Lévy, est un processus stochastique en temps continu, continu à droite limité à gauche (càdlàg), partant de 0, dont les accroissements sont stationnaires et indépendants (cette notion est expliquée ci-dessous). Les exemples les plus connus sont le processus de Wiener et le processus de Poisson.
Processus de Poisson composéUn processus de Poisson composé, nommé d'après le mathématicien français Siméon Denis Poisson, est un processus stochastique en temps continu à droite limité à gauche (Càdlàg). C'est en particulier un processus de Lévy. Un processus de Poisson composé est un processus aléatoire indexé par le temps qui s’écrit où est un processus de Poisson et est une suite de variables aléatoires indépendantes et identiquement distribuées et indépendantes de . Comme tout processus de Lévy, le processus de Poisson composé est à accroissements indépendants et à accroissements stationnaires.
Temps d'arrêtvignette|Temps d'impact et temps d'arrêt de trois échantillons de mouvement brownien. En théorie des probabilités, en particulier dans l'étude des processus stochastiques, un temps d'arrêt (également appelé temps d'arrêt optionnel, et correspondant à un temps de Markov ou moment de Markov défini) est une variable aléatoire dont la valeur est interprétée comme le moment auquel le comportement d'un processus stochastique donné présente un certain intérêt.
Générateur infinitésimalUn générateur infinitésimal est un outil de calcul stochastique, utilisé notamment pour les processus de Markov à temps continu. Soit le processus stochastique à temps continu et à états discrets. Soit la variable aléatoire désignant le temps que passe le processus à l'état avant de passer dans un autre état. Les chaînes de Markov à temps continu sont des processus stochastiques qui doivent (entre autres) vérifier la propriété de non-vieillissement :ce qui signifie que le temps qu'il reste à passer dans un état ne dépend pas du temps déjà passé dans cet état.
Doob's martingale convergence theoremsIn mathematics specifically, in the theory of stochastic processes Doob's martingale convergence theorems are a collection of results on the limits of supermartingales, named after the American mathematician Joseph L. Doob. Informally, the martingale convergence theorem typically refers to the result that any supermartingale satisfying a certain boundedness condition must converge.
Continuous stochastic processIn probability theory, a continuous stochastic process is a type of stochastic process that may be said to be "continuous" as a function of its "time" or index parameter. Continuity is a nice property for (the sample paths of) a process to have, since it implies that they are well-behaved in some sense, and, therefore, much easier to analyze. It is implicit here that the index of the stochastic process is a continuous variable.
Pafnouti TchebychevPafnouti Lvovitch Tchebychev (en Пафнутий Львович Чебышёв), né le à Okatovo, près de Borovsk, et décédé le à Saint-Pétersbourg, est un mathématicien russe. Son nom a tout d'abord été transcrit en français Tchebychef et la forme Tchebycheff est aussi utilisée en français. Il est aussi transcrit Tschebyschef ou Tschebyscheff (formes allemandes), Chebyshov ou Chebyshev (formes anglo-saxonnes). Il est connu pour ses travaux dans les domaines des probabilités, des statistiques, et de la théorie des nombres.
Long-range dependenceLong-range dependence (LRD), also called long memory or long-range persistence, is a phenomenon that may arise in the analysis of spatial or time series data. It relates to the rate of decay of statistical dependence of two points with increasing time interval or spatial distance between the points. A phenomenon is usually considered to have long-range dependence if the dependence decays more slowly than an exponential decay, typically a power-like decay. LRD is often related to self-similar processes or fields.
Tweedie distributionIn probability and statistics, the Tweedie distributions are a family of probability distributions which include the purely continuous normal, gamma and inverse Gaussian distributions, the purely discrete scaled Poisson distribution, and the class of compound Poisson–gamma distributions which have positive mass at zero, but are otherwise continuous. Tweedie distributions are a special case of exponential dispersion models and are often used as distributions for generalized linear models.
Mouvement brownien fractionnaireLe mouvement brownien fractionnaire (mBf) a été introduit par Kolmogorov en 1940, comme moyen d'engendrer des "spirales" gaussiennes dans des espaces de Hilbert. En 1968, Mandelbrot et Van Ness l'ont rendu célèbre en l'introduisant dans des modèles financiers, et en étudiant ses propriétés. Le champ des applications du mBf est immense. En effet, il sert par exemple à recréer certains paysages naturels, notamment des montagnes, mais également en hydrologie, télécommunications, économie, physique...
Échelle logarithmiqueUne échelle logarithmique est un système de graduation en progression géométrique. Chaque pas multiplie la valeur par une constante positive. De ce fait, la position sur l'axe d'une valeur est proportionnelle à son logarithme. Une échelle logarithmique est particulièrement adaptée pour rendre compte des ordres de grandeur dans les applications. Elle montre sur un petit espace une large gamme de valeurs, à condition qu'elles soient non nulles et de même signe.
Équation de Fokker-PlanckL'équation de Fokker-Planck est une équation aux dérivées partielles linéaire que doit satisfaire la densité de probabilité de transition d'un processus de Markov. À l'origine, une forme simplifiée de cette équation a permis d'étudier le mouvement brownien. Comme la plupart des équations aux dérivées partielles, elle ne donne des solutions explicites que dans des cas bien particuliers portant à la fois sur la forme de l'équation, sur la forme du domaine où elle est étudiée (conditions réfléchissante ou absorbante pour les particules browniennes et forme de l'espace dans lequel elles sont confinées par exemple).
Théorème d'arrêt de DoobIn probability theory, the optional stopping theorem (or sometimes Doob's optional sampling theorem, for American probabilist Joseph Doob) says that, under certain conditions, the expected value of a martingale at a stopping time is equal to its initial expected value. Since martingales can be used to model the wealth of a gambler participating in a fair game, the optional stopping theorem says that, on average, nothing can be gained by stopping play based on the information obtainable so far (i.e.
Pont brownienEn mathématique, plus précisément théorie des probabilités, un pont brownien standard est un processus stochastique à temps continu de même loi qu'un processus de Wiener mais conditionné à s'annuler en 0 et en 1. À ne pas confondre avec l'excursion brownienne. Le pont brownien standard est ainsi également appelé « mouvement brownien attaché » ("tied down Brownian motion" en anglais), « mouvement brownien attaché en 0 et 1 » ("Brownian motion tied down at 0 and 1" en anglais) ou « mouvement brownien épinglé » ("pinned Brownian motion" en anglais).
Renewal theoryRenewal theory is the branch of probability theory that generalizes the Poisson process for arbitrary holding times. Instead of exponentially distributed holding times, a renewal process may have any independent and identically distributed (IID) holding times that have finite mean. A renewal-reward process additionally has a random sequence of rewards incurred at each holding time, which are IID but need not be independent of the holding times. A renewal process has asymptotic properties analogous to the strong law of large numbers and central limit theorem.
Expérience aléatoirevignette|Exemple d'expérience aléatoire: pile ou face En théorie des probabilités, une expérience aléatoire est une expérience renouvelable (en théorie si ce n'est en pratique), dont le résultat ne peut être prévu, et qui, renouvelée dans des conditions identiques –pour autant que l'observateur puisse s'en assurer– ne donne pas forcément le même résultat à chaque renouvellement. Une succession de lancers d'une même pièce en est un exemple classique. Le tirage au hasard d'un élément dans un ensemble en est un autre exemple.
Complementary eventIn probability theory, the complement of any event A is the event [not A], i.e. the event that A does not occur. The event A and its complement [not A] are mutually exclusive and exhaustive. Generally, there is only one event B such that A and B are both mutually exclusive and exhaustive; that event is the complement of A. The complement of an event A is usually denoted as A′, Ac, A or .
Conditioning (probability)Beliefs depend on the available information. This idea is formalized in probability theory by conditioning. Conditional probabilities, conditional expectations, and conditional probability distributions are treated on three levels: discrete probabilities, probability density functions, and measure theory. Conditioning leads to a non-random result if the condition is completely specified; otherwise, if the condition is left random, the result of conditioning is also random.
Product-form solutionIn probability theory, a product-form solution is a particularly efficient form of solution for determining some metric of a system with distinct sub-components, where the metric for the collection of components can be written as a product of the metric across the different components. Using capital Pi notation a product-form solution has algebraic form where B is some constant. Solutions of this form are of interest as they are computationally inexpensive to evaluate for large values of n.