Infinite divisibility (probability)In probability theory, a probability distribution is infinitely divisible if it can be expressed as the probability distribution of the sum of an arbitrary number of independent and identically distributed (i.i.d.) random variables. The characteristic function of any infinitely divisible distribution is then called an infinitely divisible characteristic function. More rigorously, the probability distribution F is infinitely divisible if, for every positive integer n, there exist n i.i.d. random variables Xn1, .
Loi des grands nombresvignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
Théorème de convergence de LévyEn théorie des probabilités, le théorème de convergence de Lévy, nommé d'après le mathématicien Paul Lévy, relie la convergence en loi d'une suite de variables aléatoires avec la convergence ponctuelle de leurs fonctions caractéristiques. Ce théorème est également appelé théorème de continuité de Lévy, théorème de continuité de Lévy-Cramér ou encore en associant d'autres noms tels que théorème de Lévy-Cramér-Dugué. Ce théorème de convergence fondamental est particulièrement utile pour démontrer le théorème central limite.
Loi du χ² non centréeEn théorie des probabilités et en statistique, la loi du χ non centrée est une loi de probabilité qui généralise la loi du χ2. Cette loi apparait lors de tests statistiques, par exemple pour le maximum de vraisemblance. Soit X, k variables aléatoires indépendantes de loi normale de moyennes et variances . Alors la variable aléatoire suit une loi du χ non centrée. Elle dépend de deux paramètres : k qui spécifie le nombre de degrés de liberté (c'est-à-dire le nombre de X), et λ qui est en lien avec la moyenne des variables X par la formule : est parfois appelé le paramètre de décentralisation.
Théorème central limitethumb|upright=2|La loi normale, souvent appelée la « courbe en cloche ». Le théorème central limite (aussi appelé théorème limite central, théorème de la limite centrale ou théorème de la limite centrée) établit la convergence en loi de la somme d'une suite de variables aléatoires vers la loi normale. Intuitivement, ce résultat affirme qu'une somme de variables aléatoires indépendantes et identiquement distribuées tend (le plus souvent) vers une variable aléatoire gaussienne.
Convergence de variables aléatoiresDans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe).
Série d'EdgeworthLa série A de Gram-Charlier (nommée en l'honneur de Jørgen Pedersen Gram et Carl Charlier) et la série d'Edgeworth (nommée en l'honneur de Francis Ysidro Edgeworth) sont des séries qui se rapprochent d'une distribution de probabilité exprimée à partir de ses cumulants . Les séries sont identiques, mais l'arrangement des termes (et donc la précision de la troncature de la série) diffère.
Loi de Laplace (probabilités)En théorie des probabilités et en statistiques, la loi (distribution) de Laplace est une densité de probabilité continue, portant le nom de Pierre-Simon de Laplace. On la connaît aussi sous le nom de loi double exponentielle, car sa densité peut être vue comme l'association des densités de deux lois exponentielles, accolées dos à dos. La loi de Laplace s'obtient aussi comme résultat de la différence de deux variables exponentielles indépendantes.
Fonction génératrice des momentsEn théorie des probabilités et en statistique, la fonction génératrice des moments d'une variable aléatoire est la fonction M définie par pour tout réel t tel que cette espérance existe. Cette fonction, comme son nom l'indique, est utilisée afin d'engendrer les moments associés à la distribution de probabilités de la variable aléatoire .
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Loi de RiceEn statistiques et théorie des probabilités, la loi de Rice, nommée d'après (1907–1986), est une loi de probabilité à densité (c'est-à-dire continue). C'est une généralisation de la loi de Rayleigh utilisée pour décrire le comportement d'un signal radio qui se propage selon plusieurs chemins (multipath) avant d'être reçu par une antenne. Soient deux variables de Gauss centrées, indépendantes, de même variance σ.
Loi de RayleighEn probabilités et en statistiques, la loi de Rayleigh, est une loi de probabilité à densité. Elle apparaît comme la norme d'un vecteur gaussien bi-dimensionnel dont les coordonnées sont indépendantes, centrées et de même variance. Cette loi de probabilité est baptisée d'après Lord Rayleigh. Typiquement, la distance D à laquelle une particule se trouve de son point de départ, après avoir effectué n pas d'une marche aléatoire symétrique dans le plan, suit approximativement une loi de Rayleigh de paramètre .
Fonction porteLa fonction porte, généralement notée Π, est la fonction indicatrice de l'intervalle réel [–1/2, 1/2], c'est-à-dire la fonction mathématique par laquelle un nombre réel a une nulle, sauf s'il est compris entre –1/2 et 1/2, auquel cas son image vaut 1. Son graphe a une forme similaire à celle d'une porte, d'où son nom. La fonction porte , définie sur les réels et à valeurs dans , est définie par : Par généralisation, on appelle également fonction porte toute fonction déduite par translation et/ou dilatation de la fonction définie ci-dessus.
Loi binomiale négativeEn probabilité et en statistiques, une loi binomiale négative est la distribution de probabilité discrète du nombre d'échecs dans une série d'épreuves de Bernoulli indépendantes et identiquement distribuées jusqu'à avoir un nombre fixe n de succès. Par exemple, c'est la distribution de probabilité du nombre de piles obtenus dans une série de pile ou face jusqu'à avoir vu n faces. Plus précisément, elle décrit la situation suivante : une expérience consiste en une série de tirages indépendants, donnant un succès avec probabilité p (constante durant toute l'expérience) et un échec avec une probabilité complémentaire 1-p.
Cumulant (statistiques)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Processus gaussienEn théorie des probabilités et en statistiques, un processus gaussien est un processus stochastique (une collection de variables aléatoires avec un index temporel ou spatial) de telle sorte que chaque collection finie de ces variables aléatoires suit une loi normale multidimensionnelle ; c'est-à-dire que chaque combinaison linéaire est normalement distribuée. La distribution d'un processus gaussien est la loi jointe de toutes ces variables aléatoires. Ses réalisations sont donc des fonctions avec un domaine continu.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
Fonction génératrice des probabilitésEn mathématiques, et plus particulièrement en théorie des probabilités, la fonction génératrice des probabilités (ou fonction génératrice des moments factoriels) d'une variable aléatoire (à valeurs dans les entiers naturels) est la série entière associée à la fonction de masse de cette variable aléatoire. La fonction génératrice des probabilités est utile car elle permet de caractériser entièrement la fonction de masse. La fonction génératrice des probabilités est usuellement identifiée à sa somme.
Loi de FisherEn théorie des probabilités et en statistiques, la loi de Fisher ou encore loi de Fisher-Snedecor ou encore loi F de Snedecor est une loi de probabilité continue. Elle tire son nom des statisticiens Ronald Aylmer Fisher et George Snedecor. La loi de Fisher survient très fréquemment en tant que loi de la statistique de test lorsque l'hypothèse nulle est vraie, dans des tests statistiques, comme les tests du ratio de vraisemblance, dans les tests de Chow utilisés en économétrie, ou encore dans l'analyse de la variance (ANOVA) via le test de Fisher.
Loi du χ²En statistiques et en théorie des probabilités, la loi du centrée (prononcé « khi carré » ou « khi-deux ») avec k degrés de liberté est la loi de la somme de carrés de k lois normales centrées réduites indépendantes. La loi du est utilisée en inférence statistique et pour les tests statistiques notamment le test du χ2. La loi du χ2 non centrée généralise la loi du . Soient k variables aléatoires X, ... , X indépendantes suivant la loi normale centrée et réduite, c'est-à-dire la loi normale de moyenne 0 et d'écart-type 1.