Loi de Laplace (probabilités)En théorie des probabilités et en statistiques, la loi (distribution) de Laplace est une densité de probabilité continue, portant le nom de Pierre-Simon de Laplace. On la connaît aussi sous le nom de loi double exponentielle, car sa densité peut être vue comme l'association des densités de deux lois exponentielles, accolées dos à dos. La loi de Laplace s'obtient aussi comme résultat de la différence de deux variables exponentielles indépendantes.
Lévy flightA Lévy flight is a random walk in which the step-lengths have a stable distribution, a probability distribution that is heavy-tailed. When defined as a walk in a space of dimension greater than one, the steps made are in isotropic random directions. Later researchers have extended the use of the term "Lévy flight" to also include cases where the random walk takes place on a discrete grid rather than on a continuous space. The term "Lévy flight" was coined by Benoît Mandelbrot, who used this for one specific definition of the distribution of step sizes.
Loi de probabilité à queue lourdevignette|Long tail. Dans la théorie des probabilités, une loi de probabilité à queue lourde est une loi de probabilité dont les queues ne sont pas exponentiellement bornées, ce qui signifie qu'elles ont des queues plus « lourdes » que la loi exponentielle. Dans de nombreuses applications, c'est la queue droite de la distribution qui est intéressante, mais une distribution peut avoir une queue lourde à gauche, ou les deux queues peuvent être lourdes.
Infinite divisibility (probability)In probability theory, a probability distribution is infinitely divisible if it can be expressed as the probability distribution of the sum of an arbitrary number of independent and identically distributed (i.i.d.) random variables. The characteristic function of any infinitely divisible distribution is then called an infinitely divisible characteristic function. More rigorously, the probability distribution F is infinitely divisible if, for every positive integer n, there exist n i.i.d. random variables Xn1, .
Loi log-normaleEn théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
Processus de LévyEn théorie des probabilités, un processus de Lévy, nommé d'après le mathématicien français Paul Lévy, est un processus stochastique en temps continu, continu à droite limité à gauche (càdlàg), partant de 0, dont les accroissements sont stationnaires et indépendants (cette notion est expliquée ci-dessous). Les exemples les plus connus sont le processus de Wiener et le processus de Poisson.
Loi de LévyEn théorie des probabilités et en statistique, la loi de Lévy, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité continue. En physique, plus précisément en spectroscopie, elle porte le nom de profil de van der Waals et décrit le profil de certaines raies spectrales. Cette loi dépend de deux paramètres : un paramètre de position qui décale le support , et un paramètre d'échelle . Si X suit une loi de Lévy, on notera : .
Fonction caractéristique (probabilités)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la fonction caractéristique d'une variable aléatoire réelle est une quantité qui détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité, alors la fonction caractéristique est la transformée de Fourier inverse de la densité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire.
Fat-tailed distributionA fat-tailed distribution is a probability distribution that exhibits a large skewness or kurtosis, relative to that of either a normal distribution or an exponential distribution. In common usage, the terms fat-tailed and heavy-tailed are sometimes synonymous; fat-tailed is sometimes also defined as a subset of heavy-tailed. Different research communities favor one or the other largely for historical reasons, and may have differences in the precise definition of either.
Loi des grands nombresvignette|Visualisation de la loi des grands nombres En mathématiques, la loi des grands nombres permet d’interpréter la probabilité comme une fréquence de réalisation, justifiant ainsi le principe des sondages, et présente l’espérance comme une moyenne. Plus formellement, elle signifie que la moyenne empirique, calculée sur les valeurs d’un échantillon, converge vers l’espérance lorsque la taille de l’échantillon tend vers l’infini. Plusieurs théorèmes expriment cette loi, pour différents types de convergence en théorie des probabilités.
Tweedie distributionIn probability and statistics, the Tweedie distributions are a family of probability distributions which include the purely continuous normal, gamma and inverse Gaussian distributions, the purely discrete scaled Poisson distribution, and the class of compound Poisson–gamma distributions which have positive mass at zero, but are otherwise continuous. Tweedie distributions are a special case of exponential dispersion models and are often used as distributions for generalized linear models.
Longue traîneEn statistique, la queue ou traîne d'une loi de probabilité correspond à la portion éloignée de la « tête » ou valeur centrale de la loi. Une loi de probabilité est dite à longue traîne si une plus grande partie de la loi est contenue dans sa traîne par rapport à celle de la loi normale. Une loi à longue traîne est un cas particulier de lois à queue lourde. Benoît Mandelbrot a été surnommé le « père des longues traînes » pour son article de 1951 dans ce domaine.
Loi normale généraliséeEn théorie des probabilités et en statistique, la loi normale généralisée ou loi gaussienne généralisée désigne deux familles de lois de probabilité à densité dont les supports sont l'ensemble des réels. Cette loi rajoute un paramètre de forme à la loi normale. Pour les différencier, les deux familles seront appelées « version 1 » et « version 2 », ce ne sont cependant pas des appellations standards. La densité de probabilité des lois de cette famille est donnée par la formule : où est la fonction gamma, est un paramètre de position, est un paramètre d'échelle et est un paramètre de forme.
Loi de ZipfLa loi de Zipf est une observation empirique concernant la fréquence des mots dans un texte. Elle a pris le nom de son auteur, George Kingsley Zipf (1902-1950). Cette loi a d'abord été formulée par Jean-Baptiste Estoup et a été par la suite démontrée à partir de formules de Shannon par Benoît Mandelbrot. Elle est parfois utilisée en dehors de ce contexte, par exemple au sujet de la taille et du nombre des villes dans chaque pays, lorsque cette loi semble mieux répondre aux chiffres que la distribution de Pareto.
Loi de puissanceLa loi de puissance est une relation mathématique entre deux quantités. Si une quantité est la fréquence d'un évènement et l'autre est la taille d'un évènement, alors la relation est une distribution de la loi de puissance si les fréquences diminuent très lentement lorsque la taille de l'évènement augmente. En science, une loi de puissance est une relation entre deux quantités x et y qui peut s'écrire de la façon suivante : où a est une constante dite constante de proportionnalité, k, valeur négative, est une autre constante, dite exposant, puissance, indice ou encore degré de la loi et x nombre réel strictement positif.
Théorème central limitethumb|upright=2|La loi normale, souvent appelée la « courbe en cloche ». Le théorème central limite (aussi appelé théorème limite central, théorème de la limite centrale ou théorème de la limite centrée) établit la convergence en loi de la somme d'une suite de variables aléatoires vers la loi normale. Intuitivement, ce résultat affirme qu'une somme de variables aléatoires indépendantes et identiquement distribuées tend (le plus souvent) vers une variable aléatoire gaussienne.
Indecomposable distributionIn probability theory, an indecomposable distribution is a probability distribution that cannot be represented as the distribution of the sum of two or more non-constant independent random variables: Z ≠ X + Y. If it can be so expressed, it is decomposable: Z = X + Y. If, further, it can be expressed as the distribution of the sum of two or more independent identically distributed random variables, then it is divisible: Z = X1 + X2. The simplest examples are Bernoulli-distributeds: if then the probability distribution of X is indecomposable.
Loi de ParetoEn théorie des probabilités, la loi de Pareto, d'après Vilfredo Pareto, est un type particulier de loi de puissance qui a des applications en sciences physiques et sociales. Elle permet notamment de donner une base théorique au « principe des 80-20 », aussi appelé principe de Pareto. Soit la variable aléatoire X qui suit une loi de Pareto de paramètres (x,k), avec k un réel positif, alors la loi est caractérisée par : Les lois de Pareto sont des lois continues.
Cumulant (statistiques)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).