Matrice de ToeplitzEn algèbre linéaire, une matrice de Toeplitz (d'après Otto Toeplitz) ou matrice à diagonales constantes est une matrice dont les coefficients sur une diagonale descendant de gauche à droite sont les mêmes. Par exemple, la matrice suivante est une matrice de Toeplitz : Toute matrice A à n lignes et n colonnes de la forme est une matrice de Toeplitz. Si l'élément situé à l’intersection des ligne i et colonne j de A est noté Ai,j, alors on a : En général, une équation matricielle correspond à un système de n équations linéaires à résoudre.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Fonction génératrice des momentsEn théorie des probabilités et en statistique, la fonction génératrice des moments d'une variable aléatoire est la fonction M définie par pour tout réel t tel que cette espérance existe. Cette fonction, comme son nom l'indique, est utilisée afin d'engendrer les moments associés à la distribution de probabilités de la variable aléatoire .
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Loi binomialeEn théorie des probabilités et en statistique, la loi binomiale modélise la fréquence du nombre de succès obtenus lors de la répétition de plusieurs expériences aléatoires identiques et indépendantes. Plus mathématiquement, la loi binomiale est une loi de probabilité discrète décrite par deux paramètres : n le nombre d'expériences réalisées, et p la probabilité de succès. Pour chaque expérience appelée épreuve de Bernoulli, on utilise une variable aléatoire qui prend la valeur 1 lors d'un succès et la valeur 0 sinon.
ConjectureEn mathématiques, une conjecture est une assertion pour laquelle on ne connaît pas encore de démonstration, mais que l'on croit fortement être vraie (en l'absence de contre-exemple, ou comme généralisation de résultats démontrés). Une conjecture peut être choisie comme hypothèse ou postulat pour étudier d'autres énoncés. Si une conjecture se révèle indécidable relativement au système d'axiomes dans laquelle elle s'insère, elle peut être érigée en nouvel axiome (ou rejetée par la mise en place d'un nouvel axiome).
Loi de probabilité d'entropie maximaleEn statistique et en théorie de l'information, une loi de probabilité d'entropie maximale a une entropie qui est au moins aussi grande que celle de tous les autres membres d'une classe spécifiée de lois de probabilité. Selon le principe d'entropie maximale, si rien n'est connu sur une loi , sauf qu'elle appartient à une certaine classe (généralement définie en termes de propriétés ou de mesures spécifiées), alors la loi avec la plus grande entropie doit être choisie comme la moins informative par défaut.
Loi de probabilité à plusieurs variablesvignette|Représentation d'une loi normale multivariée. Les courbes rouge et bleue représentent les lois marginales. Les points noirs sont des réalisations de cette distribution à plusieurs variables. Dans certains problèmes interviennent simultanément plusieurs variables aléatoires. Mis à part les cas particuliers de variables indépendantes (notion définie ci-dessous) et de variables liées fonctionnellement, cela introduit la notion de loi de probabilité à plusieurs variables autrement appelée loi jointe.
Indecomposable distributionIn probability theory, an indecomposable distribution is a probability distribution that cannot be represented as the distribution of the sum of two or more non-constant independent random variables: Z ≠ X + Y. If it can be so expressed, it is decomposable: Z = X + Y. If, further, it can be expressed as the distribution of the sum of two or more independent identically distributed random variables, then it is divisible: Z = X1 + X2. The simplest examples are Bernoulli-distributeds: if then the probability distribution of X is indecomposable.
Conditional probability distributionIn probability theory and statistics, given two jointly distributed random variables and , the conditional probability distribution of given is the probability distribution of when is known to be a particular value; in some cases the conditional probabilities may be expressed as functions containing the unspecified value of as a parameter. When both and are categorical variables, a conditional probability table is typically used to represent the conditional probability.
Série génératriceEn mathématiques, et notamment en analyse et en combinatoire, une série génératrice (appelée autrefois fonction génératrice, terminologie encore utilisée en particulier dans le contexte de la théorie des probabilités) est une série formelle dont les coefficients codent une suite de nombres (ou plus généralement de polynômes) ; on dit que la série est associée à la suite. Ces séries furent introduites par Abraham de Moivre en 1730, pour obtenir des formules explicites pour des suites définies par récurrence linéaire.
Fonction génératrice des probabilitésEn mathématiques, et plus particulièrement en théorie des probabilités, la fonction génératrice des probabilités (ou fonction génératrice des moments factoriels) d'une variable aléatoire (à valeurs dans les entiers naturels) est la série entière associée à la fonction de masse de cette variable aléatoire. La fonction génératrice des probabilités est utile car elle permet de caractériser entièrement la fonction de masse. La fonction génératrice des probabilités est usuellement identifiée à sa somme.
Loi de probabilité marginaleEn théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire, c'est-à-dire d'une variable aléatoire à plusieurs dimensions, est la loi de probabilité d'une de ses composantes. Autrement dit, la loi marginale est une variable aléatoire obtenue par « projection » d'un vecteur contenant cette variable. Par exemple, pour un vecteur aléatoire , la loi de la variable aléatoire est la deuxième loi marginale du vecteur. Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée.
FermionEn physique des particules, un fermion (nom attribué par Paul Dirac d'après Enrico Fermi) est une particule de spin demi-entier (c'est-à-dire 1/2, 3/2, 5/2...). Elle obéit à la statistique de Fermi-Dirac. Un fermion peut être une particule élémentaire, tel l'électron, ou une particule composite, tel le proton, ou toutes leurs antiparticules. Toutes les particules élémentaires observées sont soit des fermions, soit des bosons (l'hypothétique matière noire, encore non observée en , n'est actuellement pas catégorisée).
Matrice de HankelEn algèbre linéaire, une matrice de Hankel, du nom du mathématicien Hermann Hankel, est une matrice carrée dont les valeurs sont constantes le long des diagonales ascendantes, c'est-à-dire dont les indices vérifient la relation Par exemple une matrice de Hankel de taille 5 s'écrit sous la forme Les matrices de Toeplitz ont, elles, des valeurs constantes sur les diagonales descendantes. Sur un espace de Hilbert muni d'une base hilbertienne, on peut définir plus généralement un opérateur de Hankel.
Fluctuation quantiqueEn physique quantique, une fluctuation quantique, ou fluctuation quantique du vide, est le changement temporaire du niveau d'énergie à un certain point de l'espace, expliqué par le principe d'incertitude de Heisenberg qui permet la création spontanée d'une paire virtuelle constituée d'une particule et d'une antiparticule. Pour comprendre ce phénomène, il faut comprendre la nature du vide spatial conformément à la théorie des champs quantiques. Le vide est rempli d’ondes électromagnétiques fluctuantes.
Cumulant (statistiques)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, les cumulants d'une loi de probabilité sont des coefficients qui ont un rôle similaire à celui des moments. Les cumulants déterminent entièrement les moments et vice versa, c'est-à-dire que deux lois ont les mêmes cumulants si et seulement si elles ont les mêmes moments. L'espérance constitue le premier cumulant, la variance le deuxième et le troisième moment centré constitue le troisième cumulant.
Conjecture de Pólyathumb|right|Fonction sommatoire de la fonction de Liouville L(n) jusqu'à n = . thumb|right|Gros plan sur la fonction sommatoire de la fonction de Liouville L(n) dans la région où la conjecture de Pólya est en défaut. En théorie des nombres, la conjecture de Pólya énonce que la plupart (c'est-à-dire plus de la moitié) des entiers naturels inférieurs à un entier donné ont un nombre impair de facteurs premiers. La conjecture a été proposée par le mathématicien hongrois George Pólya en 1919.
Segment (mathématiques)vignette|Le segment . En géométrie, un segment de droite (souvent abrégé en « segment ») est une portion de droite délimitée par deux points, appelés extrémités du segment. Un segment reliant deux points et est noté ou et représente la partie de la droite qui se situe « entre » les points et . Intuitivement, un segment correspond à un fil tendu entre deux points, en négligeant l’épaisseur du fil et la déformation due à son poids.
Fonction thêtaEn mathématiques, on appelle fonctions thêta certaines fonctions spéciales d'une ou de plusieurs variables complexes. Elles apparaissent dans plusieurs domaines, comme l'étude des variétés abéliennes, des espaces de modules, et les formes quadratiques. Elles ont aussi des applications à la théorie des solitons. Leurs généralisations en algèbre extérieure apparaissent dans la théorie quantique des champs, plus précisément dans la théorie des cordes et des D-branes.