Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Loi de ParetoEn théorie des probabilités, la loi de Pareto, d'après Vilfredo Pareto, est un type particulier de loi de puissance qui a des applications en sciences physiques et sociales. Elle permet notamment de donner une base théorique au « principe des 80-20 », aussi appelé principe de Pareto. Soit la variable aléatoire X qui suit une loi de Pareto de paramètres (x,k), avec k un réel positif, alors la loi est caractérisée par : Les lois de Pareto sont des lois continues.
Loi stableLa loi stable ou loi de Lévy tronquée, nommée d'après le mathématicien Paul Lévy, est une loi de probabilité utilisée en mathématiques, physique et analyse quantitative (finance de marché). On dit qu'une variable aléatoire réelle est de loi stable si elle vérifie l'une des 3 propriétés équivalentes suivantes : Pour tous réels strictement positifs et , il existe un réel strictement positif et un réel tels que les variables aléatoires et aient la même loi, où et sont des copies indépendantes de .
NeutronLe neutron est une particule subatomique de charge électrique nulle. Les neutrons sont présents dans le noyau des atomes, liés avec des protons par l'interaction forte. Alors que le nombre de protons d'un noyau détermine son élément chimique, le nombre de neutrons détermine son isotope. Les neutrons liés dans un noyau atomique sont en général stables mais les neutrons libres sont instables : ils se désintègrent en un peu moins de 15 minutes (880,3 secondes). Les neutrons libres sont produits dans les opérations de fission et de fusion nucléaires.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Espérance mathématiqueEn théorie des probabilités, l'espérance mathématique d'une variable aléatoire réelle est, intuitivement, la valeur que l'on s'attend à trouver, en moyenne, si l'on répète un grand nombre de fois la même expérience aléatoire. Elle se note et se lit . Elle correspond à une moyenne pondérée des valeurs que peut prendre cette variable. Dans le cas où celle-ci prend un nombre fini de valeurs, il s'agit d'une moyenne pondérée par les probabilités d'apparition de chaque valeur.
Limite de stabilitédroite|vignette|388x388px|Carte des nucléides du carbone au fluor. Modes de décroissance : En physique nucléaire, les frontières pour la stabilité des noyaux sont appelées limites de stabilité ou drip lines. Les noyaux atomiques contiennent à la fois des protons et des neutrons - le nombre de proton définit l'identité d'un élément (par exemple, le carbone a toujours 6 protons), mais le nombre de neutrons peut varier (le carbone 13 et le carbone 14 sont par exemple deux isotopes du carbone).
Intégrale curviligneEn géométrie différentielle, l'intégrale curviligne est une intégrale où la fonction à intégrer est évaluée sur une courbe Γ. Il y a deux types d'intégrales curvilignes, selon que la fonction est à valeurs réelles ou à valeurs dans les formes linéaires. Le second type (qui peut se reformuler en termes de circulation d'un champ de vecteurs) a comme cas particulier les intégrales que l'on considère en analyse complexe. Dans cet article, Γ est un arc orienté dans R, rectifiable c'est-à-dire paramétré par une fonction continue à variation bornée t ↦ γ(t), avec t ∈ [a, b].
Radioactivité βLa radioactivité β, radioactivité bêta ou émission bêta (symbole β) est, à l'origine, un type de désintégration radioactive dans laquelle une particule bêta (un électron ou un positon) est émise. On parle de désintégration bêta moins (β) ou bêta plus (β) selon qu'il s'agit de l'émission d'un électron (particule chargée négativement) ou d'un positon (particule chargée positivement). L'émission β est notamment ce qui permet la conversion d'un neutron en proton, par exemple dans les cas de transmutation comme du tritium (T) qui se transforme en hélium 3 (He) : ⟶ + e + .
Ratio distributionA ratio distribution (also known as a quotient distribution) is a probability distribution constructed as the distribution of the ratio of random variables having two other known distributions. Given two (usually independent) random variables X and Y, the distribution of the random variable Z that is formed as the ratio Z = X/Y is a ratio distribution. An example is the Cauchy distribution (also called the normal ratio distribution), which comes about as the ratio of two normally distributed variables with zero mean.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Loi de probabilité à queue lourdevignette|Long tail. Dans la théorie des probabilités, une loi de probabilité à queue lourde est une loi de probabilité dont les queues ne sont pas exponentiellement bornées, ce qui signifie qu'elles ont des queues plus « lourdes » que la loi exponentielle. Dans de nombreuses applications, c'est la queue droite de la distribution qui est intéressante, mais une distribution peut avoir une queue lourde à gauche, ou les deux queues peuvent être lourdes.
Loi de Cauchy (probabilités)La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy. Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par : La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission. Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).
Tokamakthumb|Vue intérieure du tore du Tokamak à configuration variable (TCV), dont les parois sont recouvertes de tuiles de graphite. Un tokamak est un dispositif de confinement magnétique expérimental explorant la physique des plasmas et les possibilités de produire de l'énergie par fusion nucléaire. Il existe deux types de tokamaks aux caractéristiques sensiblement différentes, les tokamaks traditionnels toriques (objet de cet article) et les tokamaks sphériques.
Régression linéaireEn statistiques, en économétrie et en apprentissage automatique, un modèle de régression linéaire est un modèle de régression qui cherche à établir une relation linéaire entre une variable, dite expliquée, et une ou plusieurs variables, dites explicatives. On parle aussi de modèle linéaire ou de modèle de régression linéaire. Parmi les modèles de régression linéaire, le plus simple est l'ajustement affine. Celui-ci consiste à rechercher la droite permettant d'expliquer le comportement d'une variable statistique y comme étant une fonction affine d'une autre variable statistique x.
Indecomposable distributionIn probability theory, an indecomposable distribution is a probability distribution that cannot be represented as the distribution of the sum of two or more non-constant independent random variables: Z ≠ X + Y. If it can be so expressed, it is decomposable: Z = X + Y. If, further, it can be expressed as the distribution of the sum of two or more independent identically distributed random variables, then it is divisible: Z = X1 + X2. The simplest examples are Bernoulli-distributeds: if then the probability distribution of X is indecomposable.
Appareil photographique numériqueUn appareil photographique numérique (ou APN) est un appareil photographique qui recueille la lumière sur un capteur photographique électronique, plutôt que sur une pellicule photographique, et qui convertit l'information reçue par ce support pour la coder numériquement. Un appareil photo numérique utilise un capteur CCD ou CMOS pour acquérir les images, et les enregistre habituellement sur des cartes mémoire (CompactFlash, SmartMedia, Memory Stick, Secure Digital, etc.).
Matrice inversibleEn mathématiques et plus particulièrement en algèbre linéaire, une matrice inversible (ou régulière ou encore non singulière) est une matrice carrée A pour laquelle il existe une matrice B de même taille n avec laquelle les produits AB et BA sont égaux à la matrice identité. Dans ce cas la matrice B est unique, appelée matrice inverse de A et notée B = A. Cette définition correspond à celle d’élément inversible pour la multiplication dans l’anneau des matrices carrées associé.
Loi log-normaleEn théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres et si la variable suit une loi normale d'espérance et de variance . Cette loi est parfois appelée loi de Galton. Elle est habituellement notée dans le cas d'une seule variable ou dans un contexte multidimensionnel. Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants.
Régression (statistiques)En mathématiques, la régression recouvre plusieurs méthodes d’analyse statistique permettant d’approcher une variable à partir d’autres qui lui sont corrélées. Par extension, le terme est aussi utilisé pour certaines méthodes d’ajustement de courbe. En apprentissage automatique, on distingue les problèmes de régression des problèmes de classification. Ainsi, on considère que les problèmes de prédiction d'une variable quantitative sont des problèmes de régression tandis que les problèmes de prédiction d'une variable qualitative sont des problèmes de classification.