Mesure de probabilitévignette|300x300px| Dans de nombreux cas, la physique statistique utilise des mesures de probabilité, mais toutes les mesures qu'elle utilise ne sont pas des mesures de probabilité. En mathématiques, une mesure de probabilité est une fonction à valeurs réelles définie sur un ensemble d'événements dans un espace de probabilité qui satisfait les propriétés de mesure telles que la -additivité. La différence entre une mesure de probabilité et la notion plus générale de mesure (qui inclut des concepts tels que l'aire ou le volume) est qu'une mesure de probabilité doit attribuer la valeur 1 à tout l'espace de probabilité.
Théorie supersymétrique de la dynamique stochastiqueLa théorie supersymétrique de la dynamique stochastique (TSDS) est une théorie exacte des équations différentielles (partielles) stochastiques (EDS). Elle représente une classe de modèles mathématiques très large qui décrit, en particulier, tous les systèmes dynamiques à temps continu, avec et sans bruit.
Équation différentielle stochastiqueUne équation différentielle stochastique (EDS) est une généralisation de la notion d'équation différentielle prenant en compte un terme de bruit blanc. Les EDS permettent de modéliser des trajectoires aléatoires, tels des cours de bourse ou les mouvements de particules soumises à des phénomènes de diffusion. Elles permettent aussi de traiter théoriquement ou numériquement des problèmes issus de la théorie des équations aux dérivées partielles.
Théorie des probabilitésLa théorie des probabilités en mathématiques est l'étude des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard qui sont partie intégrante des mathématiques. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques par exemple. Bien que le calcul de probabilités sur des questions liées au hasard existe depuis longtemps, la formalisation mathématique n'est que récente.
Variance (mathématiques)vignette|Exemple d'échantillons pour deux populations ayant la même moyenne mais des variances différentes. La population en rouge a une moyenne de 100 et une variance de 100 (écart-type = SD = standard deviation = 10). La population en bleu a une moyenne de 100 et une variance de (écart-type = SD = 50). En statistique et en théorie des probabilités, la variance est une mesure de la dispersion des valeurs d'un échantillon ou d'une variable aléatoire.
Axiomes des probabilitésEn théorie des probabilités, les axiomes de probabilités, également appelés axiomes de Kolmogorov du nom d'Andreï Nikolaievitch Kolmogorov qui les a développés, désignent les propriétés que doit vérifier une application afin de formaliser l'idée de probabilité. Ces propriétés peuvent être résumées ainsi : si est une mesure sur un espace mesurable , alors doit être un espace de probabilité. Le théorème de Cox fournit une autre approche pour formaliser les probabilités, privilégiée par certains bayésiens.
Loi de probabilitéthumb|400px 3 répartitions.png En théorie des probabilités et en statistique, une loi de probabilité décrit le comportement aléatoire d'un phénomène dépendant du hasard. L'étude des phénomènes aléatoires a commencé avec l'étude des jeux de hasard. Jeux de dés, tirage de boules dans des urnes et jeu de pile ou face ont été des motivations pour comprendre et prévoir les expériences aléatoires. Ces premières approches sont des phénomènes discrets, c'est-à-dire dont le nombre de résultats possibles est fini ou infini dénombrable.
Espace probabiliséUn espace de probabilité(s) ou espace probabilisé est construit à partir d'un espace probabilisable en le complétant par une mesure de probabilité : il permet la modélisation quantitative de l'expérience aléatoire étudiée en associant une probabilité numérique à tout événement lié à l'expérience. Formellement, c'est un triplet formé d'un ensemble , d'une tribu sur et d'une mesure sur cette tribu tel que . L'ensemble est appelé l'univers et les éléments de sont appelés les événements.
Événement (probabilités)vignette|Jeu de dés : une expérience aléatoire. En théorie des probabilités, un événement lié à une expérience aléatoire est un sous-ensemble des résultats possibles pour cette expérience (c'est-à-dire un certain sous-ensemble de l'univers lié à l'expérience). Un événement étant souvent défini par une proposition, nous devons pouvoir dire, connaissant le résultat de l'expérience aléatoire, si l'événement a été réalisé ou non au cours de cette expérience. Par exemple, considérons l'expérience aléatoire consistant à lancer un dé à 6 faces.
Probabilitévignette|Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles. Le terme probabilité possède plusieurs sens : venu historiquement du latin probabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractère probable d'un événement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ; récemment, la probabilité est devenue une science mathématique et est appelée théorie des probabilités ou plus simplement probabilités ; enfin une doctrine porte également le nom de probabilisme.
Efficacité (statistiques)En statistique, lefficacité est une mesure de la qualité d'un estimateur, d'une expérimentation ou d'un test statistique. Elle permet d'évaluer le nombre d'observations nécessaires pour atteindre un seuil : plus un estimateur est efficace, plus l'échantillon d'observations nécessaire pour atteindre un objectif de précision sera petit. Lefficacité relative de deux procédures est le rapport de leurs efficacités, bien que le concept soit plus utilisé pour le rapport de l'efficacité d'une procédure donnée et d'une procédure théorique optimale.
Moyenne pondéréeLa moyenne pondérée est la moyenne d'un certain nombre de valeurs affectées de coefficients. En statistiques, considérant un ensemble de données et les coefficients, ou poids, correspondants, de somme non nulle, la moyenne pondérée est calculée suivant la formule : quotient de la somme pondérée des par la somme des poids soit Il s'agit donc du barycentre du système . Lorsque tous les poids sont égaux, la moyenne pondérée est identique à la moyenne arithmétique.
Mesure (mathématiques)En mathématiques, une mesure positive (ou simplement mesure quand il n'y a pas de risque de confusion) est une fonction qui associe une grandeur numérique à certains sous-ensembles d'un ensemble donné. Il s'agit d'un important concept en analyse et en théorie des probabilités. Intuitivement, la mesure d'un ensemble ou sous-ensemble est similaire à la notion de taille, ou de cardinal pour les ensembles discrets. Dans ce sens, la mesure est une généralisation des concepts de longueur, aire ou volume dans des espaces de dimension 1, 2 ou 3 respectivement.
Méthode deltaEn probabilité et en statistiques, la méthode delta (ou delta méthode) est une méthode pour obtenir une approximation de la distribution asymptotique de la transformée d'une variable aléatoire asymptotiquement normale. Plus généralement, on peut considérer la méthode delta comme une extension du théorème central limite. Soit une suite de variables aléatoires . Si pour deux constantes finies et et où dénote la convergence en loi, alors, la méthode delta donne, pour toute fonction dérivable et telle que : Soit une suite de vecteurs aléatoires de , une fonction différentiable en .
Mesure imageEn théorie de la mesure, la mesure image est une mesure définie sur un espace mesurable et transférée sur un autre espace mesurable via une fonction mesurable. On se donne deux espaces mesurables et , une application mesurable et une mesure . La mesure image de μ par f est une mesure sur notée et définie par : Cette définition s'applique également aux mesures complexes signées. La formule de changement de variables est l'une des principales propriétés : Une fonction g sur X est intégrable par rapport à la mesure image fμ si et seulement si la fonction composée g∘ f est intégrable par rapport à la mesure μ.
Médiane (statistiques)En théorie des probabilités et en statistiques, la médiane est une valeur qui sépare la moitié inférieure et la moitié supérieure des termes d’une série statistique quantitative ou d’une variable aléatoire réelle. On peut la définir aussi pour une variable ordinale. La médiane est un indicateur de tendance centrale. Par comparaison avec la moyenne, elle est insensible aux valeurs extrêmes mais son calcul est un petit peu plus complexe. En particulier, elle ne peut s’obtenir à partir des médianes de sous-groupes.
Resampling (statistics)In statistics, resampling is the creation of new samples based on one observed sample. Resampling methods are: Permutation tests (also re-randomization tests) Bootstrapping Cross validation Permutation test Permutation tests rely on resampling the original data assuming the null hypothesis. Based on the resampled data it can be concluded how likely the original data is to occur under the null hypothesis.
Convergence de mesuresEn mathématiques, plus spécifiquement en théorie des mesures, il existe différentes notions de convergence de mesures . Pour un sens général intuitif de ce que l'on entend par convergence en mesure, considérons une suite de mesures sur un espace, partageant une collection commune d'ensembles mesurables. Une telle suite pourrait représenter une tentative de construire des approximations «de mieux en mieux» d'une mesure souhaitée qui est difficile à obtenir directement.
Invariant measureIn mathematics, an invariant measure is a measure that is preserved by some function. The function may be a geometric transformation. For examples, circular angle is invariant under rotation, hyperbolic angle is invariant under squeeze mapping, and a difference of slopes is invariant under shear mapping. Ergodic theory is the study of invariant measures in dynamical systems. The Krylov–Bogolyubov theorem proves the existence of invariant measures under certain conditions on the function and space under consideration.
Réduction de la dimensionnalitévignette|320x320px|Animation présentant la projection de points en deux dimensions sur les axes obtenus par analyse en composantes principales, une méthode populaire de réduction de la dimensionnalité La réduction de la dimensionnalité (ou réduction de (la) dimension) est un processus étudié en mathématiques et en informatique, qui consiste à prendre des données dans un espace de grande dimension, et à les remplacer par des données dans un espace de plus petite dimension.