Médaille FieldsLa médaille Fields est la plus prestigieuse récompense en mathématiques avec le prix Abel. Elle est considérée comme équivalente à un prix Nobel inexistant pour cette discipline. Elle est attribuée tous les quatre ans depuis 1936 au cours du congrès international des mathématiciens à quatre mathématiciens au plus, tous de moins de . Les lauréats reçoivent chacun une médaille et . John Charles Fields, mathématicien canadien, propose la création de cette médaille en 1923 lors d'une réunion internationale à Toronto.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Fonction caractéristique (probabilités)En mathématiques et plus particulièrement en théorie des probabilités et en statistique, la fonction caractéristique d'une variable aléatoire réelle est une quantité qui détermine de façon unique sa loi de probabilité. Si cette variable aléatoire a une densité, alors la fonction caractéristique est la transformée de Fourier inverse de la densité. Les valeurs en zéro des dérivées successives de la fonction caractéristique permettent de calculer les moments de la variable aléatoire.
Processus de Poissonvignette|Schéma expliquant le processus de Poisson Un processus de Poisson, nommé d'après le mathématicien français Siméon Denis Poisson et la loi du même nom, est un processus de comptage classique dont l'équivalent discret est la somme d'un processus de Bernoulli. C'est le plus simple et le plus utilisé des processus modélisant une . C'est un processus de Markov, et même le plus simple des processus de naissance et de mort (ici un processus de naissance pur).
Probabilitévignette|Quatre dés à six faces de quatre couleurs différentes. Les six faces possibles sont visibles. Le terme probabilité possède plusieurs sens : venu historiquement du latin probabilitas, il désigne l'opposé du concept de certitude ; il est également une évaluation du caractère probable d'un événement, c'est-à-dire qu'une valeur permet de représenter son degré de certitude ; récemment, la probabilité est devenue une science mathématique et est appelée théorie des probabilités ou plus simplement probabilités ; enfin une doctrine porte également le nom de probabilisme.
Variables indépendantes et identiquement distribuéesvignette|upright=1.5|alt=nuage de points|Ce nuage de points représente 500 valeurs aléatoires iid simulées informatiquement. L'ordonnée d'un point est la valeur simulée suivante, dans la liste des 500 valeurs, de la valeur simulée pour l'abscisse du point. En théorie des probabilités et en statistique, des variables indépendantes et identiquement distribuées sont des variables aléatoires qui suivent toutes la même loi de probabilité et sont indépendantes. On dit que ce sont des variables aléatoires iid ou plus simplement des variables iid.
Mesure de probabilitévignette|300x300px| Dans de nombreux cas, la physique statistique utilise des mesures de probabilité, mais toutes les mesures qu'elle utilise ne sont pas des mesures de probabilité. En mathématiques, une mesure de probabilité est une fonction à valeurs réelles définie sur un ensemble d'événements dans un espace de probabilité qui satisfait les propriétés de mesure telles que la -additivité. La différence entre une mesure de probabilité et la notion plus générale de mesure (qui inclut des concepts tels que l'aire ou le volume) est qu'une mesure de probabilité doit attribuer la valeur 1 à tout l'espace de probabilité.
Processus de BernoulliEn probabilités et en statistiques, un processus de Bernoulli est un processus stochastique discret qui consiste en une suite de variables aléatoires indépendantes qui prennent leurs valeurs parmi deux symboles. Prosaïquement, un processus de Bernoulli consiste à tirer à pile ou face plusieurs fois de suite, éventuellement avec une pièce truquée. Une variable dans une séquence de ce type peut être qualifiée de variable de Bernoulli. Un processus de Bernoulli est une chaîne de Markov. Son arbre de probabilité est un arbre binaire.
Équation différentielleEn mathématiques, une équation différentielle est une équation dont la ou les « inconnue(s) » sont des fonctions ; elle se présente sous la forme d'une relation entre ces fonctions inconnues et leurs dérivées successives. C'est un cas particulier d'équation fonctionnelle. On distingue généralement deux types d'équations différentielles : les équations différentielles ordinaires (EDO) où la ou les fonctions inconnues recherchées ne dépendent que d'une seule variable ; les équations différentielles partielles, plutôt appelées équations aux dérivées partielles (EDP), où la ou les fonctions inconnues recherchées peuvent dépendre de plusieurs variables indépendantes.
Processus stationnairePour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps.
Théorie des probabilitésLa théorie des probabilités en mathématiques est l'étude des phénomènes caractérisés par le hasard et l'incertitude. Elle forme avec la statistique les deux sciences du hasard qui sont partie intégrante des mathématiques. Les débuts de l'étude des probabilités correspondent aux premières observations du hasard dans les jeux ou dans les phénomènes climatiques par exemple. Bien que le calcul de probabilités sur des questions liées au hasard existe depuis longtemps, la formalisation mathématique n'est que récente.