Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Méthode de Monte-Carlo par chaînes de MarkovLes méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Certaines méthodes utilisent des marches aléatoires sur les chaînes de Markov (algorithme de Metropolis-Hastings, échantillonnage de Gibbs), alors que d'autres algorithmes, plus complexes, introduisent des contraintes sur les parcours pour essayer d'accélérer la convergence (Monte Carlo Hybride, Surrelaxation successive).
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Axiome du choixvignette|upright=1.5|Pour tout ensemble d'ensembles non vides (les jarres), il existe une fonction qui associe à chacun de ces ensembles (ces jarres) un élément contenu dans cet ensemble (cette jarre). En mathématiques, l'axiome du choix, abrégé en « AC », est un axiome de la théorie des ensembles qui Il a été formulé pour la première fois par Ernest Zermelo en 1904 pour la démonstration du théorème de Zermelo. L'axiome du choix peut être accepté ou rejeté, selon la théorie axiomatique des ensembles choisie.
Axiome du choix dénombrablevignette|Chaque ensemble dans la suite dénombrable d'ensembles (Si) = S1, S2, S3, ... contient un élément différent de zéro, et éventuellement une infinité (ou même une infinité indénombrable) d'éléments. L'axiome du choix dénombrable nous permet de sélectionner arbitrairement un seul élément de chaque ensemble, formant une suite correspondante d'éléments (xi) = x1, x2, x3, ...
Markov modelIn probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property.
Axiome du choix globalEn mathématiques, plus précisément dans les théories utilisant des classes, l'axiome du choix global est un renforcement de l'axiome du choix qui s'applique à des classes propres d'ensembles ou d'ensembles d'ensembles. De manière informelle, il affirme que l'on peut choisir simultanément un élément dans tous les ensembles non-vides. L'axiome du choix global affirme qu'il existe une fonction de choix global τ, c'est-à-dire une fonction telle que, pour tout ensemble non-vide z, τ(z) est un élément de z.
Axiome du choix dépendantEn mathématiques, l'axiome du choix dépendant, noté DC, est une forme faible de l'axiome du choix (AC), suffisante pour développer une majeure partie de l'analyse réelle. Il a été introduit par Bernays. L'axiome peut s'énoncer comme suit : pour tout ensemble non vide X, et pour toute relation binaire R sur X, si l'ensemble de définition de R est X tout entier (c'est-à-dire si pour tout a∈X, il existe au moins un b∈X tel que aRb) alors il existe une suite (xn) d'éléments de X telle que pour tout n∈N, xnRxn+1.
Propriété de Markovvignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
Axiome de déterminationL'axiome de détermination est un axiome alternatif de la théorie des ensembles affirmant que certains jeux (au sens de la théorie des jeux) infinis sont déterminés. Cet axiome n'est pas compatible avec l'axiome du choix mais implique l'axiome du choix dénombrable pour les familles d'ensembles de réels et implique également une forme faible de l'hypothèse du continu.
Axiome de fondationL'axiome de fondation, encore appelé axiome de régularité, est l'un des axiomes de la théorie des ensembles. Introduit par Abraham Fraenkel, Thoralf Skolem (1922) et John von Neumann (1925), il joue un grand rôle dans cette théorie, alors que les mathématiciens ne l'utilisent jamais ailleurs, même s'ils le considèrent souvent comme intuitivement vérifié. L'axiome de fondation fait ou non partie des axiomes de ZF (et ZFC) suivant les ouvrages. Dans la suite, on choisit de prendre ZF et ZFC sans axiome de fondation.
Probabilité stationnaire d'une chaîne de MarkovLa probabilité stationnaire d'une chaîne de Markov s'interprète usuellement comme la fraction du temps passé en chaque état de l'espace d'états de cette chaîne de Markov, asymptotiquement. En effet, une version de la loi forte des grands nombres pour les chaînes de Markov stipule que : presque sûrement, sous certaines hypothèses détaillées plus bas. La variable aléatoire s'interprète comme le temps passé en lors des premiers pas de la chaîne de Markov La fraction est donc la fraction de temps passé en l'état pendant les premiers pas de la chaîne de Markov.
Fonction de vraisemblancevignette|Exemple d'une fonction de vraisemblance pour le paramètre d'une Loi de Poisson En théorie des probabilités et en statistique, la fonction de vraisemblance (ou plus simplement vraisemblance) est une fonction des paramètres d'un modèle statistique calculée à partir de données observées. Les fonctions de vraisemblance jouent un rôle clé dans l'inférence statistique fréquentiste, en particulier pour les méthodes statistiques d'estimation de paramètres.
Inférence statistiquevignette|Illustration des 4 principales étapes de l'inférence statistique L'inférence statistique est l'ensemble des techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur. Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population.
Test du rapport de vraisemblanceEn statistiques, le test du rapport de vraisemblance est un test statistique qui permet de tester un modèle paramétrique contraint contre un non contraint. Si on appelle le vecteur des paramètres estimés par la méthode du maximum de vraisemblance, on considère un test du type : contre On définit alors l'estimateur du maximum de vraisemblance et l'estimateur du maximum de vraisemblance sous .
Processus stationnairePour accéder aux propriétés essentielles d'un signal physique il peut être commode de le considérer comme une réalisation d'un processus aléatoire (voir quelques précisions dans Processus continu). Le problème est largement simplifié si le processus associé au signal peut être considéré comme un processus stationnaire, c'est-à-dire si ses propriétés statistiques caractérisées par des espérances mathématiques sont indépendantes du temps.
Algorithmethumb|Algorithme de découpe d'un polygone quelconque en triangles (triangulation). Un algorithme est une suite finie et non ambiguë d'instructions et d’opérations permettant de résoudre une classe de problèmes. Le domaine qui étudie les algorithmes est appelé l'algorithmique. On retrouve aujourd'hui des algorithmes dans de nombreuses applications telles que le fonctionnement des ordinateurs, la cryptographie, le routage d'informations, la planification et l'utilisation optimale des ressources, le , le traitement de textes, la bio-informatique L' algorithme peut être mis en forme de façon graphique dans un algorigramme ou organigramme de programmation.
Maximum a posterioriL'estimateur du maximum a posteriori (MAP), tout comme la méthode du maximum de vraisemblance, est une méthode pouvant être utilisée afin d'estimer un certain nombre de paramètres inconnus, comme les paramètres d'une densité de probabilité, reliés à un échantillon donné. Cette méthode est très liée au maximum de vraisemblance mais en diffère toutefois par la possibilité de prendre en compte un a priori non uniforme sur les paramètres à estimer.
Loi de PoissonEn théorie des probabilités et en statistiques, la loi de Poisson est une loi de probabilité discrète qui décrit le comportement du nombre d'événements se produisant dans un intervalle de temps fixé, si ces événements se produisent avec une fréquence moyenne ou espérance connue, et indépendamment du temps écoulé depuis l'événement précédent. gauche|vignette|Chewing gums sur un trottoir. Le nombre de chewing gums sur un pavé est approximativement distribué selon une loi de Poisson.
Foncteur dérivéEn mathématiques, certains foncteurs peuvent être dérivés pour obtenir de nouveaux foncteurs liés de manière naturelle par des morphismes à ceux de départs. Cette notion abstraite permet d'unifier des constructions concrètes intervenant dans de nombreux domaines des mathématiques. Elle n'est pas liée à la notion de dérivation en analyse. La notion de foncteur dérivé est conçue pour donner un cadre général aux situations où une suite exacte courte donne naissance à une suite exacte longue.