Chaîne de Markovvignette|Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d'un état à un autre. En mathématiques, une chaîne de Markov est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus stochastique possédant la propriété de Markov : l'information utile pour la prédiction du futur est entièrement contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »).
Markov modelIn probability theory, a Markov model is a stochastic model used to model pseudo-randomly changing systems. It is assumed that future states depend only on the current state, not on the events that occurred before it (that is, it assumes the Markov property). Generally, this assumption enables reasoning and computation with the model that would otherwise be intractable. For this reason, in the fields of predictive modelling and probabilistic forecasting, it is desirable for a given model to exhibit the Markov property.
Verre de spinvignette|Représentation schématique d'une structure aléatoire d'un verre de spins (haut) et d'un état ferromagnétique (bas). Les verres de spin sont des alliages métalliques comportant un petit nombre d'impuretés magnétiques disposées au hasard dans l'alliage. À chaque impureté est associée un spin. Le couplage entre ces différents spins peut être plus ou moins intense - attractif ou répulsif - en fonction de la distance qui les sépare.
Propriété de Markovvignette|Exemple de processus stochastique vérifiant la propriété de Markov: un mouvement Brownien (ici représenté en 3D) d'une particule dont la position à un instant t+1 ne dépend que de la position précédente à l'instant t. En probabilité, un processus stochastique vérifie la propriété de Markov si et seulement si la distribution conditionnelle de probabilité des états futurs, étant donnés les états passés et l'état présent, ne dépend en fait que de l'état présent et non pas des états passés (absence de « mémoire »).
Champ aléatoire de MarkovUn champ aléatoire de Markov est un ensemble de variables aléatoires vérifiant une propriété de Markov relativement à un graphe non orienté. C'est un modèle graphique. Soit un graphe non orienté et un ensemble de variables aléatoires indexé par les sommets de . On dit que est un champ aléatoire de Markov relativement à si une des trois propriétés suivantes est vérifiée c'est-à-dire que deux variables aléatoires dont les sommets associés ne sont pas voisins dans le graphe sont indépendantes conditionnellement à toutes les autres variables.
Méthode de Monte-Carlo par chaînes de MarkovLes méthodes de Monte-Carlo par chaînes de Markov, ou méthodes MCMC pour Markov chain Monte Carlo en anglais, sont une classe de méthodes d'échantillonnage à partir de distributions de probabilité. Ces méthodes de Monte-Carlo se basent sur le parcours de chaînes de Markov qui ont pour lois stationnaires les distributions à échantillonner. Certaines méthodes utilisent des marches aléatoires sur les chaînes de Markov (algorithme de Metropolis-Hastings, échantillonnage de Gibbs), alors que d'autres algorithmes, plus complexes, introduisent des contraintes sur les parcours pour essayer d'accélérer la convergence (Monte Carlo Hybride, Surrelaxation successive).
Champ aléatoire conditionnelLes champs aléatoires conditionnels (conditional random fields ou CRFs) sont une classe de modèles statistiques utilisés en reconnaissance des formes et plus généralement en apprentissage statistique. Les CRFs permettent de prendre en compte l'interaction de variables « voisines ». Ils sont souvent utilisés pour des données séquentielles (langage naturel, séquences biologiques, vision par ordinateur). Les CRFs sont un exemple de réseau probabiliste non orienté.
Modèle d'IsingLe modèle d'Ising est un modèle de physique statistique qui a été adapté à divers phénomènes caractérisés par des interactions locales de particules à deux états. L'exemple principal est le ferromagnétisme pour lequel le modèle d'Ising est un modèle sur réseau de moments magnétiques, dans lequel les particules sont toujours orientées suivant le même axe spatial et ne peuvent prendre que deux valeurs. Ce modèle est parfois appelé modèle de Lenz-Ising en référence aux physiciens Wilhelm Lenz et Ernst Ising.
Variable aléatoire à densitéEn théorie des probabilités, une variable aléatoire à densité est une variable aléatoire réelle, scalaire ou vectorielle, pour laquelle la probabilité d'appartenance à un domaine se calcule à l'aide d'une intégrale sur ce domaine. La fonction à intégrer est alors appelée « fonction de densité » ou « densité de probabilité », égale (dans le cas réel) à la dérivée de la fonction de répartition. Les densités de probabilité sont les fonctions essentiellement positives et intégrables d'intégrale 1.
Fonction de partitionEn physique statistique, la fonction de partition Z est une grandeur fondamentale qui englobe les propriétés statistiques d'un système à l'équilibre thermodynamique. C'est une fonction de la température et d'autres paramètres, tels que le volume contenant un gaz par exemple. La plupart des variables thermodynamiques du système, telles que l'énergie totale, l'entropie, l'énergie libre ou la pression peuvent être exprimées avec cette fonction et ses dérivées.
Fonction de masse (probabilités)En théorie des probabilités, la fonction de masse est la fonction qui donne la probabilité de chaque issue ( résultat élémentaire) d'une expérience aléatoire. C'est souvent ainsi que l'on définit une loi de probabilité discrète. Elle se distingue de la fonction de densité, de la densité de probabilité, en ceci que les densités de probabilité ne sont définies que pour des variables aléatoires absolument continues, et que ce sont leurs intégrales sur des domaines qui ont valeurs de probabilités (et non leurs valeurs en des points).
Modèle de Markov cachéUn modèle de Markov caché (MMC, terme et définition normalisés par l’ISO/CÉI [ISO/IEC 2382-29:1999]) — (HMM)—, ou plus correctement (mais non employé) automate de Markov à états cachés, est un modèle statistique dans lequel le système modélisé est supposé être un processus markovien de paramètres inconnus. Contrairement à une chaîne de Markov classique, où les transitions prises sont inconnues de l'utilisateur mais où les états d'une exécution sont connus, dans un modèle de Markov caché, les états d'une exécution sont inconnus de l'utilisateur (seuls certains paramètres, comme la température, etc.
Énergie libreEn thermodynamique, l'énergie libre, appelée aussi énergie libre de Helmholtz ou simplement énergie de Helmholtz, est une fonction d'état extensive dont la variation permet d'obtenir le travail utile susceptible d'être fourni par un système thermodynamique fermé, à température constante, au cours d'une transformation réversible. En français on la représente généralement par ; en anglais on l'appelle énergie libre de Helmholtz et on la représente généralement par .
Énergie interneL’énergie interne d’un système thermodynamique est l'énergie qu'il renferme. C'est une fonction d'état extensive, associée à ce système. Elle est égale à la somme de l’énergie cinétique de chaque entité élémentaire de masse non nulle et de toutes les énergies potentielles d’interaction des entités élémentaires de ce système. En fait, elle correspond à l'énergie intrinsèque du système, définie à l'échelle microscopique, à l'exclusion de l'énergie cinétique ou potentielle d'interaction du système avec son environnement, à l'échelle macroscopique.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Enthalpie libreL’enthalpie libre, appelée aussi énergie libre de Gibbs ou simplement énergie de Gibbs, est une fonction d'état extensive introduite par Willard Gibbs, et généralement notée G. Le changement d'enthalpie libre correspond au travail maximal qui peut être extrait d'un système fermé à température et pression fixes, hors le travail dû à la variation de volume. L'enthalpie libre est reliée à l'enthalpie par la formule (où désigne la température et l'entropie), à l'énergie libre par la relation (où désigne la pression et le volume) et à l'énergie interne par la relation .
Couverture de MarkovEn apprentissage automatique, la couverture de Markov pour un nœud d'un réseau bayésien est l'ensemble des nœuds composés des parents de , de ses enfants et des parents de ses enfants. Dans un réseau de Markov, la couverture de Markov d'un nœud est l'ensemble de ses nœuds voisins. La couverture de Markov peut également être désignée par . Chaque ensemble de nœuds dans le réseau est conditionnellement indépendant de lorsqu'il est conditionné sur l'ensemble , c'est-à-dire lorsqu'elle est déterminée sur la couverture de Markov du nœud .
BiomathématiqueLa biomathématique est le domaine d'étude qui réunit la biologie et les mathématiques. De façon précise les biomathématiques sont constituées par l'ensemble des méthodes et techniques mathématiques, numériques et informatiques qui permettent d'étudier et de modéliser les phénomènes et processus biologiques. Il s'agit donc bien d'une science fortement pluridisciplinaire que le mathématicien seul (ou le biologiste seul) est incapable de développer. Pour naître et vivre cette discipline exige des équipes interdisciplinaires mues par le sens du concret.
Ensemble statistiqueEn physique statistique, un ensemble statistique est une abstraction qui consiste à considérer une collection de copies virtuelles (ou répliques) d'un système physique dans l'ensemble des états accessibles où il est susceptible de se trouver, compte tenu des contraintes extérieures qui lui sont imposées, telles le volume, le nombre de particules, l'énergie et la température. Cette notion, introduite par le physicien américain Josiah Willard Gibbs en 1902, est un concept central de la physique statistique.
Order and disorderIn physics, the terms order and disorder designate the presence or absence of some symmetry or correlation in a many-particle system. In condensed matter physics, systems typically are ordered at low temperatures; upon heating, they undergo one or several phase transitions into less ordered states. Examples for such an order-disorder transition are: the melting of ice: solid-liquid transition, loss of crystalline order; the demagnetization of iron by heating above the Curie temperature: ferromagnetic-paramagnetic transition, loss of magnetic order.