Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Diffraction de poudrevignette|320x320px|Paterne de poudre d'électron (rouge) d'un film d'aluminium avec une superposition de spirales (vert) et une ligne d'intersection (bleue) qui détermine le paramètre de réseau. La diffraction de poudre est une technique scientifique utilisant la diffraction aux rayons X, la diffraction de neutrons ou la diffraction des électrons sur des échantillons en poudre ou micro-cristallins pour la caractérisation structurale de matériaux. L'instrument dédié à l'exécution de ces mesures est appelé un diffractomètre de poudre.
Théorie de la fonctionnelle de la densitéLa théorie de la fonctionnelle de la densité (DFT, sigle pour Density Functional Theory) est une méthode de calcul quantique permettant l'étude de la structure électronique, en principe de manière exacte. Au début du , il s'agit de l'une des méthodes les plus utilisées dans les calculs quantiques aussi bien en physique de la matière condensée qu'en chimie quantique en raison de son application possible à des systèmes de tailles très variées, allant de quelques atomes à plusieurs centaines.
Loi bêtaDans la théorie des probabilités et en statistiques, la loi bêta est une famille de lois de probabilités continues, définies sur , paramétrée par deux paramètres de forme, typiquement notés (alpha) et (bêta). C'est un cas spécial de la loi de Dirichlet, avec seulement deux paramètres. Admettant une grande variété de formes, elle permet de modéliser de nombreuses distributions à support fini. Elle est par exemple utilisée dans la méthode PERT. Fixons les deux paramètres de forme α, β > 0.
Maximum de vraisemblanceEn statistique, l'estimateur du maximum de vraisemblance est un estimateur statistique utilisé pour inférer les paramètres de la loi de probabilité d'un échantillon donné en recherchant les valeurs des paramètres maximisant la fonction de vraisemblance. Cette méthode a été développée par le statisticien Ronald Aylmer Fisher en 1922. Soient neuf tirages aléatoires x1, ..., x9 suivant une même loi ; les valeurs tirées sont représentées sur les diagrammes ci-dessous par des traits verticaux pointillés.
Loi normaleEn théorie des probabilités et en statistique, les lois normales sont parmi les lois de probabilité les plus utilisées pour modéliser des phénomènes naturels issus de plusieurs événements aléatoires. Elles sont en lien avec de nombreux objets mathématiques dont le mouvement brownien, le bruit blanc gaussien ou d'autres lois de probabilité. Elles sont également appelées lois gaussiennes, lois de Gauss ou lois de Laplace-Gauss des noms de Laplace (1749-1827) et Gauss (1777-1855), deux mathématiciens, astronomes et physiciens qui l'ont étudiée.
Posterior predictive distributionIn Bayesian statistics, the posterior predictive distribution is the distribution of possible unobserved values conditional on the observed values. Given a set of N i.i.d. observations , a new value will be drawn from a distribution that depends on a parameter , where is the parameter space. It may seem tempting to plug in a single best estimate for , but this ignores uncertainty about , and because a source of uncertainty is ignored, the predictive distribution will be too narrow.
Méthode ab initio de chimie quantiqueLes méthodes ab initio de chimie quantique sont des méthodes de chimie numérique basées sur la chimie quantique. La méthode ab initio la plus simple de calcul de structure électronique est le schéma Hartree-Fock (HF), dans laquelle la répulsion coulombienne électron-électron n'est pas spécifiquement prise en compte. Seul son effet moyen est inclus dans le calcul. Lorsque la taille de la base est augmentée, l'énergie et la fonction d'onde tendent vers une limite appelée limite Hartree-Fock.
Probabilité a prioriDans le théorème de Bayes, la probabilité a priori (ou prior) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior) correspondante qui s'appuie sur les connaissances postérieures à cette observation. Le théorème de Bayes s'énonce de la manière suivante : si . désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .
Densité électroniqueright|thumb|300px|Carte de densité électronique dans le plan [1-10] du diamant. En mécanique quantique, et en particulier en chimie quantique, la densité électronique correspondant à une fonction d'onde N-électronique est la fonction monoélectronique donnée par : Dans le cas où est un déterminant de Slater constitué de N orbitales de spin : La densité électronique à deux électrons est donnée par : Ces quantités sont particulièrement importantes dans le contexte de la théorie de la fonctionnelle de la densité : Les coordonnées x utilisées ici sont les coordonnées spin-spatiales.
Diffraction de neutronsLa diffractométrie de neutrons est une technique d'analyse basée sur la diffraction des neutrons sur la matière. Elle est complémentaire à la diffractométrie de rayons X. L'appareil de mesure utilisé s'appelle un diffractomètre. Les données collectées forment le diagramme de diffraction ou diffractogramme. La diffraction n'ayant lieu que sur la matière cristalline, on parle aussi de radiocristallographie. Pour les matériaux non-cristallins, on parle de diffusion. La diffraction fait partie des méthodes de diffusion élastique.
Loi inverse-gammaDans la Théorie des probabilités et en statistiques, la distribution inverse-gamma est une famille de lois de probabilité continues à deux paramètres sur la demi-droite des réels positifs. Il s'agit de l'inverse d'une variable aléatoire distribuée selon une distribution Gamma. La densité de probabilité de la loi inverse-gamma est définie sur le support par: où est un paramètre de forme et un paramètre d'intensité, c'est-à-dire l'inverse d'un paramètre d'échelle.
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Principe d'entropie maximaleLe principe d'entropie maximale consiste, lorsqu'on veut représenter une connaissance imparfaite d'un phénomène par une loi de probabilité, à : identifier les contraintes auxquelles cette distribution doit répondre (moyenne, etc) ; choisir de toutes les distributions répondant à ces contraintes celle ayant la plus grande entropie au sens de Shannon. De toutes ces distributions, c'est en effet celle d'entropie maximale qui contient le moins d'information, et elle est donc pour cette raison la moins arbitraire de toutes celles que l'on pourrait utiliser.
Chimie numériqueLa chimie numérique ou chimie informatique, parfois aussi chimie computationnelle, est une branche de la chimie et de la physico-chimie qui utilise les lois de la chimie théorique exploitées dans des programmes informatiques spécifiques afin de calculer structures et propriétés d'objets chimiques tels que les molécules, les solides, les agrégats atomiques (ou clusters), les surfaces, etc., en appliquant autant que possible ces programmes à des problèmes chimiques réels.
Conjugate priorIn Bayesian probability theory, if the posterior distribution is in the same probability distribution family as the prior probability distribution , the prior and posterior are then called conjugate distributions, and the prior is called a conjugate prior for the likelihood function . A conjugate prior is an algebraic convenience, giving a closed-form expression for the posterior; otherwise, numerical integration may be necessary. Further, conjugate priors may give intuition by more transparently showing how a likelihood function updates a prior distribution.
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.
Loi gamma-normaleEn théorie des probabilités et en statistiques, la loi gamma-normale (ou Gamma- Gaussienne) est une distribution bivariée continue à quatre paramètres. Elle est la prieure conjuguée de la loi normale de moyenne et variance inconnues. Soit une paire de variable aléatoires (X,T). Si la distribution conditionnelle de X sachant T est normale de moyenne et variance et si la distribution marginale de T est une loi gamma alors (X,T) suit une loi gamma-normale, que l'on note La fonction de densité conjointe de (X,T) a la forme Par définition, la distribution marginale de est une loi gamma.