Entropy as an arrow of timeEntropy is one of the few quantities in the physical sciences that require a particular direction for time, sometimes called an arrow of time. As one goes "forward" in time, the second law of thermodynamics says, the entropy of an isolated system can increase, but not decrease. Thus, entropy measurement is a way of distinguishing the past from the future. In thermodynamic systems that are not isolated, local entropy can decrease over time, accompanied by a compensating entropy increase in the surroundings; examples include objects undergoing cooling, living systems, and the formation of typical crystals.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Fluctuation theoremThe fluctuation theorem (FT), which originated from statistical mechanics, deals with the relative probability that the entropy of a system which is currently away from thermodynamic equilibrium (i.e., maximum entropy) will increase or decrease over a given amount of time. While the second law of thermodynamics predicts that the entropy of an isolated system should tend to increase until it reaches equilibrium, it became apparent after the discovery of statistical mechanics that the second law is only a statistical one, suggesting that there should always be some nonzero probability that the entropy of an isolated system might spontaneously decrease; the fluctuation theorem precisely quantifies this probability.
Entropy (statistical thermodynamics)The concept entropy was first developed by German physicist Rudolf Clausius in the mid-nineteenth century as a thermodynamic property that predicts that certain spontaneous processes are irreversible or impossible. In statistical mechanics, entropy is formulated as a statistical property using probability theory. The statistical entropy perspective was introduced in 1870 by Austrian physicist Ludwig Boltzmann, who established a new field of physics that provided the descriptive linkage between the macroscopic observation of nature and the microscopic view based on the rigorous treatment of large ensembles of microstates that constitute thermodynamic systems.
Fluctuations thermodynamiquesLes fluctuations thermodynamiques des atomes ou molécules à l'intérieur d'un système sont les faibles écarts statistiques à l'équilibre thermodynamique de ce système. Ils sont décrits par la physique statistique hors d'équilibre. Ces fluctuations affectent tous les degrés de liberté : translation, rotation, vibration et énergie interne des molécules dans un gaz, translation pour un atome adsorbé sur une surface ou constituant un élément étranger dans une structure cristalline.
Statistical mechanicsIn physics, statistical mechanics is a mathematical framework that applies statistical methods and probability theory to large assemblies of microscopic entities. It does not assume or postulate any natural laws, but explains the macroscopic behavior of nature from the behavior of such ensembles. Sometimes called statistical physics or statistical thermodynamics, its applications include many problems in the fields of physics, biology, chemistry, and neuroscience.
Loschmidt's paradoxIn physics, Loschmidt's paradox (named for J.J. Loschmidt), also known as the reversibility paradox, irreversibility paradox, or Umkehreinwand (), is the objection that it should not be possible to deduce an irreversible process from time-symmetric dynamics. This puts the time reversal symmetry of (almost) all known low-level fundamental physical processes at odds with any attempt to infer from them the second law of thermodynamics which describes the behaviour of macroscopic systems.
Paradoxe de GibbsLe paradoxe de Gibbs est un pseudo-paradoxe apparaissant lorsqu'on cherche à concilier la thermodynamique et la physique statistique. Il intervient lors du calcul de l'entropie de mélange de deux gaz parfaits. Il a été nommé d'après le physicien Willard Gibbs qui l'a découvert en 1861 dans l'application du théorème qui porte son nom. On retrouve la mention de ce paradoxe au chapitre 16 de son ouvrage paru en 1902. Supposons une boîte divisée par une paroi mobile en deux compartiments de même volume .
État stationnaire (économie)thumb|350px|Les ressources naturelles traversent l'économie et finissent comme des déchets et de la pollution. Une économie stationnaire ou état stationnaire est une économie dont le stock de capital physique et la taille de la population sont constants et qui ne croît pas avec le temps. Normalement, ce terme fait référence à l'économie nationale d'un pays donné, mais il peut également s'appliquer au système économique d'une ville, d'une région ou du monde entier.
Simulation de phénomènesLa simulation de phénomènes est un outil utilisé dans le domaine de la recherche et du développement. Elle permet d'étudier les réactions d'un système à différentes contraintes pour en déduire les résultats recherchés en se passant d'expérimentation. Les systèmes technologiques (infrastructures, véhicules, réseaux de communication, de transport ou d'énergie) sont soumis à différentes contraintes et actions. Le moyen le plus simple d'étudier leurs réactions serait d'expérimenter, c'est-à-dire d'exercer l'action souhaitée sur l'élément en cause pour observer ou mesurer le résultat.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
DissipationEn physique, la dissipation désigne le phénomène selon lequel un système dynamique (onde, oscillation...) perd de l'énergie au cours du temps. Cette perte est principalement due aux frottements et aux turbulences, et l'énergie correspondante est alors dégradée en chaleur, une forme d'énergie qui ne pourra pas être intégralement retransformée en énergie mécanique, comme l'affirme le deuxième principe de la thermodynamique. Amortissement Dissipateur thermique Entropie Hystérésis Théorème de fluctuation-dissi
Maximum entropy thermodynamicsIn physics, maximum entropy thermodynamics (colloquially, MaxEnt thermodynamics) views equilibrium thermodynamics and statistical mechanics as inference processes. More specifically, MaxEnt applies inference techniques rooted in Shannon information theory, Bayesian probability, and the principle of maximum entropy. These techniques are relevant to any situation requiring prediction from incomplete or insufficient data (e.g., , signal processing, spectral analysis, and inverse problems).
État stationnaireEn physique, un procédé est dit à l'état stationnaire ou en régime stationnaire si les variables le décrivant ne varient pas avec le temps. Mathématiquement un tel état se définit par: quelle que soit propriété du système (significative dans la présente perspective). Un exemple de procédé stationnaire est un réacteur chimique dans une phase de production continue. Un tel système travaille à température, à concentrations (réactifs et produits) et à volume constants ; en revanche, la couleur ou la texture du milieu peuvent être non-significatives.
Simulation informatiquevignette|upright=1|Une simulation informatique, sur une étendue de , de l'évolution du typhon Mawar produite par le Modèle météorologique Weather Research and Forecasting La simulation informatique ou numérique est l'exécution d'un programme informatique sur un ordinateur ou réseau en vue de simuler un phénomène physique réel et complexe (par exemple : chute d’un corps sur un support mou, résistance d’une plateforme pétrolière à la houle, fatigue d’un matériau sous sollicitation vibratoire, usure d’un roulem
Business simulationBusiness simulation or corporate simulation is simulation used for business training, education or analysis. It can be scenario-based or numeric-based. Most business simulations are used for business acumen training and development. Learning objectives include: strategic thinking, decision making, problem solving, financial analysis, market analysis, operations, teamwork and leadership. The business gaming community seems lately to have adopted the term business simulation game instead of just gaming or just simulation.
Grand potentialThe grand potential or Landau potential or Landau free energy is a quantity used in statistical mechanics, especially for irreversible processes in open systems. The grand potential is the characteristic state function for the grand canonical ensemble. Grand potential is defined by where U is the internal energy, T is the temperature of the system, S is the entropy, μ is the chemical potential, and N is the number of particles in the system.
Training simulationIn business, training simulation is a virtual medium through which various types of skills can be acquired. Training simulations can be used in a variety of genres; however they are most commonly used in corporate situations to improve business awareness and management skills. They are also common in academic environments as an integrated part of a business or management course. The word simulation implies an imitation of a real-life process, usually via a computer or other technological device, in order to provide a lifelike experience.
Théorème de GibbsLe théorème de Gibbs permet de calculer l'entropie d'un mélange de gaz parfaits. Il s'énonce ainsi : L'entropie d'un mélange idéal de gaz parfaits est égale à la somme des entropies de ses constituants supposés séparés, à la température du mélange, et sous des pressions égales aux pressions partielles qu'ils exercent dans le mélange. Le théorème de Gibbs montre qu'un mélange de gaz parfaits est une solution idéale.
Entropy and lifeResearch concerning the relationship between the thermodynamic quantity entropy and both the origin and evolution of life began around the turn of the 20th century. In 1910, American historian Henry Adams printed and distributed to university libraries and history professors the small volume A Letter to American Teachers of History proposing a theory of history based on the second law of thermodynamics and on the principle of entropy. The 1944 book What is Life? by Nobel-laureate physicist Erwin Schrödinger stimulated further research in the field.