Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Entropy productionEntropy production (or generation) is the amount of entropy which is produced during heat process to evaluate the efficiency of the process. Entropy is produced in irreversible processes. The importance of avoiding irreversible processes (hence reducing the entropy production) was recognized as early as 1824 by Carnot. In 1865 Rudolf Clausius expanded his previous work from 1854 on the concept of "unkompensierte Verwandlungen" (uncompensated transformations), which, in our modern nomenclature, would be called the entropy production.
Thermodynamique hors équilibreLa thermodynamique hors équilibre est le domaine de recherche étudiant les phénomènes de relaxation et de transport au voisinage de l'équilibre thermodynamique. Il s'agit là de phénomènes dissipatifs donc irréversibles, liés à une augmentation de l'entropie. Les méthodes présentées ici relèvent de la thermodynamique proprement dite, qui permet de donner les lois caractérisant un phénomène.
Entropy (classical thermodynamics)In classical thermodynamics, entropy () is a property of a thermodynamic system that expresses the direction or outcome of spontaneous changes in the system. The term was introduced by Rudolf Clausius in the mid-19th century to explain the relationship of the internal energy that is available or unavailable for transformations in form of heat and work. Entropy predicts that certain processes are irreversible or impossible, despite not violating the conservation of energy.
Carnot heat engineA Carnot heat engine is a theoretical heat engine that operates on the Carnot cycle. The basic model for this engine was developed by Nicolas Léonard Sadi Carnot in 1824. The Carnot engine model was graphically expanded by Benoît Paul Émile Clapeyron in 1834 and mathematically explored by Rudolf Clausius in 1857, work that led to the fundamental thermodynamic concept of entropy. The Carnot engine is the most efficient heat engine which is theoretically possible.
Système thermodynamiqueEn thermodynamique classique, un système thermodynamique est une portion de l'Univers que l'on isole par la pensée du reste de l'Univers, ce dernier constituant alors le milieu extérieur. Le système thermodynamique n'est pas forcément défini par une frontière matérielle, ni nécessairement connexe. Les gouttes de liquide dans un brouillard, par exemple, définissent un système thermodynamique. Le milieu extérieur considéré est constitué par la portion d'Univers en interaction avec le système étudié.
ThermodynamiqueLa thermodynamique est la branche de la physique qui traite de la dépendance des propriétés physiques des corps à la température, des phénomènes où interviennent des échanges thermiques, et des transformations de l'énergie entre différentes formes. La thermodynamique peut être abordée selon deux approches différentes et complémentaires : phénoménologique et statistique. La thermodynamique phénoménologique ou classique a été l'objet de nombreuses avancées dès le .
Fluctuation theoremThe fluctuation theorem (FT), which originated from statistical mechanics, deals with the relative probability that the entropy of a system which is currently away from thermodynamic equilibrium (i.e., maximum entropy) will increase or decrease over a given amount of time. While the second law of thermodynamics predicts that the entropy of an isolated system should tend to increase until it reaches equilibrium, it became apparent after the discovery of statistical mechanics that the second law is only a statistical one, suggesting that there should always be some nonzero probability that the entropy of an isolated system might spontaneously decrease; the fluctuation theorem precisely quantifies this probability.
Processus isothermevignette|250px|Plusieurs isothermes d'un gaz parfait sur un diagramme représentant la pression en fonction du volume (diagramme de Clapeyron). vignette|250px|La zone en bleu correspond au travail dans un processus isotherme (à température constante). vignette|250px|La zone en vert correspond au travail dans un processus adiabatique (sans échange de chaleur). Le travail adiabatique est pris comme référence, indiquant la conservation de l'énergie. Le travail isotherme lui est supérieur dans les deux sens, détente et compression.
Mathématiques discrètesLes mathématiques discrètes, parfois appelées mathématiques finies, sont l'étude des structures mathématiques fondamentalement discrètes, par opposition aux structures continues. Contrairement aux nombres réels, qui ont la propriété de varier "en douceur", les objets étudiés en mathématiques discrètes (tels que les entiers relatifs, les graphes simples et les énoncés en logique) ne varient pas de cette façon, mais ont des valeurs distinctes séparées.
Système dissipatifUn système dissipatif (ou structure dissipative) est un système qui évolue dans un environnement avec lequel il échange de l'énergie ou de la matière. C'est donc un système ouvert, loin d'un équilibre thermodynamique. Un système dissipatif est caractérisé par le bilan de ses échanges (échange d'énergie, création d'entropie), et l'apparition spontanée d'une brisure de symétrie spatiale (anisotropie) qui peut quelquefois laisser apparaître une structure complexe chaotique. L'expression « structures dissipatives » fut créée par Ilya Prigogine.
Système complexevignette|Visualisation sous forme de graphe d'un réseau social illustrant un système complexe. Un système complexe est un ensemble constitué d'un grand nombre d'entités en interaction dont l'intégration permet d'achever un but commun. Les systèmes complexes sont caractérisés par des propriétés émergentes qui n'existent qu'au niveau du système et ne peuvent pas être observées au niveau de ses constituants. Dans certains cas, un observateur ne peut pas prévoir les rétroactions ou les comportements ou évolutions des systèmes complexes par le calcul, ce qui amène à les étudier à l'aide de la théorie du chaos.
Théorie du chaosLa théorie du chaos est une théorie scientifique rattachée aux mathématiques et à la physique qui étudie le comportement des systèmes dynamiques sensibles aux conditions initiales, un phénomène généralement illustré par l'effet papillon. Dans de nombreux systèmes dynamiques, des modifications infimes des conditions initiales entraînent des évolutions rapidement divergentes, rendant toute prédiction impossible à long terme.