ThermodynamiqueLa thermodynamique est la branche de la physique qui traite de la dépendance des propriétés physiques des corps à la température, des phénomènes où interviennent des échanges thermiques, et des transformations de l'énergie entre différentes formes. La thermodynamique peut être abordée selon deux approches différentes et complémentaires : phénoménologique et statistique. La thermodynamique phénoménologique ou classique a été l'objet de nombreuses avancées dès le .
TempératureLa température est une grandeur physique mesurée à l’aide d’un thermomètre et étudiée en thermométrie. Dans la vie courante, elle est reliée aux sensations de froid et de chaud, provenant du transfert thermique entre le corps humain et son environnement. En physique, elle se définit de plusieurs manières : comme fonction croissante du degré d’agitation thermique des particules (en théorie cinétique des gaz), par l’équilibre des transferts thermiques entre plusieurs systèmes ou à partir de l’entropie (en thermodynamique et en physique statistique).
Chimie physiqueLa chimie physique est l’étude des bases physiques des systèmes chimiques et des procédés. En particulier, la description énergétique des diverses transformations fait partie de la chimie physique. Elle fait appel à des disciplines importantes comme la thermodynamique chimique (ou thermochimie), la cinétique chimique, la mécanique statistique, la spectroscopie et l’électrochimie.
Loi de distribution des vitesses de MaxwellEn théorie cinétique des gaz, la loi de distribution de vitesses de Maxwell quantifie la répartition statistique des vitesses des particules dans un gaz homogène à l'équilibre thermodynamique. Les vecteurs vitesse des particules suivent une loi normale. Cette loi a été établie par James Clerk Maxwell en 1860 et confirmée ultérieurement par Ludwig Boltzmann à partir de bases physiques qui fondent la physique statistique en 1872 et 1877.
Entropie (thermodynamique)L'entropie est une grandeur physique qui caractérise le degré de désorganisation d'un système. Introduite en 1865 par Rudolf Clausius, elle est nommée à partir du grec , littéralement « action de se retourner » pris au sens de « action de se transformer ». En thermodynamique, l'entropie est une fonction d'état extensive (c'est-à-dire, proportionnelle à la quantité de matière dans le système considéré). Elle est généralement notée , et dans le Système international d'unités elle s'exprime en joules par kelvin ().
Mécanique newtonienneLa mécanique newtonienne est une branche de la physique. Depuis les travaux d'Albert Einstein, elle est souvent qualifiée de mécanique classique. La mécanique classique ou mécanique newtonienne est une théorie physique qui décrit le mouvement des objets macroscopiques lorsque leur vitesse est faible par rapport à celle de la lumière. Avant de devenir une science à part entière, la mécanique a longtemps été une section des mathématiques. De nombreux mathématiciens y ont apporté une contribution souvent décisive, parmi eux des grands noms tels qu'Euler, Cauchy, Lagrange.
Constante de BoltzmannLa constante de Boltzmann k (ou k) a été introduite par Ludwig Boltzmann dans sa définition de l'entropie de 1877. Le système étant à l'équilibre macroscopique, mais libre d'évoluer à l'échelle microscopique entre micro-états différents, son entropie S est donnée par : où la constante k retenue par le CODATA vaut (valeur exacte). La constante des gaz parfaits est liée à la constante de Boltzmann par la relation : (avec (valeur exacte) le nombre d'Avogadro, nombre de particules dans une mole). D'où :.
Ensemble statistiqueEn physique statistique, un ensemble statistique est une abstraction qui consiste à considérer une collection de copies virtuelles (ou répliques) d'un système physique dans l'ensemble des états accessibles où il est susceptible de se trouver, compte tenu des contraintes extérieures qui lui sont imposées, telles le volume, le nombre de particules, l'énergie et la température. Cette notion, introduite par le physicien américain Josiah Willard Gibbs en 1902, est un concept central de la physique statistique.
Système dynamiqueEn mathématiques, en chimie ou en physique, un système dynamique est la donnée d’un système et d’une loi décrivant l'évolution de ce système. Ce peut être l'évolution d'une réaction chimique au cours du temps, le mouvement des planètes dans le système solaire (régi par la loi universelle de la gravitation de Newton) ou encore l'évolution de la mémoire d'un ordinateur sous l'action d'un programme informatique. Formellement on distingue les systèmes dynamiques à temps discrets (comme un programme informatique) des systèmes dynamiques à temps continu (comme une réaction chimique).
PhysiqueLa physique est la science qui essaie de comprendre, de modéliser et d'expliquer les phénomènes naturels de l'Univers. Elle correspond à l'étude du monde qui nous entoure sous toutes ses formes, des lois de ses variations et de leur évolution. La physique développe des représentations du monde expérimentalement vérifiables dans un domaine de définition donné. Elle produit plusieurs lectures du monde, chacune n'étant considérée comme précise que jusqu'à un certain point.
Entropie de ShannonEn théorie de l'information, l'entropie de Shannon, ou plus simplement entropie, est une fonction mathématique qui, intuitivement, correspond à la quantité d'information contenue ou délivrée par une source d'information. Cette source peut être un texte écrit dans une langue donnée, un signal électrique ou encore un fichier informatique quelconque (suite d'octets). Elle a été introduite par Claude Shannon. Du point de vue d'un récepteur, plus la source émet d'informations différentes, plus l'entropie (ou incertitude sur ce que la source émet) est grande.
SupraconductivitéLa supraconductivité, ou supraconduction, est un phénomène physique caractérisé par l'absence de résistance électrique et l'expulsion du champ magnétique — l'effet Meissner — à l'intérieur de certains matériaux dits supraconducteurs. La supraconductivité découverte historiquement en premier, et que l'on nomme communément supraconductivité conventionnelle, se manifeste à des températures très basses, proches du zéro absolu (). La supraconductivité permet notamment de transporter de l'électricité sans perte d'énergie.
Distribution de BoltzmannEn physique statistique, la distribution de Boltzmann prédit la fonction de distribution pour le nombre fractionnaire de particules Ni / N occupant un ensemble d'états i qui ont chacun pour énergie Ei : où est la constante de Boltzmann, T est la température (postulée comme étant définie très précisément), est la dégénérescence, ou le nombre d'états d'énergie , N est le nombre total de particules : et Z(T) est appelée fonction de partition, qui peut être considérée comme égale à : D'autre part, pour un systè
Énergie interneL’énergie interne d’un système thermodynamique est l'énergie qu'il renferme. C'est une fonction d'état extensive, associée à ce système. Elle est égale à la somme de l’énergie cinétique de chaque entité élémentaire de masse non nulle et de toutes les énergies potentielles d’interaction des entités élémentaires de ce système. En fait, elle correspond à l'énergie intrinsèque du système, définie à l'échelle microscopique, à l'exclusion de l'énergie cinétique ou potentielle d'interaction du système avec son environnement, à l'échelle macroscopique.
Ensemble canoniqueEn physique statistique, l’ensemble (ou situation) canonique est un ensemble statistique introduit par le physicien américain Josiah Willard Gibbs. Il correspond au cas d'un système physique de volume donné et contenant un nombre fixe de particules, en interaction avec un autre système, appelé réservoir ou thermostat, beaucoup plus grand que le système considéré et avec lequel il peut échanger de l'énergie mais pas de matière. Le thermostat se comporte comme un réservoir supposé infini d'énergie, la réunion des deux systèmes étant considérée comme isolée.
Espace des phasesdroite|vignette| Trajectoires dans l'espace des phases pour un pendule simple. L'axe X correspond à la position du pendule, et l'axe Y sa vitesse. Dans la théorie des systèmes dynamiques, l'espace des phases (ou espace d'état) d'un système est l'espace mathématique dans lequel tous les états possibles du système sont représentés ; chaque état possible correspondant à un point unique dans l'espace des phases. Pour un système mécanique, l'espace des phases se compose généralement de toutes les valeurs possibles des variables de position et d'impulsion représentant le système.
Transition de phasevignette|droite|Noms exclusifs des transitions de phase en thermodynamique. En physique, une transition de phase est la transformation physique d'un système d'une phase vers une autre, induite par la variation d'un paramètre de contrôle externe (température, champ magnétique...). Une telle transition se produit lorsque ce paramètre externe atteint une valeur seuil (ou valeur « critique »). La transformation traduit généralement un changement des propriétés de symétrie du système.
Équation d'étatEn physique, et plus particulièrement en thermodynamique, une équation d'état d'un système à l'équilibre thermodynamique est une relation entre différents paramètres physiques (appelés variables d'état) qui déterminent son état. Il peut s'agir par exemple d'une relation entre sa température, sa pression et son volume. À partir de l'équation d'état caractéristique d'un système physique, il est possible de déterminer la totalité des quantités thermodynamiques décrivant ce système et par suite de prédire ses propriétés.
Énergie (physique)En physique, l'énergie est une grandeur qui mesure la capacité d'un système à modifier un état, à produire un travail entraînant un mouvement, un rayonnement électromagnétique ou de la chaleur. Dans le Système international d'unités (SI), l'énergie s'exprime en joules et est de dimension . Le mot français vient du latin vulgaire energia, lui-même issu du grec ancien / enérgeia. Ce terme grec originel signifie « force en action », par opposition à / dýnamis signifiant « force en puissance » ; Aristote a utilisé ce terme , pour désigner la réalité effective en opposition à la réalité possible.
Deuxième principe de la thermodynamiqueLe deuxième principe de la thermodynamique (également connu sous le nom de deuxième loi de la thermodynamique ou principe de Carnot) établit l'irréversibilité des phénomènes physiques, en particulier lors des échanges thermiques. C'est un principe d'évolution qui fut énoncé pour la première fois par Sadi Carnot en 1824. Il a depuis fait l'objet de nombreuses généralisations et formulations successives par Clapeyron (1834), Clausius (1850), Lord Kelvin, Ludwig Boltzmann en 1873 et Max Planck (voir Histoire de la thermodynamique et de la mécanique statistique), tout au long du et au-delà jusqu'à nos jours.