Introduction
La thermodynamique est la science des processus énergétiques. Née de l'étude pratique des machines à vapeur au XIXe siècle, elle est devenue un pilier théorique fondamental de la physique, de la chimie, de la biologie et de l'ingénierie. Elle fournit un cadre pour comprendre pourquoi les phénomènes se déroulent dans un sens et non dans l'autre, et définit les conditions d'équilibre et d'évolution de tout système.
Description
La thermodynamique classique s'appuie sur quatre lois fondamentales, formulées de manière phénoménologique (sans référence à la structure microscopique de la matière). La 'loi zéro' définit la température et établit le principe de l'équilibre thermique : si deux systèmes sont en équilibre thermique avec un troisième, ils sont en équilibre thermique entre eux. La 'première loi' est le principe de conservation de l'énergie : l'énergie interne d'un système isolé est constante ; l'énergie ne peut être ni créée ni détruite, seulement transférée (sous forme de chaleur ou de travail) ou transformée. La 'deuxième loi' introduit la notion d'entropie et définit la direction des processus naturels : l'entropie d'un système isolé ne peut qu'augmenter, ce qui implique que la chaleur ne peut spontanément passer d'un corps froid à un corps chaud. La 'troisième loi' stipule que l'entropie d'un cristal parfait à la température du zéro absolu (0 Kelvin) est nulle, rendant ce zéro absolu inatteignable en un nombre fini d'étapes. La thermodynamique statistique, développée plus tard, relie ces grandeurs macroscopiques (température, entropie) au comportement statistique des atomes et molécules constituant le système.
Histoire
Les racines de la thermodynamique remontent aux travaux de Sadi Carnot sur l'efficacité des machines à vapeur (1824). Rudolf Clausius et William Thomson (Lord Kelvin) ont ensuite formalisé les premier et deuxième principes vers 1850, Clausius introduisant le terme 'entropie' en 1865. James Prescott Joule établit expérimentalement l'équivalence entre travail et chaleur, consolidant la première loi. Ludwig Boltzmann, dans les années 1870, donna une interprétation statistique profonde à l'entropie, la reliant au désordre moléculaire. Les travaux de Josiah Willard Gibbs sur l'énergie libre et les potentiels thermodynamiques (1870s) ont unifié la théorie et étendu son application à la chimie. Le XXe siècle a vu l'intégration de la thermodynamique avec la mécanique quantique, donnant naissance à la physique statistique quantique.
Caracteristiques
La thermodynamique se caractérise par son approche macroscopique et ses lois universelles, indépendantes des détails microscopiques. Elle utilise des concepts d'état (pression, volume, température, énergie interne) et des fonctions d'état (comme l'entropie ou l'enthalpie) dont la variation ne dépend que de l'état initial et final, pas du chemin suivi. Elle distingue les systèmes (ouverts, fermés, isolés) et les types de processus (réversibles, irréversibles, isothermes, adiabatiques). Une de ses forces est de poser des limites théoriques (comme le rendement de Carnot) que toute machine réelle ne peut dépasser. Elle est également remarquable par sa capacité à décrire l'évolution vers l'équilibre.
Importance
L'importance de la thermodynamique est immense et transversale. Elle est le fondement de toute l'ingénierie énergétique : moteurs thermiques, turbines, réfrigérateurs, centrales électriques. En chimie, elle prédit la spontanéité des réactions, les équilibres chimiques et les diagrammes de phase. En science des matériaux, elle guide les traitements thermiques. En biologie, elle éclaire les processus du métabolisme et le flux d'énergie dans les écosystèmes. En cosmologie, elle s'applique à l'évolution de l'univers. Son concept d'entropie a même influencé la théorie de l'information (Shannon) et la philosophie. C'est une théorie qui définit ce qui est physiquement possible.
