Boltzmann était brillant, sans doute un génie, très en avance sur son temps en matière de théorie. Bien sûr, il n’était pas infaillible. Le plus important pour nous, les modernes, est de réaliser qu’il était encore très limité par la science de son époque ; le chimiste physique dominant et plus tard Nobel Ostwald a nommé son domaine « Energie » mais ne croyait pas à la réalité physique des molécules ni au traitement que Boltzmann leur réservait.

Quelques détails intéressants mais mineurs qui ne sont pas trop connus : Même si Boltzmann est mort en 1906, il n’y a aucune preuve qu’il ait jamais vu, et donc certainement jamais calculé les valeurs d’entropie via l’équation que Planck a publiée dans un article de 1900, S= R/N ln W. Elle a été imprimée pour la première fois en 1906 dans un livre de Planck sous la forme \( S=k_{B}lnW \), puis gravée sur la pierre tombale de Boltzmann. La noblesse de Planck en permettant à R/N d’être appelé  » constante de Boltzmann « , kB, n’était pas caractéristique de la plupart des scientifiques de cette époque, ainsi que maintenant.

La question importante est  » quels sont les fondements de l’introduction par Boltzmann de l’ordre dans le désordre comme clé pour comprendre le changement spontané d’entropie ? « . Cette idée de 1898 provient de deux à trois pages d’une description conceptuelle, un résumé en langage courant, qui suivent plus de 400 pages de théorie détaillée dans la traduction par Brush des « Lectures on Gas Theory » de Boltzmann (1896-1898) (University of California Press, 1964). Le paragraphe clé doit être cité dans son intégralité. (Les phrases précédentes et suivantes, décevantes, ne font que le développer ou l’étayer sans ajouter de détails techniques significatifs ou d’indications sur le processus de pensée de Boltzmann. J’ai inséré entre parenthèses une clause explicative du paragraphe précédent, et mis en italique les hypothèses étonnamment naïves de Boltzmann concernant tous ou la plupart des états initiaux comme « ordonnés ».)

« Afin d’expliquer le fait que les calculs basés sur cette hypothèse correspondent à des processus réellement observables, on doit supposer qu’un système mécanique énormément compliqué représente une bonne image du monde, et que toutes ou au moins la plupart des parties de ce système qui nous entourent sont initialement dans un état très ordonné – et donc très improbable. Lorsque c’est le cas, chaque fois que deux ou plusieurs petites parties de ce système entrent en interaction, le système formé par ces parties est également initialement dans un état ordonné et, lorsqu’il est laissé à lui-même, il passe rapidement à l’état désordonné le plus probable. » (Dernier paragraphe du n°87, p. 443.)

Ainsi, nous savons aujourd’hui qu’aucun système au-dessus de 0 K n’a d' »ordre » dans les descriptions thermodynamiques correctes des systèmes de molécules énergétiques. La vieille comparaison commune dans les manuels de la glace cristalline ordonnée à l’eau liquide désordonnée est totalement trompeuse, C’est une « erreur de Boltzmann » visuelle pas une évaluation thermodynamique correcte. Si l’eau liquide à 273 K, avec ses 101,991,000,000,000,000,000,000,000 micro-états accessibles (arrangements moléculaires quantifiés) est considérée comme « désordonnée », comment la glace à 273 K qui a 101,299,000,000,000,000,000,000 micro-états accessibles peut-elle être considérée comme « ordonnée » ? De toute évidence, l’utilisation de tels mots courants est inappropriée pour mesurer les micro-états énergétiques et donc pour discuter du changement d’entropie de manière conceptuelle.

Ce léger paragraphe innocent d’un homme sincère – mais avant la compréhension moderne de qrev/T via la connaissance du comportement moléculaire (Boltzmann croyait que les molécules ne pouvaient peut-être occuper qu’un volume d’espace infinitésimal), ou la mécanique quantique, ou la troisième loi – ce paragraphe et ses mots similaires proches sont le fondement de toute dépendance à l’égard de « l’entropie est une mesure du désordre ». À cause de cela, des milliers de scientifiques et de non-scientifiques ont passé des heures interminables à réfléchir et à argumenter sur le « désordre » et l’entropie au cours du siècle dernier. N’ayant apparemment jamais lu son fondement étonnamment trop simpliste, ils ont cru qu’il existait quelque part un fondement profond. Quelque part. Il n’y en a pas. Boltzmann était la source et personne n’a pris la peine de le contester. Pourquoi le feraient-ils ?

Le concept de changement d’entropie de Boltzmann a été accepté pendant un siècle principalement parce que des physiciens et des thermodynamiciens compétents se sont concentrés sur les relations fascinantes et les puissantes conclusions théoriques et pratiques découlant de la relation de l’entropie avec le comportement de la matière. Ils ne se sont pas préoccupés des réponses conceptuelles et non mathématiques à la question « Qu’est-ce que l’entropie, en réalité ? » que leurs étudiants avaient parfois le courage de poser. Leur réponse, parce que c’était ce qu’on leur avait enseigné, était la suivante : « Apprenez à calculer les changements d’entropie. Alors vous comprendrez ce qu’est ‘réellement’ l’entropie. »

Il n’y a aucune base dans la science physique pour interpréter le changement d’entropie comme impliquant l’ordre et le désordre. La définition originale de l’entropie (changement) implique un transfert de chaleur d’un réservoir thermique à un système via un processus de flux d’énergie virtuellement réversible. Bien que Clausius l’ait décrit, ainsi que son équation de dqrev/T ou qrev/T, comme une  » Verwandlung  » ou  » transformation « , il l’a limité, ainsi que la  » désagrégation « , aux discussions sur la fusion ou la vaporisation où les  » valeurs de désagrégation  » changent. Ainsi, Clausius observait un changement de phase, mais il ne faisait aucune déclaration sur la transformation de « substances cristallines ordonnées » en liquides « désordonnés », une affirmation évidente pour lui à partir de son observation. Malheureusement, Clausius n’a pas vu que son dq, une quantité d’énergie « thermique », initialement relativement localisée dans un réservoir thermique, se transformait dans un processus quelconque permettant à la chaleur de se répartir davantage dans l’espace. C’est ce qui se produit lorsqu’une barre métallique chaude est mise en contact avec une autre barre métallique similaire à peine plus froide – ou lorsqu’un système quelconque est réchauffé par son environnement légèrement plus chaud. L’état final de l' »univers » dans ces deux exemples est à l’équilibre et à une température uniforme. L’énergie interne des atomes ou des molécules du réservoir est moins localisée, plus dispersée dans le grand espace tridimensionnel final qu’elle ne l’était dans l’état initial. (Plus profondément, bien sûr, cette énergie est devenue plus dispersée dans l’espace de phase, et répartie sur plus de niveaux d’énergie dans l’objet autrefois plus froid que ne l’était sa dispersion diminuée dans l’environnement autrefois plus chaud.)

C’est aussi ce qui se passe lorsque des gaz idéaux A et B, avec leur contenu énergétique interne individuellement différent (valeurs S0) mais des molécules comparablement énergétiques et en mouvement constant dans des chambres adjacentes, sont autorisés à accéder à leurs chambres respectives à 298 K. Sans changement de température, elles se mélangeront spontanément car, au niveau d’interprétation le plus bas, l’énergie de translation des molécules A et B peut ainsi être mieux répartie dans le plus grand volume. À un niveau plus sophistiqué, leur énergie est plus largement distribuée dans l’espace des phases. Du point de vue de la mécanique quantique de l’occupation des niveaux d’énergie par les molécules individuelles, chaque type de molécule possède des niveaux d’énergie supplémentaires dans le plus grand volume, car les niveaux d’énergie se rapprochent les uns des autres. Mais on peut utiliser la même description causale de l’énergie qui se répand spontanément que dans la vision naïve qui consiste à voir des molécules mobiles toujours en mouvement pour occuper un volume 3D nouvellement disponible : l’énergie des molécules est plus dispersée, plus étalée, maintenant en termes de dispersion sur plus de niveaux d’énergie.

(Bien sûr, cette dispersion d’énergie peut être mieux décrite en termes de micro-états accessibles supplémentaires. Plus le nombre d’arrangements possibles des énergies moléculaires sur les niveaux d’énergie est grand, plus l’augmentation de l’entropie est grande – parce que le système dans un arrangement quelconque à un instant a plus de probabilité d’être dans un arrangement différent l’instant suivant. L’énergie totale du système est inchangée dans le temps, mais il y a une  » danse temporelle  » continue du système sur une fraction infime du nombre hyper-astronomique d’arrangements accessibles.)

On peut facilement montrer que l’augmentation de l’entropie dans A ou B est égale à R ln VFinal/VInitial , ou plus fondamentalement, -nR(xi ln xi). Ce résultat n’est pas spécifique aux gaz, bien sûr. Ce que l’équation de base montre comme étant significatif, c’est que toute séparation de molécules d’un type de molécules de son propre type est une augmentation de l’entropie due à la dispersion de son énergie interne intrinsèque dans un espace plus grand, à la fois tridimensionnel et phasique. De plus, cette dispersion accrue de l’énergie est interprétable en termes d’augmentation du nombre d’arrangements accessibles de l’énergie du système à tout instant et donc, un plus grand nombre de chances de changement à l’instant suivant – une plus grande  » danse temporelle  » du système sur de plus grandes possibilités et une augmentation conséquente de l’entropie.

Le sentiment de Boltzmann d’un  » hasard accru  » comme critère de l’état d’équilibre final d’un système par rapport aux conditions initiales n’était pas faux. Ce qui l’a fait échouer (et les générations suivantes), c’est sa conclusion étonnamment simpliste : si l’état final est aléatoire, le système initial devait être l’inverse, c’est-à-dire ordonné. « Le désordre » était la conséquence, pour Boltzmann, d’un « ordre » initial et non – comme c’est évident aujourd’hui – de ce qu’on peut seulement appeler un « grand nombre antérieur, moindre mais encore humainement inimaginable, de micro-états accessibles »

Il est clair qu’un grand avantage de présenter aux étudiants en chimie l’augmentation de l’entropie comme due à l’énergie moléculaire qui se répand dans l’espace, si elle n’est pas contrainte, commence par les parallèles faciles avec le comportement spontané de types d’énergie bien connus des débutants : la lumière d’une ampoule, le son d’une chaîne stéréo, les ondes d’une pierre tombée dans une piscine, l’air d’un pneu crevé. Cependant, sa profonde « valeur ajoutée » est sa pertinence continue au niveau suivant dans l’interprétation théorique de la dispersion de l’énergie dans les événements thermiques ou non-thermiques, c’est-à-dire lorsque la quantification des énergies moléculaires sur les niveaux d’énergie, leurs distributions, et les micro-états accessibles deviennent le centre d’intérêt.

Lorsqu’un système est chauffé, et que ses molécules se déplacent plus rapidement, leurs distributions probables sur les niveaux d’énergie changent de sorte que les niveaux supérieurs précédents sont plus occupés et que des niveaux élevés supplémentaires deviennent accessibles. L’énergie moléculaire du système chauffé est donc devenue plus largement dispersée sur les niveaux d’énergie. La dispersion de l’énergie sur les niveaux d’énergie est comparable dans les processus adiabatiques que certains auteurs caractérisent comme impliquant une entropie « positionnelle » ou « configurationnelle ». Lorsqu’un plus grand volume est mis à la disposition des composants idéaux d’un système – par l’expansion d’un gaz, par le mélange de fluides (ou même par la dissolution d’un soluté) – les niveaux d’énergie de l’état final de chaque constituant sont plus proches, plus denses que dans l’état initial. Cela signifie qu’un plus grand nombre de niveaux d’énergie sont occupés dans l’état final, bien que l’énergie totale de chaque constituant ne change pas. Ainsi, l’énergie initiale du système est devenue plus étalée, plus largement dispersée sur plus de niveaux d’énergie dans l’état final..

L’équation ‘Boltzmann’ pour l’entropie est S = kB ln W, où W est le nombre de différentes manières ou micro-états dans lesquels l’énergie des molécules dans un système peut être disposée sur des niveaux d’énergie. Alors, ΔS serait égal à kB ln WFinal / WInitial pour les processus thermiques ou d’expansion ou de mélange que nous venons de mentionner. Une valeur ΔS des plus importantes en chimie est l’entropie d’état standard pour une mole de n’importe quelle substance à 298 K, S0, qui peut être déterminée par la mesure calorimétrique des incréments de chaleur/T ajoutés de manière réversible à la substance de 0 K à 298 K. Tout état de transition ou changement de phase/T est également ajouté.

Il est donc évident qu’une énergie considérable est  » stockée  » dans n’importe quelle substance sur de nombreux niveaux d’énergie différents lorsqu’elle est dans son état standard. (A. Jungermann, J. Chem. Educ. 2006, 83, 1686-1694.) De plus, par exemple, si l’énergie d’un environnement de 398 K est diffusée à une mole d’azote à 298 K, les molécules d’azote deviennent différemment disposées sur les niveaux d’énergie précédents et se propagent à certains niveaux plus élevés. Si, à une température fixe, on laisse l’azote se dilater dans le vide ou se mélanger à un autre gaz, ses niveaux d’énergie dans le nouveau volume plus grand seront plus proches les uns des autres. Même dans des situations de volume fixe ou de température constante, les molécules qui entrent constamment en collision dans une mole de gaz, quel qu’il soit, ne sont manifestement pas dans une disposition unique des niveaux d’énergie pendant plus d’un instant. Elles passent continuellement d’un arrangement à un autre en raison de ces collisions – dans le cadre d’un contenu énergétique total inchangé à une température donnée et d’une distribution sur les niveaux d’énergie conforme à une distribution de Boltzmann. Ainsi, comme il est arbitrairement convenu que WInitial à 0 K est égal à 1, la S0 de l’azote de 191,6 J/K mole = 1,380 x 10-23 J/K ln WFinal. Alors, WFinal = 10 à l’exposant de 6,027 000 000 000 000 000 000 000 000 000 microétats, un nombre d’arrangements possibles pour les molécules d’azote à 298,15 K qui est humainement au-delà de la compréhension – sauf en termes de manipulation ou de comparaison de ce nombre mathématiquement.

Il faut souligner que ces nombres gigantesques sont des guides significatifs mathématiquement et physiquement et conceptuellement – c’est-à-dire qu’un tel nombre plus grand ou plus petit indique effectivement une différence dans les systèmes physiques réels de molécules et nous devrions sentir que la magnitude est significative. Cependant, d’un point de vue conceptuel, nous devrions également réaliser qu’en temps réel, il est impossible pour un système d’être dans plus de quelques quadrillions d’états différents en quelques secondes, et peut-être de passer le plus de temps dans quelques milliards ou millions, Il est impossible même dans un temps presque infini pour un système d’explorer tous les micro-états possibles ou que même une infime fraction des micro-états possibles puisse être explorée en un siècle. (Il est encore moins probable qu’un nombre gigantesque soit visité car les micro-états les plus probablement et fréquemment occupés constituent un pic extrêmement étroit dans un « spectre de probabilité ».)

Cependant, les concepts sont clairs. A un instant, toutes les molécules ne sont que dans un seul arrangement énergétique – une photo instantanée ‘arrêt sur image’ des énergies moléculaires sur les niveaux d’énergie (qui est une abstraction dérivée d’une photo tout aussi impossible des molécules réelles avec leurs vitesses et leurs emplacements dans l’espace à un instant). Puis, à l’instant suivant, une collision entre même deux molécules changera l’arrangement en un micro-état différent. L’instant d’après, à un autre. Puis à un autre. (Leff a appelé cette séquence de changements instantanés « une danse temporelle » du système sur certains de ses micro-états accessibles possibles). Même si le nombre calculé de micro-états possibles est si grand qu’il n’y a aucune chance que plus d’une petite fraction de ce nombre puisse jamais être explorée ou « dansée » en un temps fini, ce nombre calculé influence le nombre de chances que l’arrangement énergétique du système se trouve au moment suivant. Plus le nombre de micro-états est élevé, plus un système a de chances que son énergie se trouve ensuite dans un micro-état différent. En ce sens, plus le nombre de micro-états possibles pour un système est grand, moins il est probable qu’il puisse revenir à un micro-état précédemment visité et donc, plus son énergie est dispersée dans le temps. (Cette évaluation et cette conclusion ne constituent en aucun cas une introduction nouvelle ou radicale du temps dans les considérations thermodynamiques ! C’est simplement que dans les mesures thermiques normales qui durent quelques secondes, minutes ou heures, le comportement détaillé des molécules dans le maintien d’un macro-état n’a aucun intérêt). Par exemple, le chauffage d’une mole d’azote d’un seul degré, disons de l’état standard de 298,15 K à 299,15 K, compte tenu de sa capacité thermique de 29 J/K, entraîne une augmentation de l’entropie de 0,097 J/K, ce qui fait passer les micro-états de 6,027 x 1024 à 6,034 x 1024. Ainsi, même un léger changement macro dans un système est signifié par un changement égal dans le nombre de micro-états – dans le nombre de chances pour le système d’être dans un micro-état différent à l’instant suivant qu’à l’instant précédent… Plus le nombre de micro-états possibles pour un système dans un état donné est grand, plus la dispersion de l’énergie de ce système dans le sens de sa présence dans un micro-état différent à l’instant suivant est probable.

Une plus grande dispersion de l’énergie dans un système signifie, en termes de ses micro-états, une « danse temporelle » sur un plus grand nombre de micro-états possibles que s’il y avait un plus petit nombre de micro-états.

L’exemple le plus fréquemment utilisé pour montrer l’augmentation de l’entropie comme un plus grand « désordre » dans les textes de chimie élémentaire pendant de nombreuses années était celui de la fonte de la glace en eau. De la glace cristalline étincelante et ordonnée à l’eau liquide mobile et désordonnée – c’est effectivement une impression visuelle et cristallographique saisissante, mais l’apparence n’est pas le critère de la variation d’entropie. L’augmentation de l’entropie dépend de la dispersion de l’énergie – dans un espace tridimensionnel (une généralité facilement compréhensible pour tous les étudiants débutants). Ensuite, les étudiants plus compétents peuvent être amenés à voir comment l’augmentation de l’entropie due au transfert de chaleur implique que les énergies moléculaires occupent des niveaux d’énergie de plus en plus élevés, tandis que l’augmentation de l’entropie dans l’expansion des gaz et dans tous les mélanges est caractérisée par l’occupation de niveaux d’énergie plus denses au sein de la gamme d’énergie initiale du système. Enfin, les étudiants avancés peuvent être montrés que toute augmentation de l’entropie dans un système ou un univers final qui a un plus grand nombre de micro-états que le système/univers initial comme la corrélation ultime de l’augmentation de l’entropie avec la théorie, quantitativement dérivable de la thermodynamique moléculaire.

La glace cristalline à 273 K a un S0 de 41,34 J/K mol, et donc, via S = kB ln W, il y a 10 à un exposant de 1,299,000,000,000,000,000,000 microétats accessibles possibles pour la glace. Étant donné que le S0 de l’eau liquide à 273 K = 63,34 J/K mole, il existe 10 à un exposant encore plus grand de 1 991 000 000 000 000 000 000 000 de micro-états accessibles pour l’eau. Cela montre-t-il clairement que l’eau est « désordonnée » par rapport à la glace cristalline ? Bien sûr que non. Le fait que la glace ait moins de micro-états accessibles que l’eau à la même température signifie principalement – pour autant que les considérations d’entropie soient concernées – que toute voie permettant de changer la glace en eau entraînera une augmentation de l’entropie dans le système et sera donc favorisée sur le plan thermodynamique.

L’utilisation par Gibbs de l’expression « mixité » n’a absolument rien à voir avec « ordre-désordre » en thermodynamique ou toute autre discussion. Elle provient d’un fragment posthume d’écriture, sans lien avec aucun argument détaillé ou support logique pour les nombreuses procédures et concepts fondamentaux développés par Gibbs

Enfin, l’idée qu’il y ait un quelconque « ordre » ou simplicité dans la distribution de l’énergie dans un état initial de toute substance réelle dans des conditions réelles est détruite par le calcul des nombres de Pitzer pour les micro-états dans son « Thermodynamics » (Troisième édition, 1995, p. 67). Aussi près de 0 K et donc, d’une entropie zéro aussi « pratique » que possible dans un laboratoire, Pitzer montre qu’il doit y avoir 1026 000 000 000 000 000 000 de micro-états accessibles possibles pour toute substance.

Contributeurs et attributions

  • Frank L. Lambert, professeur émérite, Occidental College

.