Boltzmann era brillante, senza dubbio un genio, molto avanti rispetto al suo tempo nella teoria. Naturalmente non era infallibile. La cosa più importante da capire per noi moderni è che era ancora molto limitato dalla scienza della sua epoca; il chimico fisico dominante e poi Nobel Ostwald chiamò la sua proprietà “Energie” ma non credeva nella realtà fisica delle molecole né nel trattamento di Boltzmann di esse.

Alcuni dettagli interessanti ma minori che non sono troppo conosciuti: Anche se Boltzmann morì nel 1906, non ci sono prove che abbia mai visto, e quindi certamente non ha mai calcolato i valori di entropia attraverso l’equazione che Planck pubblicò in un articolo del 1900, S= R/N ln W. Fu stampata per la prima volta nel 1906 in un libro di Planck come \( S=k_{B}lnW \), e successivamente incisa sulla lapide di Boltzmann. La nobiltà di Planck nel permettere che R/N fosse chiamato ‘costante di Boltzmann’, kB, non era caratteristica della maggior parte degli scienziati di quel tempo, così come oggi.

La domanda importante è “quali sono le basi per l’introduzione di Boltzmann dell’ordine al disordine come chiave per comprendere il cambiamento spontaneo dell’entropia?” Quell’idea del 1898 proviene da due o tre pagine di una descrizione concettuale, un riassunto in linguaggio comune, che seguono oltre 400 pagine di teoria dettagliata nella traduzione di Brush delle “Lectures on Gas Theory” di Boltzmann del 1896-1898 (University of California Press, 1964). Il paragrafo chiave dovrebbe essere citato per intero. (Le frasi e le frasi precedenti e seguenti, purtroppo, si espandono solo su di esso o lo sostengono senza ulteriori dettagli tecnici significativi o indicazioni dei processi di pensiero di Boltzmann. Ho inserito tra parentesi una clausola esplicativa del paragrafo precedente, e ho messo in corsivo le ipotesi sorprendentemente ingenue di Boltzmann su tutti o la maggior parte degli stati iniziali come “ordinati”.)

“Per spiegare il fatto che i calcoli basati su questo presupposto corrispondano a processi effettivamente osservabili, si deve assumere che un sistema meccanico enormemente complicato rappresenti una buona immagine del mondo, e che tutte o almeno la maggior parte delle parti di esso che ci circondano siano inizialmente in uno stato molto ordinato – e quindi molto improbabile -. Quando questo è il caso, allora ogni volta che due o più piccole parti di esso entrano in interazione tra loro, il sistema formato da queste parti è anch’esso inizialmente in uno stato ordinato e quando viene lasciato a se stesso procede rapidamente verso lo stato disordinato più probabile.” (Paragrafo finale di #87, p. 443.)

Quindi, oggi sappiamo che nessun sistema sopra 0 K ha alcun “ordine” nelle descrizioni termodinamiche corrette dei sistemi di molecole energetiche. Il comune paragone da vecchio libro di testo del ghiaccio cristallino ordinato all’acqua liquida disordinata è totalmente ingannevole, è un “errore di Boltzmann” visivo, non una corretta valutazione termodinamica. Se l’acqua liquida a 273 K, con i suoi 101.991.000.000.000.000.000.000.000.000.000 microstati accessibili (disposizioni molelculari quantizzate) è considerata “disordinata”, come può essere considerato “ordinato” il ghiaccio a 273 K che ha 101.299.000.000.000.000.000.000.000.000.000 microstati accessibili? Ovviamente, usare parole così comuni è inappropriato nel misurare i microstati energetici e quindi nel discutere concettualmente il cambiamento dell’entropia.

Quell’esile, innocente paragrafo di un uomo sincero – ma prima della moderna comprensione di qrev/T attraverso la conoscenza del comportamento molecolare (Boltzmann credeva che le molecole potessero forse occupare solo un volume infinitesimale di spazio), o la meccanica quantistica, o la terza legge – quel paragrafo e le sue simili parole vicine sono il fondamento di tutta la dipendenza da “l’entropia è una misura del disordine”. A causa di esso, innumerevoli migliaia di scienziati e non scienziati hanno trascorso ore interminabili in pensieri e discussioni sul “disordine” e l’entropia nel secolo scorso. Apparentemente non avendo mai letto le sue basi sorprendentemente troppo semplicistiche, hanno creduto che da qualche parte ci fosse una base profonda. Da qualche parte. Non c’è. Boltzmann era la fonte e nessuno si è preoccupato di sfidarlo. Perché avrebbero dovuto?

Il concetto di variazione dell’entropia di Boltzmann è stato accettato per un secolo principalmente perché fisici e termodinamici esperti si sono concentrati sulle affascinanti relazioni e sulle potenti conclusioni teoriche e pratiche derivanti dalla relazione dell’entropia con il comportamento della materia. Non si preoccupavano delle risposte concettuali e non matematiche alla domanda: “Cos’è l’entropia, in realtà?” che i loro studenti avevano occasionalmente il coraggio di chiedere. La loro risposta, perché era quello che era stato loro insegnato, era “Imparate a calcolare i cambiamenti di entropia. Allora capirete cos’è l’entropia ‘veramente'”

Non c’è nessuna base nella scienza fisica per interpretare il cambiamento dell’entropia come se implicasse ordine e disordine. La definizione originale di entropia (cambiamento) implica un trasferimento di calore da un serbatoio termico a un sistema attraverso un processo di flusso di energia virtualmente reversibile. Anche se Clausius la descriveva e la sua equazione di dqrev/T o qrev/T come una “Verwandlung” o “trasformazione”, la limitava e “disgregazione” a discussioni di fusione o vaporizzazione dove i “valori di disgregazione” cambiavano. Così, Clausius stava osservando il cambiamento di fase, ma non fece alcuna dichiarazione sulle “sostanze cristalline ordinate” che si trasformavano in liquidi “disordinati”, un’affermazione ovvia per lui dalla sua osservazione. Sfortunatamente, Clausius non vide che la sua dq, una quantità di energia “calore”, inizialmente relativamente localizzata in un serbatoio termico, si trasformava in qualsiasi processo che permetteva al calore di diventare più diffuso nello spazio. Questo è ciò che accade quando una barra di metallo calda viene messa in contatto con una barra di metallo simile appena più fredda – o quando qualsiasi sistema viene riscaldato dal suo ambiente leggermente più caldo. Lo stato finale dell'”universo” in entrambi questi esempi è in equilibrio e ad una temperatura uniforme. L’energia interna degli atomi o delle molecole nel serbatoio è diventata meno localizzata, più dispersa nel maggiore spazio tridimensionale finale di quanto non fosse nello stato iniziale. (Più profondamente, naturalmente, quell’energia è diventata più dispersa nello spazio di fase, e distribuita su più livelli di energia nell’oggetto una volta più freddo di quanto la sua dispersione sia diminuita nell’ambiente una volta più caldo).

Questo è anche ciò che accade quando i gas ideali A e B con il loro contenuto di energia interna individualmente diverso (valori S0) ma molecole comparabilmente energetiche e costantemente in movimento in camere adiacenti hanno accesso l’uno alle camere dell’altro a 298 K. Senza alcun cambiamento di temperatura, si mescoleranno spontaneamente perché, al livello più basso di interpretazione, l’energia traslazionale delle molecole A e B può così diventare più diffusa nel volume più grande. Ad un livello più sofisticato, la loro energia è più ampiamente distribuita nello spazio delle fasi. Dal punto di vista quantistico-meccanico dell’occupazione dei livelli di energia da parte delle singole molecole, ogni tipo di molecola ha livelli di energia aggiuntivi nel volume maggiore, perché i livelli di energia diventano più vicini tra loro. Ma la stessa descrizione causale dell’energia che si diffonde spontaneamente può essere usata come nella visione ingenua di vedere le molecole mobili sempre in movimento per occupare il nuovo volume 3-D disponibile: l’energia delle molecole è più dispersa, più diffusa, ora in termini di dispersione su più livelli di energia.

(Naturalmente, questa dispersione di energia può essere meglio descritta in termini di microstati aggiuntivi accessibili. Maggiore è il numero di possibili disposizioni delle energie molecolari sui livelli di energia, maggiore è l’aumento di entropia – perché il sistema in qualsiasi disposizione in un istante ha più probabilità di essere in una disposizione diversa nell’istante successivo. L’energia totale del sistema è invariata nel tempo, ma c’è una continua ‘danza temporale’ del sistema su una minuscola frazione del numero iper-astronomico di disposizioni accessibili.)

L’aumento di entropia in A o B può essere facilmente dimostrato essere uguale a R ln VFinal/VInitial , o più fondamentalmente, -nR(xi ln xi). Questo risultato non è specifico dei gas, naturalmente. Ciò che è dimostrato essere significativo dall’equazione di base è che qualsiasi separazione di molecole di un tipo dal suo stesso tipo è un aumento di entropia dovuto alla diffusione della sua energia interna intrinseca in uno spazio maggiore, sia 3-D che spazio-fase. Inoltre, questa maggiore dispersione di energia è interpretabile in termini di aumento del numero di disposizioni accessibili dell’energia del sistema in ogni istante e quindi, un maggior numero di possibilità di cambiamento nell’istante successivo – una maggiore “danza temporale” del sistema su maggiori possibilità e un conseguente aumento di entropia.

Il senso di Boltzmann di “maggiore casualità” come criterio dello stato di equilibrio finale di un sistema rispetto alle condizioni iniziali non era sbagliato. Ciò che ha fallito lui (e le generazioni successive) è stata la sua conclusione sorprendentemente semplicistica: se lo stato finale è casuale, il sistema iniziale deve essere stato il contrario, cioè ordinato. Il “disordine” era la conseguenza, per Boltzmann, di un “ordine” iniziale, non – come è ovvio oggi – di quello che può essere chiamato solo un “precedente, minore ma ancora umanamente inimmaginabile, grande numero di microstati accessibili”

E’ chiaro che un grande vantaggio di introdurre gli studenti di chimica all’aumento dell’entropia come dovuto all’energia molecolare che si diffonde nello spazio, se non è vincolata, inizia con i pronti paralleli al comportamento spontaneo di tipi di energia che sono ben noti ai principianti: la luce di una lampadina, il suono di uno stereo, le onde di una roccia caduta in una piscina, l’aria di un pneumatico forato. Tuttavia, il suo profondo “valore aggiunto” è la sua pertinenza continua al livello successivo nell’interpretazione teorica della dispersione dell’energia negli eventi termici o non termici, cioè quando la quantizzazione delle energie molecolari sui livelli energetici, le loro distribuzioni e i microstati accessibili diventano l’obiettivo.

Quando un sistema è riscaldato, e le sue molecole si muovono più rapidamente, le loro probabili distribuzioni sui livelli energetici cambiano in modo che i livelli superiori precedenti sono più occupati e ulteriori livelli elevati diventano accessibili. L’energia molecolare del sistema riscaldato è quindi diventata più ampiamente distribuita sui livelli energetici. La dispersione dell’energia sui livelli energetici è paragonabile nei processi adiabatici che alcuni autori caratterizzano come coinvolgenti l’entropia “posizionale” o “configurazionale”. Quando un volume più grande è reso disponibile ai componenti ideali di un sistema – per l’espansione di un gas, per la miscelazione dei fluidi (o anche per la dissoluzione di un soluto) – i livelli di energia dello stato finale di ogni costituente sono più vicini, più densi che nello stato iniziale. Questo significa che più livelli di energia sono occupati nello stato finale nonostante nessun cambiamento nell’energia totale di ogni costituente. Così, l’energia iniziale del sistema è diventata più diffusa, più ampiamente dispersa su più livelli di energia nello stato finale..

L’equazione ‘Boltzmann’ per l’entropia è S = kB ln W, dove W è il numero di modi diversi o microstati in cui l’energia delle molecole in un sistema può essere disposta su livelli di energia. Quindi, ΔS sarebbe uguale a kB ln WFinal / WInitial per i processi termici o di espansione o di miscelazione appena menzionati. Un valore ΔS molto importante in chimica è l’entropia di stato standard per una mole di qualsiasi sostanza a 298 K, S0, che può essere determinata dalla misura calorimetrica degli incrementi di calore/T aggiunti reversibilmente alla sostanza da 0 K a 298 K. Viene aggiunto anche qualsiasi stato di transizione o cambiamento di fase/T.

Ovviamente, quindi, una notevole energia è ‘immagazzinata’ in qualsiasi sostanza su molti livelli energetici diversi quando è nel suo stato standard. (A. Jungermann, J. Chem. Educ. 2006, 83, 1686-1694.) Inoltre, per esempio, se l’energia dall’ambiente di 398 K viene distribuita a una mole di azoto a 298 K, le molecole di azoto si dispongono diversamente sui livelli energetici precedenti e si diffondono ad alcuni livelli superiori. Se, mentre si trova a una qualsiasi temperatura fissa, l’azoto viene lasciato espandere nel vuoto o mescolarsi con un altro gas, i suoi livelli di energia nel nuovo volume più grande saranno più vicini tra loro. Anche in situazioni di volume fisso o di temperatura costante, le molecole che si scontrano costantemente in una mole di qualsiasi gas non sono chiaramente in una disposizione unica sui livelli di energia per più di un istante. Cambiano continuamente da una disposizione all’altra a causa di quelle collisioni – all’interno di un contenuto energetico totale invariato a una data temperatura e una distribuzione sui livelli di energia coerente con una distribuzione di Boltzmann. Così, poiché WInitial a 0 K è arbitrariamente convenuto essere 1, l’azoto S0 di 191,6 J/K mole = 1,380 x 10-23 J/K ln WFinal. Quindi, WFinal = 10 all’esponente di 6.027.000.000.000.000.000.000.000.000 microstati, un numero di disposizioni possibili per le molecole di azoto a 298,15 K che è umanamente incomprensibile – tranne che nei termini di manipolazione o confronto matematico di quel numero.

Si deve sottolineare che questi numeri giganteschi sono guide significative matematicamente e fisicamente e concettualmente – cioè, che un numero maggiore o minore di questo tipo indica effettivamente una differenza nei sistemi fisici reali di molecole e dovremmo percepire che la grandezza è significativa. Tuttavia, concettualmente, dovremmo anche renderci conto che in tempo reale, è impossibile per un sistema essere più di qualche quadrilione di stati diversi in pochi secondi, forse passare la maggior parte del tempo in qualche miliardo o milione, È impossibile anche in tempo quasi-infinito per un sistema di esplorare tutti i microstati possibili o che anche una minima frazione dei microstati possibili potrebbe essere esplorata in un secolo. (È ancora meno probabile che un numero gigantesco venga visitato perché i microstati più probabilmente e frequentemente occupati costituiscono un picco estremamente stretto in uno “spettro di probabilità”. In un istante, tutte le molecole sono solo in una disposizione energetica – una foto istantanea ‘freeze-frame’ delle energie molecolari sui livelli di energia (che è un’astrazione derivata da una foto altrettanto impossibile delle molecole reali con le loro velocità e posizioni nello spazio in un istante). Poi, nell’istante successivo, una collisione anche solo tra due molecole cambierà la disposizione in un microstato diverso. Nell’istante successivo in un altro. Poi in un altro ancora. (Leff ha chiamato questa sequenza di cambiamenti istantanei “una danza temporale” del sistema su alcuni dei suoi possibili microstati accessibili). Anche se il numero calcolato di microstati possibili è così grande che non c’è alcuna possibilità che più di una piccola frazione di quel numero possa mai essere esplorata o “danzata” in un tempo finito, quel numero calcolato influenza quante possibilità ci sono per la disposizione energetica del sistema di essere nell’istante successivo. Maggiore è il numero di microstati, più possibilità ha un sistema che la sua energia si trovi successivamente in un microstato diverso. In questo senso, maggiore è il numero di microstati possibili per un sistema, meno probabile è che possa tornare a un microstato precedentemente visitato e quindi, più dispersa è la sua energia nel tempo. (In nessun modo questa valutazione e conclusione è una nuova/radicale introduzione del tempo nelle considerazioni termodinamiche! È semplicemente che nelle normali misure termiche che durano secondi, minuti o ore, il comportamento dettagliato delle molecole nel mantenere un macrostato non è di alcun interesse). Per esempio, riscaldare una mole di azoto di un solo grado, diciamo dallo stato standard di 298,15 K a 299,15 K, vista la sua capacità termica di 29 J/K, provoca un aumento di entropia di 0,097 J/K, aumentando i microstati da 6.027 x 1024 a 6.034 x 1024. Così, anche un leggero cambiamento macro in un sistema è significato da un uguale cambiamento nel numero di microstati – nel numero di possibilità per il sistema di essere in un microstato diverso nell’istante successivo che nel momento precedente. Quanto maggiore è il numero di microstati possibili per un sistema in un dato stato, tanto più probabile è la dispersione dell’energia di quel sistema nel senso del suo essere in un microstato diverso nell’istante successivo.

Una maggiore dispersione di energia in un sistema significa, in termini di microstati, una “danza temporale” su un numero maggiore di microstati possibili che se ci fosse un numero minore di microstati.

L’esempio più frequentemente usato per mostrare l’aumento dell’entropia come maggiore “disordine” nei testi di chimica elementare per molti anni è stato quello della fusione del ghiaccio in acqua. Ghiaccio cristallino ordinato scintillante ad acqua liquida mobile e disordinata – questa è davvero un’impressione visiva e cristallografica impressionante, ma l’aspetto non è il criterio del cambiamento di entropia. L’aumento dell’entropia dipende dalla dispersione dell’energia – nello spazio tridimensionale (una generalità facilmente comprensibile per tutti gli studenti principianti). Poi, gli studenti più capaci possono essere portati a vedere come l’aumento dell’entropia dovuto al trasferimento di calore coinvolga energie molecolari che occupano livelli energetici sempre più alti, mentre l’aumento dell’entropia nell’espansione dei gas e in tutti i mescolamenti è caratterizzato dall’occupazione di livelli energetici più densi all’interno dell’intervallo di energia originale del sistema. Infine, agli studenti avanzati può essere dimostrato che qualsiasi aumento di entropia in un sistema o universo finale che ha un numero maggiore di microstati rispetto al sistema/universo iniziale come la correlazione finale dell’aumento di entropia con la teoria, quantitativamente derivabile dalla termodinamica molecolare.

Il ghiaccio cristallino a 273 K ha un S0 di 41,34 J/K mol, e quindi, tramite S = kB ln W, ci sono 10 a un esponente di 1.299.000.000.000.000.000.000.000.000.000 microstati accessibili possibili per il ghiaccio. Poiché la S0 per l’acqua liquida a 273 K = 63,34 J/K mole, ci sono da 10 a un esponente ancora più grande di 1.991.000.000.000.000.000.000.000.000 microstati accessibili per l’acqua. Questo dimostra chiaramente che l’acqua è “disordinata” rispetto al ghiaccio cristallino? Ovviamente no. Il fatto che il ghiaccio abbia meno microstati accessibili dell’acqua alla stessa temperatura significa principalmente – per quanto riguarda le considerazioni sull’entropia – che qualsiasi percorso per cambiare il ghiaccio in acqua comporterà un aumento dell’entropia nel sistema e quindi è favorito termodinamicamente.

L’uso che Gibbs fa della frase “disordine” è totalmente irrilevante per “ordine-disordine” in termodinamica o in qualsiasi altra discussione. Proviene da un frammento postumo di scrittura, slegato da qualsiasi argomentazione dettagliata o supporto logico per le molte procedure e concetti fondamentali sviluppati da Gibbs

Infine, l’idea che ci sia qualsiasi ‘ordine’ o semplicità nella distribuzione dell’energia in uno stato iniziale di qualsiasi sostanza reale in condizioni reali è distrutta dal calcolo di Pitzer dei numeri per i microstati nel suo “Thermodynamics” (Terza edizione, 1995, p. 67). Per quanto vicino a 0 K e quindi, per quanto “pratico” possa essere raggiunto in laboratorio, Pitzer mostra che ci devono essere 1026.000.000.000.000.000.000 di possibili microstati accessibili per qualsiasi sostanza.

Contribuenti e attribuzioni

  • Frank L. Lambert, professore emerito, Occidental College