Boltzmann fue brillante, sin duda un genio, muy adelantado a su tiempo en la teoría. Por supuesto que no era infalible. Lo más importante es que los modernos nos demos cuenta de que todavía estaba muy limitado por la ciencia de su época; el químico físico dominante y más tarde Nobel, Ostwald, llamó a su finca «Energie», pero no creía en la realidad física de las moléculas ni en el tratamiento que Boltzmann hacía de ellas.
Algunos detalles interesantes pero menores que no son demasiado conocidos: A pesar de que Boltzmann murió en 1906, no hay evidencia de que alguna vez haya visto, y por lo tanto ciertamente nunca calculó los valores de entropía a través de la ecuación que Planck publicó en un artículo de 1900, S= R/N ln W. Fue impresa por primera vez en 1906 en un libro de Planck como \( S=k_{B}lnW \), y posteriormente grabada en la lápida de Boltzmann. La nobleza de Planck al permitir que R/N se llamara «constante de Boltzmann», kB, no era propia de la mayoría de los científicos de la época, ni tampoco de los de ahora.
La pregunta importante es «¿cuáles son las bases de la introducción de Boltzmann del orden al desorden como clave para entender el cambio de entropía espontáneo?» Esa idea de 1898 proviene de dos o tres páginas de una descripción conceptual, un resumen en lenguaje común, que siguen a más de 400 páginas de teoría detallada en la traducción de Brush de las «Lecturas sobre la teoría de los gases» de Boltzmann de 1896-1898 (University of California Press, 1964). El párrafo clave debe citarse en su totalidad. (Las frases y oraciones precedentes y siguientes, decepcionantemente, sólo lo amplían o apoyan sin detalles técnicos significativos adicionales o indicaciones de los procesos de pensamiento de Boltzmann. He insertado entre paréntesis una cláusula explicativa del párrafo anterior, y he puesto en cursiva las suposiciones sorprendentemente ingenuas de Boltzmann sobre todos o la mayoría de los estados iniciales como «ordenados».)
«Para explicar el hecho de que los cálculos basados en esta suposición se correspondan con procesos realmente observables, hay que suponer que un sistema mecánico enormemente complicado representa una buena imagen del mundo, y que todas o al menos la mayoría de las partes del mismo que nos rodean están inicialmente en un estado muy ordenado -y por tanto muy improbable-. Cuando este es el caso, entonces cada vez que dos o más partes pequeñas del mismo entran en interacción entre sí, el sistema formado por estas partes está también inicialmente en un estado ordenado y cuando se le deja a sí mismo procede rápidamente al estado desordenado más probable.» (Párrafo final de #87, p. 443.)
Así, hoy sabemos que ningún sistema por encima de 0 K tiene ningún «orden» en las descripciones termodinámicas correctas de sistemas de moléculas energéticas. La comparación común de los libros de texto más antiguos entre el hielo cristalino ordenado y el agua líquida desordenada es totalmente engañosa, es un «error de Boltzmann» visual y no una evaluación termodinámica correcta. Si el agua líquida a 273 K, con sus 101.991.000.000.000.000.000.000 de microestados accesibles (disposiciones moleculares cuantizadas) se considera «desordenada», ¿cómo puede considerarse «ordenado» el hielo a 273 K que tiene 101.299.000.000.000.000.000 de microestados accesibles? Obviamente, el uso de tales palabras comunes es inapropiado en la medición de los microestados energéticos y, por lo tanto, en la discusión conceptual del cambio de entropía.
Ese ligero e inocente párrafo de un hombre sincero -pero antes de la comprensión moderna de qrev/T a través del conocimiento del comportamiento molecular (Boltzmann creía que las moléculas tal vez sólo podían ocupar un volumen infinitesimal de espacio), o de la mecánica cuántica, o de la Tercera Ley- ese párrafo y sus palabras cercanas similares son el fundamento de toda la dependencia de «la entropía es una medida del desorden». Debido a ello, incontables miles de científicos y no científicos han pasado interminables horas en pensamientos y argumentos relacionados con el «desorden» y la entropía en el siglo pasado. Aparentemente, al no haber leído nunca su base asombrosamente simplista, creyeron que en algún lugar había alguna base profunda. En algún lugar. No la hay. Boltzmann fue la fuente y nadie se molestó en desafiarlo. ¿Por qué habrían de hacerlo?
El concepto de Boltzmann sobre el cambio de entropía fue aceptado durante un siglo principalmente porque los físicos y termodinamistas expertos se centraron en las fascinantes relaciones y en las poderosas conclusiones teóricas y prácticas que surgían de la relación de la entropía con el comportamiento de la materia. No se preocuparon por las respuestas conceptuales, no matemáticas, a la pregunta «¿Qué es realmente la entropía?» que ocasionalmente se atrevían a plantear sus alumnos. Su respuesta, porque era lo que les habían enseñado, era «Aprende a calcular los cambios de entropía. Entonces entenderás lo que la entropía ‘realmente es'».
No hay ninguna base en la ciencia física para interpretar el cambio de entropía como algo que implica orden y desorden. La definición original de entropía (cambio) implica una transferencia de calor desde un depósito térmico a un sistema a través de un proceso de flujo de energía prácticamente reversible. Aunque Clausius la describió y su ecuación de dqrev/T o qrev/T como una «Verwandlung» o «transformación», la limitó y la «disgregación» a las discusiones de fusión o vaporización en las que los «valores de disgregación» cambiaban. Así pues, Clausius observaba el cambio de fase, pero no hizo ninguna afirmación sobre la transformación de «sustancias cristalinas ordenadas» en líquidos «desordenados», una afirmación obvia para él a partir de su observación. Desgraciadamente, Clausius no vio que su dq, una cantidad de energía «calorífica», inicialmente relativamente localizada en un depósito térmico, se transformaba en un proceso que permitía que el calor se dispersara más en el espacio. Eso es lo que ocurre cuando una barra de metal caliente se pone en contacto con otra similar apenas más fría, o cuando cualquier sistema es calentado por su entorno ligeramente más caliente. El estado final del «universo» en estos dos ejemplos está en equilibrio y a una temperatura uniforme. La energía interna de los átomos o moléculas del depósito se ha vuelto menos localizada, más dispersa en el mayor espacio tridimensional final que en el estado inicial. (Más profundamente, por supuesto, que la energía se ha convertido en más dispersa en el espacio de fase, y se extendió sobre más niveles de energía en el objeto una vez más frío que fue su dispersión disminuyó en el entorno una vez más caliente.)
Eso es también lo que sucede cuando los gases ideales A y B con su contenido de energía interna individualmente diferente (valores S0), pero comparablemente energéticos, moléculas en constante movimiento en las cámaras adyacentes se les permite el acceso a las cámaras del otro a 298 K. Sin cambio de temperatura, se mezclarán espontáneamente porque, en el nivel más bajo de interpretación, la energía de traslación de las moléculas A y B puede repartirse más en el volumen mayor. En un nivel más sofisticado, su energía está más distribuida en el espacio de fase. Desde el punto de vista de la mecánica cuántica de la ocupación de los niveles de energía por parte de las moléculas individuales, cada tipo de molécula tiene niveles de energía adicionales en el volumen mayor, porque los niveles de energía se acercan. Pero se puede utilizar la misma descripción causal de la energía que se dispersa espontáneamente como en la visión ingenua de ver moléculas móviles que siempre se mueven para ocupar un nuevo volumen tridimensional disponible: la energía de las moléculas está más dispersa, más repartida, ahora en términos de dispersión sobre más niveles de energía.
(Por supuesto, esta dispersión de energía se puede describir mejor en términos de microestados accesibles adicionales. Cuanto mayor sea el número de posibles arreglos de las energías moleculares sobre los niveles de energía, mayor será el aumento de la entropía – porque el sistema en cualquier arreglo en un instante tiene más probabilidad de estar en un arreglo diferente en el siguiente instante. La energía total del sistema no cambia con el tiempo, pero hay una «danza temporal» continua del sistema sobre una fracción diminuta del número hiper-astronómico de arreglos accesibles.)
El aumento de entropía en A o B puede demostrarse fácilmente que es igual a R ln VFinal/VInicial , o más fundamentalmente, -nR(xi ln xi). Este resultado no es específico de los gases, por supuesto. Lo que se muestra como significativo por la ecuación básica es que cualquier separación de moléculas de un tipo de su propia clase es un aumento de entropía debido a la dispersión de su energía interna intrínseca en un espacio mayor, tanto tridimensional como de fase. Además, esta mayor dispersión de la energía es interpretable en términos de un mayor número de disposiciones accesibles de la energía del sistema en cualquier instante y, por tanto, un mayor número de posibilidades de cambio en el siguiente instante – un mayor «baile temporal» del sistema sobre mayores posibilidades y un consiguiente aumento de entropía.
El sentido de Boltzmann de «mayor aleatoriedad» como criterio del estado de equilibrio final para un sistema en comparación con las condiciones iniciales no estaba equivocado. Lo que le falló a él (y a las generaciones siguientes) fue su conclusión sorprendentemente simplista: si el estado final es aleatorio, el sistema inicial debe haber sido lo contrario, es decir, ordenado. El «desorden» era la consecuencia, para Boltzmann, de un «orden» inicial y no -como es obvio hoy en día- de lo que sólo puede llamarse un «gran número de microestados accesibles previos, menores pero aún inimaginables para el ser humano»
Claramente, una gran ventaja de introducir a los estudiantes de química en el aumento de la entropía como debido a la energía molecular que se extiende en el espacio, si no está restringida, comienza con los paralelos listos para el comportamiento espontáneo de los tipos de energía que son bien conocidos por los principiantes: la luz de una bombilla, el sonido de un equipo de música, las ondas de una roca lanzada a una piscina, el aire de un neumático pinchado. Sin embargo, su profundo «valor añadido» es su continua pertinencia en el siguiente nivel en la interpretación teórica de la dispersión de la energía en eventos térmicos o no térmicos, es decir, cuando la cuantización de las energías moleculares en los niveles de energía, sus distribuciones y los microestados accesibles se convierten en el foco de atención.
Cuando un sistema se calienta, y sus moléculas se mueven más rápidamente, sus distribuciones probables en los niveles de energía cambian de manera que los niveles superiores anteriores están más ocupados y los niveles altos adicionales se vuelven accesibles. Por lo tanto, la energía molecular del sistema calentado se ha repartido más ampliamente en los niveles de energía. La dispersión de la energía en los niveles de energía es comparable en los procesos adiabáticos que algunos autores caracterizan como entropía «posicional» o «configuracional». Cuando se pone a disposición de los componentes ideales de un sistema un volumen mayor -por la expansión de un gas, por la mezcla de fluidos (o incluso por la disolución de un soluto)- los niveles de energía del estado final de cada constituyente están más juntos, más densos que en el estado inicial. Esto significa que se ocupan más niveles de energía en el estado final a pesar de no haber cambiado la energía total de ningún constituyente. Así, la energía inicial del sistema se ha vuelto más repartida, más dispersa en más niveles de energía en el estado final..
La ecuación de ‘Boltzmann’ para la entropía es S = kB ln W, donde W es el número de formas diferentes o microestados en los que la energía de las moléculas de un sistema puede disponerse en niveles de energía. Entonces, ΔS sería igual a kB ln WFinal / WInicial para los procesos térmicos o de expansión o mezcla que acabamos de mencionar. Un valor más importante de ΔS en química es la entropía de estado estándar para un mol de cualquier sustancia a 298 K, S0, que puede determinarse mediante la medición calorimétrica de los incrementos de calor/T añadidos de forma reversible a la sustancia desde 0 K hasta 298 K. También se añade cualquier estado de transición o cambio de fase/T.
Es evidente, por tanto, que se «almacena» una energía considerable en cualquier sustancia en muchos niveles de energía diferentes cuando está en su estado estándar. (A. Jungermann, J. Chem. Educ. 2006, 83, 1686-1694.) Además, por ejemplo, si la energía del entorno de 398 K se extiende a un mol de nitrógeno a 298 K, las moléculas del nitrógeno se disponen de forma diferente en los niveles de energía anteriores y se extienden a algunos niveles superiores. Si, estando a una temperatura fija, se permite que el nitrógeno se expanda en el vacío o se mezcle con otro gas, sus niveles de energía en el nuevo volumen más grande estarán más juntos. Incluso en situaciones de volumen fijo o de temperatura constante, las moléculas que chocan constantemente en un mol de cualquier gas no están claramente en una única disposición en los niveles de energía durante más de un instante. Están cambiando continuamente de una disposición a otra debido a esas colisiones – dentro del contenido de energía total sin cambios a una temperatura dada y una distribución en los niveles de energía consistente con una distribución de Boltzmann. Así, como WInicial a 0 K se acuerda arbitrariamente que es 1, el S0 del nitrógeno de 191,6 J/K mol = 1,380 x 10-23 J/K ln WFinal. Entonces, WFinal = 10 al exponente de 6,027,000,000,000,000,000,000,000 microestados, un número de arreglos posibles para las moléculas de nitrógeno a 298.15 K que es humanamente más allá de la comprensión – excepto en los términos de manipular o comparar ese número matemáticamente.
Debe enfatizarse que estos números gigantescos son guías significativas matemáticamente y físicamente y conceptualmente – es decir, que un mayor o menor tal número de hecho indica una diferencia en sistemas físicos reales de moléculas y debemos sentir que la magnitud es significativa. Sin embargo, conceptualmente, también deberíamos darnos cuenta de que, en tiempo real, es imposible que un sistema tenga más de unos cuantos cuatrillones de estados diferentes en unos pocos segundos, tal vez pasando la mayor parte del tiempo en unos cuantos billones o millones, Es imposible incluso en un tiempo casi infinito que un sistema explore todos los microestados posibles o que incluso una pequeña fracción de los microestados posibles pueda ser explorada en un siglo. (Es aún menos probable que se visite un número gigantesco porque los microestados más probables y frecuentemente ocupados constituyen un pico extremadamente estrecho en un «espectro de probabilidad».)
Sin embargo, los conceptos son claros. En un instante, todas las moléculas se encuentran en una sola disposición energética – una foto instantánea «congelada» de las energías moleculares en los niveles de energía (que es una abstracción derivada de una foto igualmente imposible de las moléculas reales con sus velocidades y ubicaciones en el espacio en un instante). Entonces, en el siguiente instante, una colisión entre incluso dos moléculas cambiará la disposición a un microestado diferente. En el siguiente instante a otro. Y luego a otro. (Leff ha llamado a esta secuencia de cambios instantáneos «una danza temporal» del sistema sobre algunos de sus posibles microestados accesibles). Aunque el número calculado de posibles microestados es tan grande que no hay posibilidad de que se explore o «baile» más que una pequeña fracción de ese número a lo largo de un tiempo finito, ese número calculado influye en el número de posibilidades que tiene la disposición energética del sistema en el siguiente instante. Cuanto mayor es el número de microestados, más posibilidades tiene un sistema de que su energía se encuentre después en un microestado diferente. En este sentido, cuanto mayor es el número de microestados posibles para un sistema, menos probable es que pueda volver a un microestado previamente visitado y, por tanto, más dispersa está su energía en el tiempo. (¡Esta evaluación y conclusión no es en absoluto una introducción novedosa/radical del tiempo en las consideraciones termodinámicas! Se trata simplemente de que en las mediciones térmicas normales que duran segundos, minutos u horas, el comportamiento detallado de las moléculas en el mantenimiento de un macroestado carece de interés). Por ejemplo, calentar un mol de nitrógeno sólo un grado, digamos del estado estándar de 298,15 K a 299,15 K, teniendo en cuenta su capacidad calorífica de 29 J/K, resulta en un aumento de entropía de 0,097 J/K, aumentando los microestados de 6,027 x 1024 a 6,034 x 1024. Por lo tanto, incluso un ligero cambio macro en un sistema se traduce en un cambio igual en el número de microestados – en el número de oportunidades para que el sistema se encuentre en un microestado diferente en el siguiente instante que en el momento anterior.. Cuanto mayor es el número de microestados posibles para un sistema en un estado dado, más probable es la dispersión de la energía de ese sistema en el sentido de que se encuentre en un microestado diferente en el instante siguiente.
Una mayor dispersión de la energía en un sistema significa, en términos de sus microestados, una «danza temporal» sobre un mayor número de microestados posibles que si hubiera un número menor de microestados.
El ejemplo más utilizado para mostrar el aumento de entropía como un mayor «desorden» en los textos de química elemental durante muchos años fue el del hielo que se funde en agua. De un hielo cristalino y ordenado a un agua líquida móvil y desordenada, es sin duda una impresión visual y cristalográfica sorprendente, pero la apariencia no es el criterio del cambio de entropía. El aumento de entropía depende de la dispersión de la energía – en el espacio tridimensional (una generalidad fácilmente comprensible para todos los estudiantes principiantes.) Luego, se puede llevar a los estudiantes más capaces a ver cómo el aumento de entropía debido a la transferencia de calor implica que las energías moleculares ocupan más y mayores niveles de energía, mientras que el aumento de entropía en la expansión de los gases y en todas las mezclas se caracteriza por la ocupación de niveles de energía más densos dentro del intervalo de energía original del sistema. Por último, se puede demostrar a los estudiantes avanzados que cualquier aumento de entropía en un sistema o universo final que tenga un mayor número de microestados que el sistema/universo inicial como la correlación última del aumento de entropía con la teoría, derivable cuantitativamente de la termodinámica molecular.
El hielo cristalino a 273 K tiene un S0 de 41.34 J/K mol, y así, vía S = kB ln W, hay 10 a un exponente de 1,299,000,000,000,000,000,000 posibles microestados accesibles para el hielo. Como el S0 para el agua líquida a 273 K = 63,34 J/K mol, hay 10 hasta un exponente aún mayor de 1.991.000.000.000.000.000.000 de microestados accesibles para el agua. ¿Demuestra esto claramente que el agua es «desordenada» en comparación con el hielo cristalino? Por supuesto que no. Que el hielo tenga menos microestados accesibles que el agua a la misma temperatura significa principalmente -en lo que respecta a las consideraciones de entropía- que cualquier camino para cambiar el hielo por el agua dará lugar a un aumento de la entropía en el sistema y, por lo tanto, se ve favorecido termodinámicamente.
El uso que hace Gibbs de la frase «desorden» es totalmente irrelevante para el ‘orden-desorden’ en la termodinámica o en cualquier otra discusión. Procede de un fragmento póstumo de un escrito, ajeno a cualquier argumento detallado o soporte lógico de los muchos procedimientos y conceptos fundamentales desarrollados por Gibbs
Por último, la idea de que existe algún «orden» o simplicidad en la distribución de la energía en un estado inicial de cualquier sustancia real en condiciones reales queda destruida por el cálculo de números de Pitzer para los microestados en su «Termodinámica» (Tercera edición, 1995, p. 67). Tan cerca de 0 K y, por lo tanto, de un cero de entropía «práctico» como se puede lograr en un laboratorio, Pitzer muestra que debe haber 1026.000.000.000.000 de posibles microestados accesibles para cualquier sustancia.
Contribuidores y Atribuciones
- Frank L. Lambert, Profesor Emérito, Occidental College
Deja una respuesta