¿Qué es la fórmula de la entropía? Entropía en termodinámica

La ecuación (44.7) o (44.12) se puede interpretar de manera diferente. Cuando se operan máquinas reversibles, el calor a temperatura es “equivalente” al calor a temperatura; después de todo, si se absorbe, siempre se libera calor. Si ahora le damos un nombre especial, podemos decir que cuando procesos reversibles Se absorbe tanto como se libera. En otras palabras, no disminuye ni aumenta. Esta cantidad se llama entropía y decimos que "en un ciclo reversible, el cambio de entropía es cero". Si, entonces la entropía es igual a; Ya le hemos dado a la entropía un símbolo especial. La entropía se denota con la letra , y numéricamente es igual al calor (que denotamos con la letra) liberado en un depósito de un grado (la entropía no es solo calor, es calor dividido por la temperatura, y se mide en julios por grado).

Es interesante que, además de la presión, que depende de la temperatura y el volumen, y de la energía interna (en función del mismo volumen y temperatura), encontramos otra cantidad: la entropía de una sustancia, que también es función del estado. Intentaremos explicar cómo calcular la entropía y qué queremos decir con las palabras "función de estado". Supervisemos el comportamiento del sistema en diferentes condiciones. Ya sabemos crear diferentes condiciones experimentalmente, por ejemplo, se puede forzar al sistema a expandirse adiabática o isotérmicamente. (Por cierto, la máquina no tiene que tener sólo dos depósitos; podría haber tres o cuatro temperaturas diferentes, y la máquina intercambiará calor con cada uno de los depósitos). Podemos recorrer todo el diagrama, pasando de un estado a otro. a otro. En otras palabras, se puede transferir un gas de un estado a otro y exigir que la transición sea reversible. Ahora supongamos que se colocan pequeños depósitos con diferentes temperaturas a lo largo del camino desde a. Luego, cada breve paso irá acompañado de la eliminación de calor de la sustancia y su transferencia al depósito a una temperatura correspondiente a un punto determinado del camino. Conectemos todos estos depósitos utilizando motores térmicos reversibles a un depósito de temperatura unitaria. Una vez que terminemos de transferir una sustancia de un estado a otro, devolveremos todos los depósitos a su estado original. Una máquina reversible devolverá cada fracción de calor extraída de una sustancia a una temperatura, y cada vez a una unidad de temperatura, una entropía igual a

Calculemos la cantidad total de entropía asignada. La diferencia de entropía, o la entropía necesaria para pasar de a como resultado de algún cambio reversible, es la entropía total, es decir, la entropía extraída de pequeños depósitos y liberada a una unidad de temperatura:

La pregunta es: ¿la diferencia de entropía depende de la trayectoria en el avión? Hay muchos caminos que van de a. Recuerde que en el ciclo de Carnot podíamos movernos de un punto a otro (ver figura 44.6) de dos maneras. Era posible expandir el gas primero isotérmicamente y luego adiabáticamente, o se podía comenzar con una expansión adiabática y terminar con una expansión isotérmica. Por tanto, debemos averiguar si la entropía cambia cuando cambia el camino desde hasta (figura 44.10). No debería cambiar, porque si completamos un ciclo completo, yendo de un lado y regresando por otro, entonces este viaje equivaldrá a un ciclo completo de una máquina reversible. Con este ciclo, no se transfiere calor al tanque de un grado.

Higo. 44.10. Cambio de entropía durante una transición reversible.

Como no podemos extraer calor de una reserva de un grado, tenemos que conformarnos con la misma cantidad de entropía en cada viaje desde hasta. Esta cantidad es independiente del camino, sólo significativa puntos finales. Por tanto, podemos hablar de una determinada función, a la que llamamos entropía de la materia. Esta función depende únicamente del estado de la sustancia, es decir, únicamente del volumen y la temperatura.

Puedes encontrar la función. Calcularemos el cambio de entropía para cambios reversibles en la materia monitoreando el calor generado en un depósito de un grado. Pero este cambio también se puede expresar en términos de calor eliminado de la sustancia a la temperatura

El cambio total de entropía es igual a la diferencia de entropía en el final y puntos de partida caminos:

. (44.18)

Esta expresión no define completamente la entropía. Hasta ahora, sólo se conoce la diferencia de entropía entre los dos. diferentes estados. Es absolutamente posible determinar la entropía sólo después de que seamos capaces de calcular la entropía de un estado.

Durante mucho tiempo se creyó que la entropía absoluta era un concepto sin sentido. Pero al final Nernst hizo una afirmación a la que llamó teorema del calor (a veces llamado tercera ley de la termodinámica). Su significado es muy simple. Ahora expondremos este teorema sin explicar por qué es cierto. El postulado de Nernst simplemente afirma que la entropía de cualquier cuerpo en cero absoluto igual a cero. Ahora sabemos en qué y (en ) la entropía es cero, y podemos calcular la entropía en cualquier otro punto.

Para ilustrar esta idea, calculemos la entropía. gas ideal. Para la expansión isotérmica (y por lo tanto reversible) es simplemente igual a , porque

que es constante. Por tanto, según (44.4), el cambio de entropía es igual a

,

Entonces más la función de la temperatura sola. ¿De qué depende? Ya sabemos que durante la expansión adiabática no hay transferencia de calor. Así, la entropía permanece constante aunque el volumen cambie, obligándolo a cambiar (para mantener la igualdad). ¿Te queda claro después de esto que

,

¿Dónde hay una constante que no depende de ninguno de los dos? [La constante se llama constante química. Depende de las propiedades del gas y puede determinarse experimentalmente según el teorema de Nernst. Para ello, es necesario medir el calor liberado por el gas durante su enfriamiento y condensación hasta que se solidifica a 0° (el helio permanece líquido a esta temperatura). Entonces necesitas encontrar la integral. Se puede encontrar teóricamente; para esto necesitarás la constante de Planck y mecánica cuántica, pero no tocaremos esto en nuestro curso.]

Observemos algunas propiedades de la entropía. Primero, recuerde que en la sección del ciclo reversible entre puntos y la entropía cambia a (figura 44.11). Recordemos también que a medida que avanzamos por este camino, la entropía (el calor liberado a una temperatura unitaria) aumenta de acuerdo con la regla de dónde se extrae el calor de una sustancia a una temperatura determinada.

Higo. 44.11. Cambio de entropía durante un ciclo reversible completo.

El cambio total de entropía es cero.

Ya sabemos que después de un ciclo reversible, la entropía total de todo lo que se incluye en el proceso no cambia. Después de todo, el calor absorbido y el calor liberado en contribuyen a la entropía de igual magnitud pero de signo opuesto. Por tanto, el cambio neto de entropía es cero. Por tanto, en un ciclo reversible, la entropía de todos los participantes en el ciclo, incluidos los reservorios, no cambia. Esta regla parece similar a la ley de conservación de la energía, pero no lo es. Sólo se aplica a bucles reversibles. Si pasamos a ciclos irreversibles, entonces la ley de conservación de la entropía ya no existe.

Pongamos dos ejemplos. Para empezar, supongamos que alguna máquina con fricción produce un trabajo irreversible, liberando calor a una temperatura. La entropía aumentará en . El calor es igual al trabajo invertido, y cuando producimos algo de trabajo mediante la fricción contra algún objeto cuya temperatura es igual a , la entropía aumenta en una cantidad.

Otro ejemplo de irreversibilidad: si aplicas dos objetos con diferentes temperaturas entre sí, digamos y , entonces una cierta cantidad de calor fluirá de un objeto al otro. Supongamos, por ejemplo, que arrojamos una piedra caliente al agua fría. ¿Cuánto cambia la entropía de una piedra si transfiere calor al agua a una temperatura de ? Disminuye en . ¿Cómo cambia la entropía del agua? Aumentará en . Por supuesto, el calor sólo puede fluir desde más alta temperatura a uno inferior. Por tanto, si es mayor, entonces es positivo. Por tanto, el cambio de entropía es positivo e igual a la diferencia de dos fracciones:

. (44.19)

Entonces, el siguiente teorema es cierto: en cualquier proceso irreversible, la entropía de todo en el mundo aumenta. Sólo los procesos reversibles pueden mantener la entropía al mismo nivel. Y como no existen procesos absolutamente irreversibles, la entropía siempre aumenta poco a poco. Los procesos reversibles son procesos idealizados con un aumento mínimo de entropía.

Lamentablemente, no tendremos que profundizar más en el campo de la termodinámica. Nuestro objetivo es sólo ilustrar las ideas principales de esta ciencia y explicar las razones por las que es posible construir sobre estos argumentos. Pero en nuestro curso no recurriremos frecuentemente a la termodinámica. La termodinámica se utiliza ampliamente en ingeniería y química. Por lo tanto, prácticamente se familiarizará con la termodinámica en un curso de química o ciencias técnicas. Bueno, no tiene sentido duplicar, y nos limitaremos sólo a una cierta visión general de la naturaleza de la teoría y no entraremos en detalles sobre sus aplicaciones especiales.

Las dos leyes de la termodinámica suelen formularse de la siguiente manera:

Primera Ley: La energía del Universo es siempre constante.

Segunda Ley: La entropía del Universo siempre aumenta.

Ésta no es una muy buena formulación de la segunda ley. No dice nada, por ejemplo, que la entropía no cambia después de un ciclo reversible y no aclara el concepto mismo de entropía. Es solo que es una forma fácil de recordar de ambas leyes, pero no es fácil entender de qué están hablando realmente.

Hemos recopilado todas las leyes que se discutieron ahora en una tabla. 44.1. Y en el próximo capítulo usaremos este conjunto de leyes para encontrar la relación entre el calor generado por el caucho cuando se estira y la tensión adicional que ejerce el caucho cuando se calienta.

Tabla 44.1 Leyes de la termodinámica

Primera ley

Calor suministrado al sistema + Trabajo realizado sobre el sistema = Aumento de la energía interna del sistema:

2. Entropía estándar de sustancias. Cambio de entropía cuando cambia el estado de agregación de sustancias. Cálculo del cambio de entropía estándar en reacción química.
La entropía (S) es una función termodinámica de estado, que sirve como medida del desorden (desorden) de un sistema. La posibilidad de que se produzcan procesos endotérmicos se debe a un cambio de entropía, porque en sistemas aislados la entropía de un proceso que ocurre espontáneamente aumenta ΔS > 0 (segunda ley de la termodinámica). L. Boltzmann definió la entropía como la probabilidad termodinámica del estado (desorden) de un sistema W. La entropía está asociada con probabilidad termodinámica relación: S = R ln W
La dimensión de la entropía de 1 mol de una sustancia coincide con la dimensión de la constante de los gases R y es igual a J∙mol–1∙K–1. El cambio de entropía *) en procesos irreversibles y reversibles se transmite mediante las relaciones ΔS > Q / T y ΔS = Q / T. Por ejemplo, el cambio en la entropía de la fusión es igual al calor (entalpía) de la fusión ΔSmel = ΔHmel/Tmel. En una reacción química, el cambio de entropía es similar al cambio de entalpía.

*) el término entropía fue introducido por Clausius (1865) mediante la relación Q/T (calor reducido).

Aquí ΔS° corresponde a la entropía del estado estándar. Entropías estándar sustancias simples no son iguales a cero. A diferencia de otras funciones termodinámicas, la entropía es idealmente cuerpo cristalino en el cero absoluto es igual a cero (postulado de Planck), ya que W = 1.

La entropía de una sustancia o sistema de cuerpos a una determinada temperatura es un valor absoluto.

La entropía depende de:
-estado agregado de una sustancia. La entropía aumenta durante la transición de sólido a líquido y especialmente a estado gaseoso(agua, hielo, vapor).
-composición isotópica (H2O y D2O).
-peso molecular de compuestos similares (CH4, C2H6, n-C4H10).
- estructura molecular (n-C4H10, iso-C4H10).
-estructura cristalina (alotropía) – diamante, grafito.

El cambio de entropía durante este proceso ( líquido sólido) la transición de fase se puede encontrar simplemente si consideramos que el proceso está en equilibrio.

Esta es una aproximación completamente aceptable, si asumimos que la diferencia de temperatura entre el sistema y el objeto que suministra calor al sistema no es demasiado grande, mucho menor que el punto de fusión. Entonces podemos usar el significado termodinámico de entropía: desde el punto de vista de la termodinámica, la entropía es una función del estado del sistema, cuyo cambio dS en un proceso de equilibrio elemental es igual a la proporción de la porción de calor δQ que recibe el sistema en este proceso a la temperatura del sistema T:

Dado que la temperatura del sistema en un momento dado transición de fase no cambia y es igual al punto de fusión, entonces integrando es una cantidad que no cambia durante el proceso, por lo tanto no depende de la masa m de la sustancia. Entonces

De esta fórmula se deduce que durante la fusión la entropía aumenta y durante la cristalización disminuye. Significado físico Este resultado es bastante claro: la región de fase de una molécula en un sólido es mucho más pequeña que en un líquido, ya que en un sólido cada molécula sólo es accesible Área pequeña espacios entre nodos adyacentes red cristalina, y en un líquido las moléculas ocupan toda la región del espacio. Por lo tanto, a igual temperatura la entropía sólido Menor entropía del fluido. Esto significa que un sólido es un sistema más ordenado y menos caótico que un líquido.
La aplicación de la entropía en este proceso (líquido-gas) se puede encontrar simplemente considerando que el proceso está en equilibrio. Y nuevamente, esta es una aproximación completamente aceptable, siempre que la diferencia de temperatura entre el sistema y el "proveedor" de calor sea pequeña, es decir, mucho más bajo que el punto de ebullición. Entonces

De la fórmula se deduce que durante la evaporación la entropía aumenta y durante la condensación disminuye.
El significado físico de este resultado es la diferencia en la región de fase de la molécula en líquido y gas. Aunque en líquidos y gases cada molécula tiene acceso a toda la región del espacio ocupada por el sistema, esta región en sí es significativamente más pequeña para un líquido que para un gas. En un líquido, las fuerzas de atracción entre las moléculas las mantienen a cierta distancia entre sí. Por lo tanto, aunque cada molécula tiene la oportunidad de migrar libremente a través de la región del espacio ocupada por el líquido, no tiene la oportunidad de “separarse del colectivo” de otras moléculas: tan pronto como se separa de una molécula, otra se siente inmediatamente atraído. Por tanto, el volumen de líquido depende de su cantidad y no tiene ninguna relación con el volumen del recipiente.

Las moléculas de gas se comportan de manera diferente. tienen mucho mas libertad, la distancia promedio entre ellos es tal que las fuerzas de atracción son muy pequeñas y las moléculas "se notan" sólo durante las colisiones. Como resultado, el gas ocupa siempre todo el volumen del recipiente.

Por lo tanto, cuando temperaturas iguales la región de fase de las moléculas de gas es significativamente mayor que la región de fase de las moléculas de líquido y la entropía del gas es mayor que la entropía del líquido. El gas, en comparación con el líquido, es un sistema mucho menos ordenado y más caótico.

El cambio en la entropía molar estándar en una reacción química está determinado por la ecuación:

Cabe señalar que el cambio de entropía en el ejemplo considerado resulta negativo. Esto podría esperarse, dado que, según la ecuación de la reacción en cuestión, la cantidad total de reactivos gaseosos es de 1,5 mol y la cantidad total de productos gaseosos es de sólo 1 mol. Por lo tanto, como resultado de la reacción hay una disminución. numero total gases Al mismo tiempo, sabemos que las reacciones de combustión son reacciones exotérmicas. En consecuencia, el resultado de su aparición es la disipación de energía, lo que nos lleva a esperar un aumento de la entropía, y no su disminución. Además, debe tenerse en cuenta que la combustión del gas hidrógeno a 25°C, provocada por la iniciación inicial, se desarrolla entonces de forma espontánea y con gran intensidad. Pero, ¿no debería ser positivo en este caso el cambio de entropía en esta reacción, como exige la segunda ley de la termodinámica? Resulta que no, o al menos no necesariamente. La segunda ley de la termodinámica requiere que, como resultado de un proceso espontáneo, la entropía total del sistema y su entorno aumente. El cambio de entropía calculado anteriormente caracteriza sólo lo considerado. sistema químico, compuesto por reactivos y productos que participan en la combustión del gas hidrógeno a 25°C.

Detalles Categoría: Termodinámica Publicado 03/01/2015 15:41 Vistas: 6634

Los parámetros macroscópicos de un sistema termodinámico incluyen presión, volumen y temperatura. Sin embargo, hay otra importante cantidad física, que se utiliza para describir estados y procesos en sistemas termodinámicos. Se llama entropía.

¿Qué es la entropía?

Este concepto fue introducido por primera vez en 1865 por el físico alemán Rudolf Clausius. Llamó entropía a la función del estado de un sistema termodinámico, que determina la medida de la disipación irreversible de energía.

¿Qué es la entropía?

Antes de responder a esta pregunta, familiaricémonos con el concepto de "calor reducido". Cualquier proceso termodinámico que tiene lugar en un sistema consta de un cierto número de transiciones del sistema de un estado a otro. Calor reducido se llama relación entre la cantidad de calor en proceso isotérmico a la temperatura a la que se produce esta transferencia de calor.

Q" = Q/T .

Para cualquier proceso termodinámico abierto, existe una función del sistema cuyo cambio durante la transición de un estado a otro es igual a la suma de los calores reducidos. Clausius le dio a esta función el nombre " entropía " y lo designó con la letra S , y la relación entre la cantidad total de calor ∆Q al tamaño temperatura absolutat llamado cambio de entropía .

Prestemos atención al hecho de que la fórmula de Clausius no determina el valor de la entropía en sí, sino sólo su cambio.

¿Qué es la "disipación irreversible de energía" en termodinámica?

Una de las formulaciones de la segunda ley de la termodinámica es la siguiente: " Es imposible un proceso cuyo único resultado es la conversión en trabajo de toda la cantidad de calor recibida por el sistema.". Es decir, parte del calor se convierte en trabajo y parte se disipa. Este proceso es irreversible. Posteriormente, la energía disipada ya no puede realizar trabajo. Por ejemplo, en un motor térmico real, no todo el calor se transferido al cuerpo de trabajo, parte del mismo se disipa al ambiente externo, calentándolo.

En una máquina térmica ideal que funciona según el ciclo de Carnot, la suma de todos los calores reducidos es cero. Esta afirmación también es válida para cualquier ciclo cuasiestático (reversible). Y no importa en cuántas transiciones de un estado a otro conste ese proceso.

Si dividimos un proceso termodinámico arbitrario en secciones de tamaño infinitesimal, entonces el calor reducido en cada una de esas secciones será igual a δQ/T . diferencial completo entropía dS = δQ/T .

La entropía es una medida de la capacidad del calor para disiparse irreversiblemente. Su cambio muestra cuánta energía se disipa aleatoriamente al medio ambiente en forma de calor.

en un cerrado sistema aislado, sin intercambiar calor con ambiente, durante procesos reversibles la entropía no cambia. Esto significa que el diferencial dS = 0 . En verdad y procesos irreversibles La transferencia de calor se produce desde cuerpo tibio al frío. En tales procesos, la entropía siempre aumenta ( dS ˃ 0 ). En consecuencia, indica la dirección del proceso termodinámico.

La fórmula de Clausius, escrita como dS = δQ/T , es válido sólo para procesos cuasiestáticos. Estos son procesos idealizados que son una serie de estados de equilibrio que se suceden continuamente. Fueron introducidos en la termodinámica para simplificar el estudio de los procesos termodinámicos reales. Se cree que en cualquier momento un sistema cuasiestático se encuentra en un estado de equilibrio termodinámico. Este proceso también se llama cuasiequilibrio.

Por supuesto, tales procesos no existen en la naturaleza. Después de todo, cualquier cambio en el sistema lo rompe. estado de equilibrio. En él comienzan a producirse diversos procesos de transición y procesos de relajación, esforzándose por devolver el sistema a un estado de equilibrio. Pero los procesos termodinámicos que avanzan con bastante lentitud bien pueden considerarse cuasiestáticos.

En la práctica, existen muchos problemas termodinámicos, cuya solución requiere la creación de equipos complejos, la creación de una presión de varios cientos de miles de atmósferas y el mantenimiento de temperaturas muy altas durante un tiempo prolongado. Y los procesos cuasiestáticos permiten calcular la entropía de tales procesos reales, predecir cómo puede desarrollarse tal o cual proceso, lo cual es muy difícil de implementar en la práctica.

Ley de entropía no decreciente

La segunda ley de la termodinámica, basada en el concepto de entropía, se formula de la siguiente manera: “ En un sistema aislado la entropía no disminuye " Esta ley también se llama ley de la entropía no decreciente.

Si en algún momento la entropía de un sistema cerrado difiere del máximo, en el futuro solo podrá aumentar hasta alcanzar valor máximo. El sistema alcanzará un estado de equilibrio.

Clausius estaba seguro de que el Universo es sistema cerrado. Y si es así, entonces su entropía tiende a alcanzar su valor máximo. Esto significa que algún día todos los procesos macroscópicos se detendrán y " muerte por calor" Pero el astrónomo estadounidense Edwin Powell Hubble demostró que el Universo no puede considerarse un sistema termodinámico aislado, ya que está en expansión. físico soviético El académico Landau creía que la ley de la entropía no decreciente no se puede aplicar al Universo, ya que se encuentra en un campo gravitacional variable. Ciencia moderna Aún no es capaz de responder a la pregunta de si nuestro Universo es un sistema cerrado o no.

principio de Boltzmann

Ludwig Boltzmann

Cualquier sistema termodinámico cerrado tiende a un estado de equilibrio. Todos los procesos espontáneos que ocurren en él van acompañados de un aumento de la entropía.

En 1877, el físico teórico austriaco Ludwig Boltzmann relacionó la entropía de un estado termodinámico con el número de microestados de un sistema. Se cree que la fórmula misma para calcular el valor de la entropía fue derivada posteriormente por el físico teórico alemán Max Planck.

S = k · enW. ,

Dónde k = 1,38·10 −23 J/K - constante de Boltzmann; W. - el número de microestados del sistema que realizan un estado macrostático determinado, o el número de formas en que se puede realizar este estado.

Vemos que la entropía depende sólo del estado del sistema y no depende de cómo el sistema pasó a este estado.

Los físicos consideran que la entropía es una cantidad que caracteriza el grado de desorden de un sistema termodinámico. Cualquier sistema termodinámico siempre se esfuerza por equilibrar sus parámetros con su entorno. Llega a este estado de forma espontánea. Y cuando se alcanza el estado de equilibrio, el sistema ya no puede funcionar. Se puede considerar que está en desorden.

La entropía caracteriza la dirección del proceso termodinámico de intercambio de calor entre el sistema y el entorno externo. En un sistema termodinámico cerrado, determina en qué dirección proceden los procesos espontáneos.

Todos los procesos que ocurren en la naturaleza son irreversibles. Por tanto, fluyen en la dirección de una entropía creciente.

La segunda ley de la termodinámica tiene varias formulaciones. Formulación de Clausius: el proceso de transferir calor de un cuerpo con una temperatura más baja a un cuerpo con una temperatura más alta es imposible.

Formulación de Thomson: es imposible un proceso cuyo resultado sería la realización de un trabajo debido al calor extraído de un cuerpo en particular. Esta formulación impone una restricción a la transformación energía interna a mecánico. No puedo construir un auto ( máquina de movimiento perpetuo del segundo tipo), que funcionarían únicamente recibiendo calor del ambiente.

Formulación de Boltzmann: entropía- Este es un indicador del desorden del sistema. Cuanto mayor es la entropía, más caótico es el movimiento de las partículas materiales que componen el sistema. Veamos cómo funciona usando el agua como ejemplo. En estado líquido, el agua es una estructura bastante desordenada, ya que las moléculas se mueven libremente entre sí y su orientación espacial puede ser arbitraria. El hielo es otra cuestión: en él las moléculas de agua están ordenadas y forman parte de la red cristalina. La formulación de la segunda ley de la termodinámica de Boltzmann, en términos relativos, establece que el hielo, una vez derretido y convertido en agua (un proceso acompañado de una disminución en el grado de orden y un aumento de la entropía), nunca renacerá del agua. no puede disminuir en sistemas cerrados, es decir, en sistemas que no reciben suministro de energía externo.

Tercera ley de la termodinámica (teorema de nernst) es un principio físico que determina el comportamiento de la entropía cuando la temperatura se acerca al cero absoluto. Es uno de los postulados de la termodinámica, aceptado sobre la base de una generalización de una cantidad significativa de datos experimentales.

La tercera ley de la termodinámica se puede formular de la siguiente manera:

“El aumento de entropía a la temperatura del cero absoluto tiende a límite finito, independiente del estado de equilibrio en el que se encuentre el sistema".

¿Dónde está cualquier parámetro termodinámico?

La tercera ley de la termodinámica se aplica sólo a los estados de equilibrio.

Dado que, según la segunda ley de la termodinámica, la entropía solo se puede determinar hasta una constante aditiva arbitraria (es decir, no se determina la entropía en sí, sino solo su cambio):

La tercera ley de la termodinámica se puede utilizar para determinar con precisión la entropía. En este caso, la entropía del sistema en equilibrio a temperatura del cero absoluto se considera igual a cero.

Entropía de gases ideales

Para obtener una expresión calculada para el cambio de entropía de los gases ideales, utilizamos la primera ley de la termodinámica, en la que el calor se determina mediante el cambio de entalpía.

La diferencia entre las entropías de un gas ideal en dos estados específicos se puede obtener integrando la expresión (4.59)

Para determinar el valor absoluto de la entropía de un gas ideal, es necesario fijar el inicio de su conteo mediante cualquier par de parámetros térmicos del estado. Por ejemplo, tomando s 0 =0 en T 0 y P 0, usando la ecuación (4.60), obtenemos

La expresión (4.62) indica que la entropía de un gas ideal es un parámetro de estado, ya que puede determinarse mediante cualquier par de parámetros de estado. A su vez, dado que la entropía en sí misma es un parámetro de estado, utilizándola junto con cualquier parámetro de estado independiente, es posible determinar cualquier otro parámetro de estado del gas.

La entropía es un concepto que se introdujo en la termodinámica. Con este valor se determina la medida de disipación de energía. Cualquier sistema experimenta un enfrentamiento que surge entre el calor y campo de fuerza. Un aumento de temperatura conduce a una disminución del grado de orden. Para determinar la medida del desorden se introdujo una cantidad llamada entropía. Caracteriza el grado de intercambio de flujos de energía en sistemas tanto cerrados como abiertos.

El cambio de entropía en circuitos aislados aumenta junto con el aumento del calor. Esta medida de desorden alcanza su valor máximo en un estado caracterizado por el equilibrio termodinámico, que es el más caótico.

Si el sistema está abierto y al mismo tiempo no está en equilibrio, entonces el cambio de entropía se produce en la dirección de disminución. El valor de esta medida en esta versión se caracteriza por la fórmula. Para obtenerlo se suman dos cantidades:
- el flujo de entropía que se produce debido al intercambio de calor y sustancias con el entorno externo;
- la magnitud del cambio en el índice de movimiento caótico dentro del sistema.

Los cambios de entropía ocurren en cualquier ambiente donde los procesos biológicos, químicos y procesos fisicos. Este fenómeno ocurre a cierta velocidad. El cambio de entropía puede ser un valor positivo; en este caso, se produce una afluencia. este indicador en el sistema desde ambiente externo. Puede haber casos en los que el valor que indica un cambio de entropía se defina con un signo menos. Este valor numérico indica una salida de entropía. El sistema puede estar en En este caso, la cantidad de entropía producida se compensa con la salida de este indicador. Un ejemplo de tal situación es el estado. No está en equilibrio, pero al mismo tiempo es estacionario. Cualquier organismo bombea entropía, que tiene valor negativo, de su entorno. La cantidad de desorden extraída de él puede incluso exceder la cantidad recibida.

La producción de entropía ocurre en cualquier sistemas complejos. En el proceso de evolución, se intercambia información entre ellos. Por ejemplo, cuando se pierde información sobre la disposición espacial de sus moléculas. Hay un proceso de entropía creciente. Si el líquido se congela, se reduce la incertidumbre en las posiciones moleculares. EN en este caso la entropía disminuye. El enfriamiento de un líquido provoca una disminución de su energía interna. Sin embargo, cuando la temperatura alcanza un cierto valor, a pesar de la eliminación de calor del agua, la temperatura de la sustancia permanece sin cambios. Esto significa que comienza la transición a la cristalización. Un cambio de entropía durante un proceso isotérmico de este tipo va acompañado de una disminución en la medida del caos del sistema.

Un método práctico que permite aprovechar el calor de fusión de una sustancia es realizar un trabajo cuyo resultado es la construcción de un diagrama de solidificación. En otras palabras, a partir de los datos obtenidos como resultado del estudio, se puede trazar una curva que indicará la dependencia de la temperatura de la sustancia con el tiempo. Donde Condiciones externas debe permanecer sin cambios. Es posible determinar el cambio de entropía procesando datos. imagen grafica resultados del experimento. En tales curvas siempre hay una sección donde la línea tiene un espacio horizontal. Temperatura correspondiente este segmento, es la temperatura de solidificación.

Un cambio en cualquier sustancia acompañado de una transición de sólido a líquido a una temperatura ambiente igual y viceversa se denomina cambio de fase del primer tipo. En este caso, cambia la densidad del sistema, así como su entropía.



¿Te gustó el artículo? ¡Compartir con tus amigos!