Qu'est-ce que la formule d'entropie. Entropie en thermodynamique

L'équation (44.7) ou (44.12) peut être interprétée différemment. Lors du fonctionnement de machines réversibles, la chaleur en température est « équivalente » à la chaleur en température ; après tout, si elle est absorbée, la chaleur est toujours libérée. Si nous lui trouvons maintenant un nom spécial, nous pourrons dire que lorsque processus réversibles autant est absorbé qu’il est libéré. En d’autres termes, il ne diminue ni n’augmente. Cette quantité est appelée entropie, et on dit que « sur un cycle réversible, la variation d’entropie est nulle ». Si , alors l'entropie est égale à ; Nous avons déjà donné à l'entropie un symbole spécial. L'entropie est désignée partout par la lettre , et numériquement elle est égale à la chaleur (que nous avons désignée par la lettre) libérée dans un réservoir d'un degré (l'entropie n'est pas seulement de la chaleur, c'est de la chaleur divisée par la température, et elle est mesurée en joules par degré).

Il est intéressant de noter qu'en plus de la pression, qui dépend de la température et du volume, et de l'énergie interne (fonction du même volume et de la même température), nous avons trouvé une autre grandeur - l'entropie d'une substance, qui est également fonction de l'état. Nous allons essayer d'expliquer comment calculer l'entropie et ce que nous entendons par les mots « fonction d'état ». Surveillons le comportement du système dans différentes conditions. Nous savons déjà comment créer conditions différentes expérimentalement, par exemple, vous pouvez forcer le système à se dilater de manière adiabatique ou isotherme. (À propos, la machine n'a pas besoin d'avoir seulement deux réservoirs ; il peut y avoir trois ou quatre températures différentes, et la machine échangera de la chaleur avec chacun des réservoirs.) Nous pouvons parcourir tout le diagramme, en partant d'un état. au suivant. En d’autres termes, vous pouvez transférer un gaz d’un état à un autre et exiger que la transition soit réversible. Supposons maintenant que de petits réservoirs avec des températures différentes soient placés le long du chemin allant de à. Ensuite, chaque étape courte s'accompagnera de l'évacuation de la chaleur de la substance et de son transfert vers le réservoir à une température correspondant à un point donné du trajet. Relions tous ces réservoirs utilisant des moteurs thermiques réversibles à un réservoir de température unitaire. Une fois le transfert d’une substance d’un État à l’autre terminé, nous remettrons tous les réservoirs à leur état d’origine. Une machine réversible restituera chaque fraction de chaleur retirée d'une substance à une température, et à chaque fois à une température unitaire une entropie égale à

Calculons le montant total de l'entropie allouée. La différence d'entropie, ou l'entropie nécessaire pour passer de à à la suite d'un changement réversible, est l'entropie totale, c'est-à-dire l'entropie prélevée dans de petits réservoirs et libérée à une température unitaire :

La question est : la différence d’entropie dépend-elle du trajet dans le plan ? Il existe de nombreuses routes menant de à. Rappelons que dans le cycle de Carnot, nous pouvions nous déplacer d'un point à un autre (voir Fig. 44.6) de deux manières. Il était possible de dilater le gaz d'abord de manière isotherme puis adiabatique, ou il était possible de commencer par une détente adiabatique et de terminer par une détente isotherme. Nous devons donc découvrir si l'entropie change lorsque le chemin de à change (Fig. 44.10). Cela ne devrait pas changer, car si nous accomplissons un cycle complet, en partant d'un côté et en revenant par un autre, alors ce voyage équivaudra à un cycle complet d'une machine réversible. Avec ce cycle, aucune chaleur n’est transférée au réservoir à un degré.

Figue. 44.10. Changement d'entropie lors d'une transition réversible.

Puisque nous ne pouvons pas extraire la chaleur d’un réservoir d’un degré, nous devons nous contenter de la même quantité d’entropie à chaque voyage de à. Cette quantité est indépendante du chemin, seulement significative points de terminaison. Ainsi, nous pouvons parler d'une certaine fonction, que nous appelons l'entropie de la matière. Cette fonction dépend uniquement de l'état de la substance, c'est-à-dire uniquement du volume et de la température.

Vous pouvez trouver la fonction. Nous calculerons le changement d'entropie pour les changements réversibles de la matière en surveillant la chaleur générée dans un réservoir d'un degré. Mais ce changement peut également être exprimé en termes de chaleur évacuée de la substance à la température

Le changement total d'entropie est égal à la différence d'entropie dans le final et points de départ chemins :

. (44.18)

Cette expression ne définit pas complètement l'entropie. Jusqu'à présent, seule la différence d'entropie entre les deux est connue. différents états. Il est tout à fait possible de déterminer l’entropie seulement après avoir pu calculer l’entropie d’un état.

Pendant très longtemps, on a cru que l’entropie absolue était un concept dénué de sens. Mais à la fin, Nernst a fait une déclaration qu'il a appelée le théorème de la chaleur (parfois appelé la troisième loi de la thermodynamique). Sa signification est très simple. Nous allons maintenant énoncer ce théorème sans expliquer pourquoi il est vrai. Le postulat de Nernst stipule simplement que l'entropie de tout corps à zéro absoluégal à zéro. Maintenant, nous savons à quoi et (à ) l'entropie est nulle, et nous pouvons calculer l'entropie à tout autre point.

Pour illustrer cette idée, calculons l'entropie gaz parfait. Pour une dilatation isotherme (et donc réversible) est simplement égale à , car

qui est constante. Ainsi, d’après (44.4), la variation d’entropie est égale à

,

Donc plus la fonction de température seule. Comment ça dépend ? Nous savons déjà que lors de la dilatation adiabatique, il n’y a pas de transfert de chaleur. Ainsi, l'entropie reste constante même si le volume change, le forçant à changer (pour maintenir l'égalité). Est-il clair pour vous après cela que

,

où est une constante qui ne dépend ni de l'un ni de l'autre ? [La constante est appelée constante chimique. Cela dépend des propriétés du gaz et peut être déterminé expérimentalement conformément au théorème de Nernst. Pour cela, il faut mesurer la chaleur dégagée par le gaz lors de son refroidissement et de sa condensation jusqu'à ce qu'il se transforme en solide à 0° (l'hélium reste liquide à cette température). Ensuite, vous devez trouver l'intégrale. Peut être trouvé théoriquement ; Pour cela vous aurez besoin de la constante de Planck et mécanique quantique, mais nous n’en parlerons pas dans notre cours.]

Notons quelques propriétés de l'entropie. Tout d'abord, rappelez-vous que dans la section du cycle réversible entre les points et l'entropie change (Fig. 44.11). Rappelons également qu'à mesure que nous avançons sur ce chemin, l'entropie (la chaleur libérée à une température unitaire) augmente conformément à la règle où est la chaleur évacuée de la substance à une température donnée.

Figue. 44.11. Changement d'entropie sur un cycle réversible complet.

Le changement d'entropie total est nul.

Nous savons déjà qu'après un cycle réversible, l'entropie totale de tout ce qui est inclus dans le processus ne change pas. Après tout, la chaleur absorbée et la chaleur libérée contribuent à l’entropie de manière égale en ampleur mais de signe opposé. Par conséquent, le changement net d’entropie est nul. Ainsi, avec un cycle réversible, l'entropie de tous les participants au cycle, y compris les réservoirs, ne change pas. Cette règle semble similaire à la loi de conservation de l’énergie, mais ce n’est pas le cas. Cela ne s'applique qu'aux boucles réversibles. Si l'on passe à des cycles irréversibles, alors la loi de conservation de l'entropie n'existe plus.

Donnons deux exemples. Pour commencer, supposons qu'une machine à friction produit un travail irréversible, libérant de la chaleur à une certaine température. L'entropie augmentera de . La chaleur est égale au travail dépensé, et lorsque nous produisons un travail par friction contre un objet dont la température est égale à , alors l'entropie augmente d'un certain montant.

Autre exemple d'irréversibilité : si vous appliquez deux objets avec des températures différentes, disons et , alors une certaine quantité de chaleur circulera d'un objet à l'autre. Supposons, par exemple, que l’on jette une pierre chaude dans de l’eau froide. Dans quelle mesure l’entropie d’une pierre change-t-elle si elle transfère de la chaleur à l’eau à une température de ? Il diminue de . Comment l’entropie de l’eau change-t-elle ? Il augmentera de . Bien entendu, la chaleur ne peut provenir que de plus haute températureà un inférieur. Par conséquent, si c’est plus, alors c’est positif. Ainsi, le changement d'entropie est positif et égal à la différence de deux fractions :

. (44.19)

Ainsi, le théorème suivant est vrai : dans tout processus irréversible, l'entropie de tout dans le monde augmente. Seuls des processus réversibles peuvent maintenir l’entropie au même niveau. Et comme il n’existe pas de processus absolument irréversibles, l’entropie augmente toujours petit à petit. Les processus réversibles sont des processus idéalisés avec une augmentation minimale de l'entropie.

Malheureusement, nous n’aurons pas besoin d’approfondir le domaine de la thermodynamique. Notre objectif est uniquement d’illustrer les idées principales de cette science et d’expliquer les raisons pour lesquelles il est possible de s’appuyer sur ces arguments. Mais dans notre cours nous n’aurons pas souvent recours à la thermodynamique. La thermodynamique est largement utilisée en ingénierie et en chimie. Ainsi, vous vous familiariserez pratiquement avec la thermodynamique dans un cours de chimie ou de sciences techniques. Eh bien, cela ne sert à rien de dupliquer, et nous nous limiterons à un certain aperçu de la nature de la théorie et n'entrerons pas dans les détails de ses applications particulières.

Les deux lois de la thermodynamique sont souvent formulées ainsi :

Première loi : L’énergie de l’Univers est toujours constante.

Deuxième loi : L’entropie de l’Univers augmente toujours.

Ce n’est pas une très bonne formulation de la deuxième loi. Il ne dit rien, par exemple, que l'entropie ne change pas après un cycle réversible et ne clarifie pas le concept même d'entropie. C'est juste qu'il s'agit d'une forme facile à retenir des deux lois, mais il n'est pas facile d'en comprendre de quoi elles parlent réellement.

Nous avons rassemblé toutes les lois qui ont été discutées maintenant dans un tableau. 44.1. Et dans le chapitre suivant, nous utiliserons cet ensemble de lois pour trouver la relation entre la chaleur générée par le caoutchouc lorsqu'il est étiré et la tension supplémentaire qu'il exerce lorsqu'il chauffe.

Tableau 44.1 Lois de la thermodynamique

Première loi

Chaleur apportée au système + Travaux effectués sur le système = Augmentation de l'énergie interne du système :

2. Entropie standard des substances. Changement d'entropie lorsque l'état d'agrégation des substances change. Calcul du changement d'entropie standard dans réaction chimique.
L'entropie (S) est une fonction thermodynamique de l'état, qui sert de mesure du désordre (désordre) d'un système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente ΔS > 0 (deuxième loi de la thermodynamique). L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. L'entropie est associée à probabilité thermodynamique relation : S = R ln W
La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R et est égale à J∙mol–1∙K–1. Le changement d'entropie *) dans les processus irréversibles et réversibles est véhiculé par les relations ΔS > Q / T et ΔS = Q / T. Par exemple, le changement d'entropie de fusion est égal à la chaleur (enthalpie) de fusion ΔSmel = ΔHmel/Tmel. Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie ​

*) le terme d'entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).

Ici ΔS° correspond à l'entropie de l'état standard. Entropies standards substances simples ne sont pas égaux à zéro. Contrairement à d’autres fonctions thermodynamiques, l’entropie est idéalement corps cristallin au zéro absolu est égal à zéro (postulat de Planck), puisque W = 1.

L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue.

L'entropie dépend de :
-état global d'une substance. L'entropie augmente lors de la transition du solide au liquide et surtout à état gazeux(eau, glace, vapeur).
-composition isotopique (H2O et D2O).
-poids moléculaire de composés similaires (CH4, C2H6, n-C4H10).
- structure moléculaire (n-C4H10, iso-C4H10).
-structure cristalline (allotropie) – diamant, graphite.

Le changement d'entropie au cours de ce processus ( solide-liquide) la transition de phase peut être trouvée simplement si l'on considère le processus comme étant à l'équilibre.

Il s'agit d'une approximation tout à fait acceptable si l'on suppose que la différence de température entre le système et l'objet qui fournit de la chaleur au système n'est pas trop importante, bien inférieure au point de fusion. On peut alors utiliser le sens thermodynamique de l'entropie : du point de vue de la thermodynamique, l'entropie est fonction de l'état du système dont la variation dS dans un processus d'équilibre élémentaire est égale au rapport de la part de chaleur δQ que le système reçoit dans ce processus à la température du système T :

Puisque la température du système à une température donnée transition de phase ne change pas et est égal au point de fusion, alors intégrande est une quantité qui ne change pas au cours du processus, elle ne dépend donc pas de la masse m de la substance. Alors

De cette formule, il s'ensuit que lors de la fusion, l'entropie augmente et lors de la cristallisation, elle diminue. Signification physique Ce résultat est assez clair : la région de phase d'une molécule dans un solide est beaucoup plus petite que dans un liquide, puisque dans un solide chaque molécule n'est accessible que petite zone espaces entre nœuds adjacents réseau cristallin, et dans un liquide, les molécules occupent toute la région de l’espace. Par conséquent, à température égale, l’entropie solide moins d'entropie du liquide. Cela signifie qu’un solide est un système plus ordonné et moins chaotique qu’un liquide.
L'application de l'entropie dans ce processus (liquide-gaz) peut être trouvée simplement en considérant le processus comme étant à l'équilibre. Et encore une fois, il s'agit d'une approximation tout à fait acceptable, à condition que la différence de température entre le système et le « fournisseur » de chaleur soit faible, c'est-à-dire bien inférieur au point d'ébullition. Alors

De la formule, il s'ensuit que pendant l'évaporation, l'entropie augmente et pendant la condensation, elle diminue.
La signification physique de ce résultat est la différence dans la région de phase de la molécule dans le liquide et dans le gaz. Bien que dans les liquides et les gaz, chaque molécule ait accès à toute la région de l’espace occupée par le système, cette région elle-même est nettement plus petite pour un liquide que pour un gaz. Dans un liquide, les forces d’attraction entre les molécules les maintiennent à une certaine distance les unes des autres. Ainsi, bien que chaque molécule ait la possibilité de migrer librement à travers la région de l'espace occupée par le liquide, elle n'a pas la possibilité de « se détacher du collectif » des autres molécules : dès qu'elle se détache d'une molécule, une autre est immédiatement attiré. Le volume de liquide dépend donc de sa quantité et n’est en aucun cas lié au volume du récipient.

Les molécules de gaz se comportent différemment. Ils ont beaucoup plus de liberté, la distance moyenne entre elles est telle que les forces d'attraction sont très faibles, et les molécules « ne se remarquent » que lors des collisions. De ce fait, le gaz occupe toujours tout le volume de la cuve.

Par conséquent, quand températures égales la région de phase des molécules de gaz est nettement plus grande que la région de phase des molécules liquides, et l'entropie du gaz est supérieure à l'entropie du liquide. Le gaz, comparé au liquide, est un système beaucoup moins ordonné et plus chaotique.

La variation de l'entropie molaire standard dans une réaction chimique est déterminée par l'équation :

Il est à noter que l'évolution de l'entropie dans l'exemple considéré s'avère négative. On pourrait s'y attendre si l'on considère que, selon l'équation de la réaction en question, la quantité totale de réactifs gazeux est de 1,5 mole et la quantité totale de produits gazeux n'est que de 1 mole. Ainsi, à la suite de la réaction, il y a une diminution nombre total des gaz En même temps, nous savons que les réactions de combustion sont des réactions exothermiques. Par conséquent, le résultat de leur apparition est une dissipation d’énergie, ce qui laisse présager une augmentation de l’entropie, et non une diminution. En outre, il faut tenir compte du fait que la combustion de l'hydrogène gazeux à 25°C, provoquée par l'amorçage initial, se déroule alors spontanément et avec une grande intensité. Mais le changement d’entropie dans cette réaction ne devrait-il pas être positif dans ce cas, comme l’exige la deuxième loi de la thermodynamique ? Il s'avère que non, ou du moins pas nécessairement. La deuxième loi de la thermodynamique exige que, à la suite d'un processus spontané, l'entropie totale du système et de son environnement augmente. Le changement d'entropie calculé ci-dessus caractérise uniquement le système chimique, constitué de réactifs et de produits qui participent à la combustion de l'hydrogène gazeux à 25°C.

Détails Catégorie : Thermodynamique Publié le 03/01/2015 15:41 Vues : 6634

Les paramètres macroscopiques d'un système thermodynamique comprennent la pression, le volume et la température. Il existe cependant un autre élément important quantité physique, qui est utilisé pour décrire les états et les processus dans les systèmes thermodynamiques. C'est ce qu'on appelle l'entropie.

Qu'est-ce que l'entropie

Ce concept a été introduit pour la première fois en 1865 par le physicien allemand Rudolf Clausius. Il a appelé l'entropie la fonction de l'état d'un système thermodynamique, qui détermine la mesure de la dissipation irréversible de l'énergie.

Qu’est-ce que l’entropie ?

Avant de répondre à cette question, faisons connaissance avec la notion de « chaleur réduite ». Tout processus thermodynamique se déroulant dans un système consiste en un certain nombre de transitions du système d'un état à un autre. Chaleur réduite est appelé le rapport de la quantité de chaleur dans processus isothermeà la température à laquelle se produit ce transfert de chaleur.

Q" = Q/T .

Pour tout processus thermodynamique ouvert, il existe une fonction du système dont la variation lors du passage d'un état à un autre est égale à la somme des chaleurs réduites. Clausius a donné à cette fonction le nom " entropie " et l'a désigné avec la lettre S , et le rapport de la quantité totale de chaleur ∆Q à la taille température absolueT nommé changement d'entropie .

Faisons attention au fait que la formule de Clausius ne détermine pas la valeur de l'entropie elle-même, mais seulement sa variation.

Qu’est-ce que la « dissipation irréversible de l’énergie » en thermodynamique ?

Une des formulations de la deuxième loi de la thermodynamique est la suivante : " Un processus est impossible dont le seul résultat est la conversion en travail de toute la quantité de chaleur reçue par le système". Autrement dit, une partie de la chaleur se transforme en travail et une partie est dissipée. Ce processus est irréversible. À l'avenir, l'énergie dissipée ne pourra plus faire de travail. Par exemple, dans un vrai moteur thermique, tout le la chaleur est transférée au corps de travail. Une partie de celle-ci est dissipée dans l'environnement extérieur, le chauffant.

Dans un moteur thermique idéal fonctionnant selon le cycle de Carnot, la somme de toutes les chaleurs réduites est nulle. Cette affirmation est également vraie pour tout cycle quasi-statique (réversible). Et peu importe le nombre de transitions d’un état à un autre qui constitue un tel processus.

Si nous divisons un processus thermodynamique arbitraire en sections de taille infinitésimale, alors la chaleur réduite dans chacune de ces sections sera égale à δQ/T . Différentiel complet entropie dS = δQ/T .

L'entropie est une mesure de la capacité de la chaleur à être dissipée de manière irréversible. Son changement montre la quantité d’énergie dissipée de manière aléatoire dans l’environnement sous forme de chaleur.

Dans un lieu fermé système isolé, n'échangeant pas de chaleur avec environnement, pendant les processus réversibles, l'entropie ne change pas. Cela signifie que le différentiel dS = 0 . En vrai et processus irréversibles le transfert de chaleur se produit à partir de corps chaud au froid. Dans de tels processus, l'entropie augmente toujours ( dS ˃ 0 ). Par conséquent, il indique la direction du processus thermodynamique.

La formule de Clausius, écrite sous la forme dS = δQ/T , n'est valable que pour les processus quasi-statiques. Ce sont des processus idéalisés qui constituent une série d’états d’équilibre qui se succèdent continuellement. Ils ont été introduits en thermodynamique afin de simplifier l'étude des processus thermodynamiques réels. On pense qu’à tout moment un système quasi-statique est dans un état d’équilibre thermodynamique. Ce processus est également appelé quasi-équilibre.

Bien entendu, de tels processus n’existent pas dans la nature. Après tout, tout changement dans le système le brise état d'équilibre. Divers processus de transition et de relaxation commencent à s'y produire, s'efforçant de ramener le système à un état d'équilibre. Mais les processus thermodynamiques qui se déroulent plutôt lentement peuvent tout à fait être considérés comme quasi-statiques.

En pratique, il existe de nombreux problèmes thermodynamiques dont la solution nécessite la création d'équipements complexes, la création de pressions de plusieurs centaines de milliers d'atmosphères et le maintien de températures très élevées pendant une longue période. Et les processus quasi-statiques permettent de calculer l'entropie de tels processus réels, de prédire comment tel ou tel processus peut se dérouler, ce qui est très difficile à mettre en œuvre en pratique.

Loi de l'entropie non décroissante

La deuxième loi de la thermodynamique, basée sur la notion d’entropie, est formulée ainsi : « Dans un système isolé, l'entropie ne diminue pas " Cette loi est aussi appelée loi de l'entropie non décroissante.

Si à un moment donné l'entropie d'un système fermé diffère du maximum, alors à l'avenir elle ne pourra qu'augmenter jusqu'à atteindre valeur maximum. Le système atteindra un état d’équilibre.

Clausius était sûr que l'Univers est systeme ferme. Et si tel est le cas, alors son entropie tend à atteindre sa valeur maximale. Cela signifie qu'un jour tous les processus macroscopiques s'arrêteront, et " mort due à la chaleur" Mais l'astronome américain Edwin Powell Hubble a prouvé que l'Univers ne peut pas être qualifié de système thermodynamique isolé, puisqu'il est en expansion. physicien soviétique L'académicien Landau croyait que la loi de l'entropie non décroissante ne pouvait pas être appliquée à l'Univers, puisqu'il se trouve dans un champ gravitationnel variable. Science moderne n'est pas encore en mesure de répondre à la question de savoir si notre Univers est un système fermé ou non.

Principe de Boltzmann

Ludwig Boltzmann

Tout système thermodynamique fermé tend vers un état d’équilibre. Tous les processus spontanés qui s'y produisent s'accompagnent d'une augmentation de l'entropie.

En 1877, le physicien théoricien autrichien Ludwig Boltzmann a relié l'entropie d'un état thermodynamique au nombre de microétats d'un système. On pense que la formule même pour calculer la valeur de l'entropie a été dérivée plus tard par le physicien théoricien allemand Max Planck.

S = k · dansW ,

k = 1,38·10 −23 J/K - Constante de Boltzmann; W - le nombre de microétats du système qui réalisent un état macrostatique donné, ou le nombre de façons dont cet état peut être réalisé.

Nous voyons que l’entropie dépend uniquement de l’état du système et ne dépend pas de la manière dont le système est passé à cet état.

Les physiciens considèrent l'entropie comme une grandeur qui caractérise le degré de désordre d'un système thermodynamique. Tout système thermodynamique s'efforce toujours d'équilibrer ses paramètres avec son environnement. Elle arrive spontanément à cet état. Et lorsque l’état d’équilibre est atteint, le système ne peut plus fonctionner. On peut considérer qu’elle est en plein désarroi.

L'entropie caractérise la direction du processus thermodynamique d'échange thermique entre le système et l'environnement extérieur. Dans un système thermodynamique fermé, il détermine dans quelle direction se déroulent les processus spontanés.

Tous les processus se produisant dans la nature sont irréversibles. Par conséquent, ils circulent dans le sens d’une entropie croissante.

La deuxième loi de la thermodynamique a plusieurs formulations. Formulation de Clausius : le processus de transfert de chaleur d’un corps ayant une température plus basse vers un corps ayant une température plus élevée est impossible.

Formulation de Thomson : un processus est impossible, dont le résultat serait l'exécution d'un travail dû à la chaleur prélevée sur un corps particulier. Cette formulation impose une restriction à la transformation énergie interneà la mécanique. Je ne peux pas construire de voiture ( Machine à mouvement perpétuel du deuxième type), qui ne fonctionneraient qu'en recevant de la chaleur de l'environnement.

Formule Boltzmann : Entropie- C'est un indicateur du désordre du système. Plus l’entropie est élevée, plus le mouvement des particules matérielles qui composent le système est chaotique. Voyons comment cela fonctionne en utilisant l'eau comme exemple. À l’état liquide, l’eau est une structure plutôt désordonnée, puisque les molécules se déplacent librement les unes par rapport aux autres et que leur orientation spatiale peut être arbitraire. La glace est une autre affaire: les molécules d'eau y sont ordonnées et incluses dans le réseau cristallin. La formulation de la deuxième loi de la thermodynamique de Boltzmann, relativement parlant, stipule que la glace, ayant fondu et transformée en eau (un processus accompagné d'une diminution du degré d'ordre et d'une augmentation de l'entropie), ne renaîtra jamais elle-même de l'entropie. ne peut pas diminuer dans les systèmes fermés, c'est-à-dire dans les systèmes qui ne reçoivent pas d'approvisionnement en énergie externe.

Troisième loi de la thermodynamique (Théorème de Nernst) est un principe physique qui détermine le comportement de l'entropie lorsque la température s'approche du zéro absolu. C'est l'un des postulats de la thermodynamique, accepté sur la base d'une généralisation d'une quantité importante de données expérimentales.

La troisième loi de la thermodynamique peut être formulée comme suit :

« L’augmentation de l’entropie à température nulle absolue tend à limite finie, indépendant de l'état d'équilibre dans lequel se trouve le système".

où est n’importe quel paramètre thermodynamique.

La troisième loi de la thermodynamique s'applique uniquement aux états d'équilibre.

Puisque, sur la base de la deuxième loi de la thermodynamique, l'entropie ne peut être déterminée que jusqu'à une constante additive arbitraire (c'est-à-dire que ce n'est pas l'entropie elle-même qui est déterminée, mais seulement sa variation) :

La troisième loi de la thermodynamique peut être utilisée pour déterminer avec précision l’entropie. Dans ce cas, l'entropie du système d'équilibre à température nulle absolue est considérée comme égale à zéro.

Entropie des gaz parfaits

Pour obtenir une expression calculée de la variation de l'entropie des gaz parfaits, nous utilisons la première loi de la thermodynamique, dans laquelle la chaleur est déterminée en utilisant la variation de l'enthalpie

La différence entre les entropies d'un gaz parfait dans deux états spécifiques peut être obtenue en intégrant l'expression (4.59)

Pour déterminer la valeur absolue de l'entropie d'un gaz parfait, il est nécessaire de fixer le début de son comptage par n'importe quelle paire de paramètres thermiques de l'état. Par exemple, en prenant s 0 =0 à T 0 et P 0, en utilisant l'équation (4.60), nous obtenons

L'expression (4.62) indique que l'entropie d'un gaz parfait est un paramètre d'état, puisqu'elle peut être déterminée par n'importe quelle paire de paramètres d'état. À son tour, puisque l’entropie elle-même est un paramètre d’état, en l’utilisant conjointement avec n’importe quel paramètre d’état indépendant, il est possible de déterminer n’importe quel autre paramètre d’état du gaz.

L'entropie est un concept introduit en thermodynamique. A l’aide de cette valeur, la mesure de la dissipation d’énergie est déterminée. Tout système connaît une confrontation entre la chaleur et champ de force. Une augmentation de la température entraîne une diminution du degré d'ordre. Pour déterminer la mesure du désordre, une quantité appelée entropie a été introduite. Il caractérise le degré d'échange de flux d'énergie dans les systèmes fermés et ouverts.

Le changement d'entropie dans les circuits isolés augmente avec l'augmentation de la chaleur. Cette mesure du désordre atteint sa valeur maximale dans un état caractérisé par l'équilibre thermodynamique, qui est le plus chaotique.

Si le système est ouvert et en même temps hors d'équilibre, alors le changement d'entropie se produit dans le sens d'une diminution. La valeur de cette mesure dans cette version est caractérisée par la formule. Pour l'obtenir, on additionne deux quantités :
- le flux d'entropie résultant de l'échange de chaleur et de substances avec le milieu extérieur ;
- l'ampleur de l'évolution de l'indice de mouvement chaotique au sein du système.

Les changements d'entropie se produisent dans tout environnement où les facteurs biologiques, chimiques et processus physiques. Ce phénomène se produit à une certaine vitesse. Le changement d'entropie peut être une valeur positive - dans ce cas, un afflux se produit cet indicateur dans le système depuis environnement externe. Il peut y avoir des cas où la valeur indiquant un changement d'entropie est définie avec un signe moins. Ce valeur numérique indique une sortie d’entropie. Le système peut être dans ce cas, la quantité d'entropie produite est compensée par la sortie de cet indicateur. Un exemple d'une telle situation est l'état. Il est hors d'équilibre, mais en même temps stationnaire. Tout organisme pompe de l'entropie, ce qui a valeur négative, de son environnement. La quantité de désordre qui en est extraite peut même dépasser la quantité reçue.

La production d'entropie se produit dans n'importe quel systèmes complexes. Au cours du processus d'évolution, des informations sont échangées entre eux. Par exemple, lorsque des informations sur la disposition spatiale de ses molécules sont perdues. Il existe un processus d’augmentation de l’entropie. Si le liquide gèle, l'incertitude sur les positions moléculaires est réduite. DANS dans ce cas l'entropie diminue. Refroidir un liquide entraîne une diminution de son énergie interne. Cependant, lorsque la température atteint une certaine valeur, malgré l'évacuation de la chaleur de l'eau, la température de la substance reste inchangée. Cela signifie que la transition vers la cristallisation commence. Un changement d'entropie au cours d'un processus isotherme de ce type s'accompagne d'une diminution de la mesure du chaos du système.

Une méthode pratique qui permet la chaleur de fusion d'une substance consiste à effectuer un travail dont le résultat est la construction d'un diagramme de solidification. En d'autres termes, sur la base des données obtenues à la suite de l'étude, il est possible de tracer une courbe qui indiquera la dépendance de la température de la substance en fonction du temps. Où conditions extérieures doit rester inchangé. Il est possible de déterminer le changement d'entropie en traitant les données image graphique résultats de l’expérience. Sur de telles courbes, il y a toujours une section où la ligne présente un espace horizontal. Température correspondante ce segment, est la température de solidification.

Un changement dans toute substance accompagné d'une transition d'un solide à un liquide à une température ambiante égale et vice versa est appelé changement de phase du premier type. Dans ce cas, la densité du système ainsi que son entropie changent.



Avez-vous aimé l'article? Partage avec tes amis!