Entropie en thermodynamique. Thermodynamique chimique

Le concept d'entropie est utilisé dans diverses sciences: physique, chimie, mathématiques, biologie, sociologie. Le mot lui-même vient du grec et signifie « transformation, changement ». Qu’est-ce que c’est en termes simples ? On peut dire que c'est une mesure du désordre, du chaos dans tout système. Plus la commande est basse, plus sa valeur est grande. Si les livres sont sur une étagère, ils sont moins en désordre que s’ils sont en pile.

Définition ce terme dépend du champ d’application de son application. DANS en termes généraux on peut dire que c'est une mesure de désordre et de dissipation irréversible de l'énergie. Plus un système est ordonné, plus l’énergie est concentrée. Par exemple, si nous plaçons un objet chaud dans eau froide, elle se refroidira progressivement et l'eau se réchauffera. Dans le second cas, l’entropie est plus grande.

Important! L'entropie caractérise le désordre. Plus il est grand, plus système plus petit ordonné.

Tout peut faire office de système. En physique ou en chimie, il s'agit généralement d'un gaz, d'un liquide, d'un solide, d'un ensemble un certain nombre particules. En informatique, cela pourrait être un texte, en sociologie, un groupe de personnes.

Le terme entropie

En physique

Ce terme est utilisé dans des branches de la physique telles que la thermodynamique et la physique statistique. La thermodynamique étudie les méthodes de transfert et de transformation de l'énergie. Il traite des processus dans lesquels la notion de température peut être utilisée. C’est en thermodynamique que ce concept a été utilisé pour la première fois. Il a été introduit par l'allemand le scientifique Rudolf Clausius. La mécanique statistique étudie le comportement de systèmes constitués d'un nombre fini de particules en utilisant les méthodes de la théorie des probabilités.

Dans différentes branches de la physique, ce terme signifie des choses légèrement différentes. En thermodynamique, c'est une caractéristique de dissipation d'énergie irréversible. DANS physique statistique cette valeur montre la probabilité d'un état.

En thermodynamique

L'entropie est la seule quantité qui montre la direction des processus physiques. Qu'est-ce que ça veut dire?

  • DANS système isolé, c'est-à-dire celui qui n'échange ni matière ni énergie avec les objets environnants, les processus se déroulent toujours de telle manière que le désordre augmente. Ayant atteint un maximum, il reste constant. C'est l'essence de la deuxième loi de la thermodynamique.
  • Les processus réversibles ne modifient pas le désordre.
  • Les processus irréversibles se déroulent toujours de telle manière que le désordre augmente.
    DANS système ouvert cette valeur peut augmenter ou rester constante ; des processus dans lesquels le désordre diminue sont également possibles. Autrement dit, grâce à une intervention extérieure, nous pouvons réduire le désordre.

Tout système qui reste immuable conditions extérieures, finit par entrer dans un état d’équilibre et ne peut en sortir tout seul. Dans ce cas, toutes ses parties auront la même température. Ce zéro démarrage thermodynamique.

C'est dans l'équilibre qu'il y a le plus de désordre. Par exemple, il y a un récipient divisé par une cloison. D'un côté il y a un gaz, de l'autre il y en a un autre. Si vous retirez la cloison, les gaz se mélangeront progressivement et ne se sépareront plus d'eux-mêmes. Cet état sera plus désordonné que l’état lorsque les gaz étaient séparés.

En physique, cette grandeur est fonction de l’état du système. Cela signifie que cela dépend des paramètres du système :

  • température;
  • pression;
  • volume;
  • énergie interne.

En mécanique statistique

DANS mécanique statistique ce concept est lié à la probabilité d'obtenir un certain état. Par exemple, pour plusieurs objets ou particules, cela dépend du nombre de façons de les disposer.

Il existe plusieurs définitions de cette quantité. La définition la plus simple de Bolzamann. Il est égal au logarithme de la probabilité d'état multiplié par Constante de Boltzmann: S=k*ln(W).

Vidéo utile : qu'est-ce que l'entropie

Valeur absolue

L'entropie est une quantité non négative (supérieure ou égale à zéro). Plus la température est proche du zéro absolu, plus elle est proche de zéro. C'est la troisième loi de la thermodynamique. Il a été initialement formulé par Max Planck en 1911.

La troisième loi de la thermodynamique est également appelée principe de l'inaccessibilité du zéro absolu. Cela signifie que lors de tout processus associé à un changement de désordre, il est impossible d'atteindre le zéro absolu (0K ou -273,15 C). On ne peut s'approcher de cette température qu'à l'infini. Les scientifiques s'accordent à dire qu'à 0 K, le désordre est égal à 0.

Important! La valeur absolue du désordre peut être calculée comme la variation d’énergie à une température donnée.

En thermodynamique, cela n'a généralement pas d'importance valeur absolue, seul son changement est important. Cependant, vous pouvez également trouver valeur absolue. Il est calculé par différentes formules pour les états solides, liquides et gazeux de la matière. Cette quantité est mesurée en J/K ou J/degré, c'est-à-dire dans les mêmes unités que la capacité thermique. Il est pratique de diviser cette valeur par la masse ou le nombre de moles de la substance. Par conséquent, les unités J/(mol*K) ou J/(mol*degree) sont utilisées, selon que la température est mesurée en kelvins ou en degrés.

En chimie

Qu’est-ce que l’entropie en chimie, par exemple ? Ce concept est utilisé en thermodynamique chimique. Ce qui est important ici, c'est l'évolution de cette valeur. S’il est positif, alors le système devient moins ordonné. Il est important de savoir cela pour déterminer la direction des réactions et des changements chimiques. équilibre chimique. Ce terme est associé au concept d'enthalpie - énergie qui peut être convertie en chaleur à une certaine pression constante.

Le changement de trouble peut déterminer si une réaction peut se produire spontanément. Cela ne peut pas être fait uniquement en changeant l'énergie, car il existe à la fois des réactions qui se produisent avec l'absorption de chaleur et des réactions qui se produisent avec sa libération. Selon la deuxième loi de la thermodynamique, l’état présentant le plus grand désordre est l’état le plus stable d’un système fermé. Aussi n'importe quel système fermé tend vers l’état le moins ordonné. Par conséquent, dans les processus spontanés, le désordre augmente.

En théorie de l'information

L'entropie de l'information caractérise l'imprévisibilité de tout système. Par exemple, cela pourrait être la probabilité qu’un caractère de l’alphabet apparaisse dans le texte. De plus, cette fonction est égale à la quantité d'informations tombant sur un caractère. Claude Shannon, le scientifique qui a introduit ce terme dans la théorie de l'information, a même initialement voulu appeler cette quantité information.

Shannon suggère qu'en augmentant la quantité d'informations, nous réduisons l'incertitude. En rationalisant le système, nous réduisons également l’incertitude.

Important! Plus un événement est prévisible, moins il est informatif et moins il y a de désordre.

Grâce à cette incertitude, vous pouvez prédire des événements, par exemple le résultat d'une expérience. Pour ce faire, les événements sont divisés en parties distinctes et leur incertitude est prise en compte.

L'entropie de l'information est liée au nombre d'états disponibles. Plus ce nombre est élevé, plus il est grand. Par exemple, si nous jouons aux échecs selon les règles, pour un échiquier, cette valeur sera inférieure à celle si nous réorganisons les pièces de manière chaotique. L’incertitude pour une pièce qui ne peut atterrir que d’un côté ou de l’autre est moindre que celle d’une pièce de monnaie qui ne peut atterrir que d’un côté ou de l’autre. dés avec 6 côtés, et pour un os à 20 côtés cette valeur est encore plus grande.

Il y a aussi l'entropie du langage. Ce concept désigne la quantité d'informations par unité de texte dans cette langue (un caractère) et se mesure en bits par lettre. Pour différentes langues elle est différente.

Dans une langue, certains symboles apparaissent plus souvent, d’autres moins fréquemment, et certaines combinaisons de symboles apparaissent également fréquemment. En analysant la probabilité d'apparition d'un caractère particulier, vous pouvez décoder le texte chiffré. Le désordre de l’information aide également à déterminer la capacité de canal requise pour transmettre des messages cryptés.

L'analyse de l'entropie de l'information est utilisée pour analyser des données dans divers domaines, de la médecine à la sociologie. En mots simples on peut dire qu'en analysant l'augmentation ou la diminution du désordre, il est possible d'établir des liens entre les phénomènes.

Le concept d’« entropie de l’information » est également utilisé dans statistiques mathématiques et physique statistique. Ces sciences traitent également des probabilités diverses conditions et utiliser les méthodes de la théorie des probabilités.

En économie

En économie, la notion de « coefficient d'entropie » est utilisée. Elle est associée à la concentration des vendeurs sur le marché. Plus la concentration est élevée, plus ce coefficient, ou indice, est faible. Cela dépend de la répartition des parts entre les entreprises sur le marché et de la manière dont plus de différence plus le coefficient d'entropie est élevé, plus ces parts sont importantes.

Si l’on divise cet indice par le nombre d’entreprises présentes sur le marché, on obtient indicateur relatif. Elle est désignée par la lettre E. Sa valeur est comprise entre 0 et 1. La valeur E=0 correspond au monopole et E=1 à la concurrence parfaite.

Ce que dit Wikipédia

Vous pouvez le trouver sur Wikipédia différentes définitions cette notion. La chose la plus générale est une mesure de dissipation d'énergie irréversible, l'écart d'un processus réel par rapport à un processus idéal. Vous pouvez également trouver sur Wikipédia :

  • des articles sur ce terme en thermodynamique classique ;
  • en écologie biologique;
  • entropie de l'Univers ;
  • langue;
  • différentiel;
  • topologique;
  • informatif.

Vidéo utile : Comprendre l'entropie

Conclusion

Le terme « entropie » a été utilisé pour la première fois en thermodynamique par Rudolf Clausius. De la physique, il est venu à d'autres sciences. Ce concept désigne le désordre, le chaos, l'imprévisibilité et est étroitement lié à la probabilité. L'analyse entropique permet d'étudier les données et de trouver des liens entre les phénomènes, de déterminer les directions des processus physiques et chimiques.

L'équation (44.7) ou (44.12) peut être interprétée différemment. Lors du fonctionnement de machines réversibles, la chaleur en température est « équivalente » à la chaleur en température ; après tout, si elle est absorbée, la chaleur est toujours libérée. Si nous lui trouvons maintenant un nom spécial, nous pourrons dire que lorsque processus réversibles autant est absorbé qu’il est libéré. En d’autres termes, il ne diminue ni n’augmente. Cette quantité est appelée entropie, et on dit que « sur un cycle réversible, la variation d’entropie est nulle ». Si , alors l'entropie est égale à ; Nous avons déjà donné à l'entropie un symbole spécial. L'entropie est désignée partout par la lettre , et numériquement elle est égale à la chaleur (que nous avons désignée par la lettre) libérée dans un réservoir d'un degré (l'entropie n'est pas seulement de la chaleur, c'est de la chaleur divisée par la température, et elle est mesurée en joules par degré).

Il est intéressant de noter qu'en plus de la pression, qui dépend de la température et du volume, et de l'énergie interne (fonction du même volume et de la même température), nous avons trouvé une autre grandeur - l'entropie d'une substance, qui est également fonction de l'état. Nous allons essayer d'expliquer comment calculer l'entropie et ce que nous entendons par les mots « fonction d'état ». Surveillons le comportement du système dans différentes conditions. Nous savons déjà comment créer conditions différentes expérimentalement, par exemple, on peut forcer le système à se dilater de manière adiabatique ou isotherme. (À propos, la machine n'a pas besoin d'avoir seulement deux réservoirs ; il peut y avoir trois ou quatre températures différentes, et la machine échangera de la chaleur avec chacun des réservoirs.) Nous pouvons parcourir tout le diagramme, en partant d'un état. à un autre. En d’autres termes, vous pouvez transférer un gaz d’un état à un autre et exiger que la transition soit réversible. Supposons maintenant que de petits réservoirs avec des températures différentes soient placés le long du chemin allant de à. Ensuite, chaque étape courte s'accompagnera de l'évacuation de la chaleur de la substance et de son transfert vers le réservoir à une température correspondant à un point donné du trajet. Relions tous ces réservoirs utilisant des moteurs thermiques réversibles à un seul réservoir de température unitaire. Une fois le transfert d’une substance d’un État à l’autre terminé, nous remettrons tous les réservoirs à leur état d’origine. Une machine réversible restituera chaque fraction de chaleur retirée d'une substance à une température, et à chaque fois à une température unitaire une entropie égale à

Calculons le montant total de l'entropie allouée. La différence d'entropie, ou l'entropie nécessaire pour passer de à à la suite d'un changement réversible, est l'entropie totale, c'est-à-dire l'entropie prélevée dans de petits réservoirs et libérée à une température unitaire :

La question est : la différence d’entropie dépend-elle du trajet dans le plan ? Il existe de nombreuses routes menant de à. Rappelons que dans le cycle de Carnot, nous pouvions nous déplacer d'un point à un autre (voir Fig. 44.6) de deux manières. Il était possible de dilater le gaz d'abord de manière isotherme puis adiabatique, ou il était possible de commencer par une détente adiabatique et de terminer par une détente isotherme. Nous devons donc découvrir si l'entropie change lorsque le chemin de à change (Fig. 44.10). Cela ne devrait pas changer, car si nous accomplissons un cycle complet, en partant d'un côté et en revenant par un autre, alors ce voyage équivaudra à un cycle complet d'une machine réversible. Avec ce cycle, aucune chaleur n’est transférée au réservoir à un degré.

Figue. 44.10. Changement d'entropie lors d'une transition réversible.

Puisque nous ne pouvons pas extraire la chaleur d’un réservoir d’un degré, nous devons nous contenter de la même quantité d’entropie à chaque voyage de à. Cette quantité est indépendante du chemin, seulement significative points de terminaison. Ainsi, nous pouvons parler d'une certaine fonction, que nous appelons l'entropie de la matière. Cette fonction dépend uniquement de l'état de la substance, c'est-à-dire uniquement du volume et de la température.

Vous pouvez trouver la fonction. Nous calculerons le changement d'entropie pour les changements réversibles de la matière en surveillant la chaleur générée dans un réservoir d'un degré. Mais ce changement peut également être exprimé en termes de chaleur évacuée de la substance à la température

Le changement total d'entropie est égal à la différence d'entropie dans le final et points de départ chemins :

. (44.18)

Cette expression ne définit pas complètement l'entropie. Jusqu'à présent, seule la différence d'entropie entre les deux est connue. différents états. Il est tout à fait possible de déterminer l’entropie seulement après avoir pu calculer l’entropie d’un état.

Pendant très longtemps, on a cru que l’entropie absolue était un concept dénué de sens. Mais à la fin, Nernst a fait une déclaration qu'il a appelée le théorème de la chaleur (parfois appelé la troisième loi de la thermodynamique). Sa signification est très simple. Nous allons maintenant énoncer ce théorème sans expliquer pourquoi il est vrai. Le postulat de Nernst stipule simplement que l'entropie de tout corps à zéro absoluégal à zéro. Maintenant, nous savons à quoi et (à ) l'entropie est nulle, et nous pouvons calculer l'entropie à tout autre point.

Pour illustrer cette idée, calculons l'entropie gaz parfait. Pour une dilatation isotherme (et donc réversible) est simplement égale à , car

qui est constante. Ainsi, d’après (44.4), la variation d’entropie est égale à

,

Donc plus la fonction de température seule. Comment ça dépend ? Nous savons déjà que lors de la dilatation adiabatique, il n’y a pas de transfert de chaleur. Ainsi, l'entropie reste constante même si le volume change, le forçant à changer (pour maintenir l'égalité). Est-il clair pour vous après cela que

,

où est une constante qui ne dépend ni de l'un ni de l'autre ? [La constante est appelée constante chimique. Cela dépend des propriétés du gaz et peut être déterminé expérimentalement conformément au théorème de Nernst. Pour cela, il faut mesurer la chaleur dégagée par le gaz lors de son refroidissement et de sa condensation jusqu'à ce qu'il se transforme en solide à 0° (l'hélium reste liquide à cette température). Ensuite, vous devez trouver l'intégrale. Peut être trouvé théoriquement ; Pour cela vous aurez besoin de la constante de Planck et mécanique quantique, mais nous n’en parlerons pas dans notre cours.]

Notons quelques propriétés de l'entropie. Tout d'abord, rappelez-vous que dans la section du cycle réversible entre les points et l'entropie change (Fig. 44.11). Rappelons également qu'à mesure que nous avançons sur ce chemin, l'entropie (la chaleur libérée à une température unitaire) augmente conformément à la règle où est la chaleur évacuée de la substance à une température donnée.

Figue. 44.11. Changement d'entropie sur un cycle réversible complet.

Le changement d'entropie total est nul.

Nous savons déjà qu'après un cycle réversible, l'entropie totale de tout ce qui est inclus dans le processus ne change pas. Après tout, la chaleur absorbée et la chaleur libérée contribuent à l’entropie de manière égale en ampleur mais de signe opposé. Par conséquent, le changement net d’entropie est nul. Ainsi, avec un cycle réversible, l'entropie de tous les participants au cycle, y compris les réservoirs, ne change pas. Cette règle semble similaire à la loi de conservation de l’énergie, mais ce n’est pas le cas. Cela ne s'applique qu'aux boucles réversibles. Si l'on passe à des cycles irréversibles, alors la loi de conservation de l'entropie n'existe plus.

Donnons deux exemples. Pour commencer, supposons qu'une machine à friction produit un travail irréversible, libérant de la chaleur à une certaine température. L'entropie augmentera de . La chaleur est égale au travail dépensé, et lorsque nous produisons un travail par friction contre un objet dont la température est égale à , alors l'entropie augmente d'un certain montant.

Autre exemple d'irréversibilité : si vous appliquez deux objets avec des températures différentes, disons et , alors une certaine quantité de chaleur circulera d'un objet à l'autre. Supposons, par exemple, que l’on jette une pierre chaude dans de l’eau froide. Dans quelle mesure l’entropie d’une pierre change-t-elle si elle transfère de la chaleur à l’eau à une température de ? Il diminue de . Comment l’entropie de l’eau change-t-elle ? Il augmentera de . Bien entendu, la chaleur ne peut provenir que de plus haute températureà un inférieur. Par conséquent, si c’est plus, alors c’est positif. Ainsi, le changement d'entropie est positif et égal à la différence de deux fractions :

. (44.19)

Ainsi, le théorème suivant est vrai : dans tout processus irréversible l'entropie de tout dans le monde augmente. Seuls des processus réversibles peuvent maintenir l’entropie au même niveau. Et comme il n’existe pas de processus absolument irréversibles, l’entropie augmente toujours petit à petit. Les processus réversibles sont des processus idéalisés avec une augmentation minimale de l'entropie.

Malheureusement, nous n’aurons pas besoin d’approfondir le domaine de la thermodynamique. Notre objectif est uniquement d’illustrer les idées principales de cette science et d’expliquer les raisons pour lesquelles il est possible de s’appuyer sur ces arguments. Mais dans notre cours nous n’aurons pas souvent recours à la thermodynamique. La thermodynamique est largement utilisée en technologie et en chimie. Ainsi, vous vous familiariserez pratiquement avec la thermodynamique dans un cours de chimie ou de sciences techniques. Eh bien, cela ne sert à rien de dupliquer, et nous nous limiterons à un certain aperçu de la nature de la théorie et n'entrerons pas dans les détails de ses applications particulières.

Les deux lois de la thermodynamique sont souvent formulées ainsi :

Première loi : L’énergie de l’Univers est toujours constante.

Deuxième loi : L'entropie de l'Univers augmente toujours.

Ce n’est pas une très bonne formulation de la deuxième loi. Il ne dit rien, par exemple, que l'entropie ne change pas après un cycle réversible et ne clarifie pas le concept même d'entropie. C'est juste qu'il s'agit d'une forme facile à retenir des deux lois, mais il n'est pas facile d'en comprendre de quoi elles parlent réellement.

Nous avons rassemblé toutes les lois qui ont été discutées maintenant dans un tableau. 44.1. Et dans le prochain chapitre, nous utiliserons cet ensemble de lois pour trouver la relation entre la chaleur générée par le caoutchouc lorsqu'il est étiré et la tension supplémentaire qu'il exerce lorsqu'il chauffe.

Tableau 44.1 Lois de la thermodynamique

Première loi

Chaleur apportée au système + Travaux effectués sur le système = Augmentation de l'énergie interne du système :

On peut noter que le rapport entre la température du réfrigérateur et la température du radiateur est égal au rapport entre la quantité de chaleur fournie par le fluide de travail au réfrigérateur et la quantité de chaleur reçue du radiateur. Cela signifie que pour un moteur thermique idéal fonctionnant selon le cycle de Carnot, la relation suivante est satisfaite : . Attitude Lorenz nommé chaleur réduite . Pour un procédé élémentaire, la chaleur réduite sera égale à . Cela signifie que lorsque le cycle de Carnot est mis en œuvre (et c'est un processus cyclique réversible), la chaleur réduite reste inchangée et se comporte en fonction de l'état, donc, comme on le sait, la quantité de chaleur est fonction du processus.

En utilisant la première loi de la thermodynamique pour les processus réversibles, et en divisant les deux côtés de cette égalité par la température, on obtient :

(3.70)

La chaleur ne peut pas passer spontanément d’un corps plus froid à un corps plus chaud sans autre changement dans le système.

2. Entropie standard des substances. Changement d'entropie lorsque l'état d'agrégation des substances change. Calcul du changement d'entropie standard dans réaction chimique.
L'entropie (S) est une fonction thermodynamique de l'état, qui sert de mesure du désordre (désordre) d'un système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente ΔS > 0 (deuxième loi de la thermodynamique). L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. L'entropie est associée à probabilité thermodynamique relation : S = R ln W
La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R et est égale à J∙mol–1∙K–1. Le changement d'entropie *) dans les processus irréversibles et réversibles est véhiculé par les relations ΔS > Q / T et ΔS = Q / T. Par exemple, le changement de l'entropie de fusion est égal à la chaleur (enthalpie) de fusion ΔSmel = ΔHmel/Tmel. Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie ​

*) le terme d'entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).

Ici ΔS° correspond à l'entropie de l'état standard. Entropies standards substances simples ne sont pas égaux à zéro. Contrairement à d’autres fonctions thermodynamiques, l’entropie est idéalement corps cristallin au zéro absolu est égal à zéro (postulat de Planck), puisque W = 1.

L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue.

L'entropie dépend de :
-état global d'une substance. L'entropie augmente lors de la transition du solide au liquide et surtout à état gazeux(eau, glace, vapeur).
-composition isotopique (H2O et D2O).
-poids moléculaire de composés similaires (CH4, C2H6, n-C4H10).
- structure moléculaire (n-C4H10, iso-C4H10).
-structure cristalline (allotropie) – diamant, graphite.

Le changement d'entropie au cours de ce processus ( solide-liquide) la transition de phase peut être trouvée simplement si l'on considère le processus comme étant à l'équilibre.

Il s'agit d'une approximation tout à fait acceptable si l'on suppose que la différence de température entre le système et l'objet qui fournit de la chaleur au système n'est pas trop importante, bien inférieure au point de fusion. On peut alors utiliser le sens thermodynamique de l'entropie : du point de vue de la thermodynamique, l'entropie est fonction de l'état du système dont la variation dS dans un processus d'équilibre élémentaire est égale au rapport de la part de chaleur δQ que le système reçoit dans ce processus à la température du système T :

Puisque la température du système dans cette transition de phase ne change pas et est égale à la température de fusion, alors intégrande est une quantité qui ne change pas au cours du processus, elle ne dépend donc pas de la masse m de la substance. Alors

De cette formule, il s'ensuit que lors de la fusion, l'entropie augmente et lors de la cristallisation, elle diminue. Signification physique Ce résultat est assez clair : la région de phase d'une molécule dans un solide est beaucoup plus petite que dans un liquide, puisque dans un solide chaque molécule n'est accessible que petite zone espaces entre nœuds adjacents réseau cristallin, et dans un liquide, les molécules occupent toute la région de l’espace. Ainsi, à température égale, l’entropie d’un corps solide est inférieure à l’entropie d’un liquide. Cela signifie qu’un solide est un système plus ordonné et moins chaotique qu’un liquide.
L'application de l'entropie dans ce processus (liquide-gaz) peut être trouvée simplement en considérant le processus comme étant à l'équilibre. Et encore une fois, il s'agit d'une approximation tout à fait acceptable, à condition que la différence de température entre le système et le « fournisseur » de chaleur soit faible, c'est-à-dire bien inférieur au point d'ébullition. Alors

De la formule, il s'ensuit que pendant l'évaporation, l'entropie augmente et pendant la condensation, elle diminue.
La signification physique de ce résultat est la différence dans la région de phase de la molécule dans le liquide et dans le gaz. Bien que dans les liquides et les gaz, chaque molécule ait accès à toute la région de l’espace occupée par le système, cette région elle-même est nettement plus petite pour un liquide que pour un gaz. Dans un liquide, les forces d’attraction entre les molécules les maintiennent à une certaine distance les unes des autres. Ainsi, bien que chaque molécule ait la possibilité de migrer librement à travers la région de l'espace occupée par le liquide, elle n'a pas la possibilité de « se détacher du collectif » des autres molécules : dès qu'elle se détache d'une molécule, une autre est immédiatement attiré. Le volume de liquide dépend donc de sa quantité et n’est en aucun cas lié au volume du récipient.

Les molécules de gaz se comportent différemment. Ils ont beaucoup plus de liberté, la distance moyenne entre elles est telle que les forces d'attraction sont très faibles, et les molécules « ne se remarquent » que lors des collisions. De ce fait, le gaz occupe toujours tout le volume de la cuve.

Par conséquent, quand températures égales la région de phase des molécules de gaz est nettement plus grande que la région de phase des molécules liquides, et l'entropie du gaz est supérieure à l'entropie du liquide. Le gaz, comparé au liquide, est un système beaucoup moins ordonné et plus chaotique.

La variation de l'entropie molaire standard dans une réaction chimique est déterminée par l'équation :

Il est à noter que l'évolution de l'entropie dans l'exemple considéré s'avère négative. On pouvait s'y attendre étant donné que, selon l'équation de la réaction en question, la quantité totale de réactifs gazeux est de 1,5 mole et la quantité totale de produits gazeux n'est que de 1 mole. Ainsi, à la suite de la réaction, il y a une diminution nombre total gaz En même temps, nous savons que les réactions de combustion sont des réactions exothermiques. Par conséquent, le résultat de leur apparition est une dissipation d’énergie, ce qui laisse présager une augmentation de l’entropie, et non une diminution. De plus, il faut tenir compte du fait que la combustion de l'hydrogène gazeux à 25°C, provoquée par l'amorçage initial, se déroule alors spontanément et avec une grande intensité. Mais le changement d’entropie dans cette réaction ne devrait-il pas être positif dans ce cas, comme l’exige la deuxième loi de la thermodynamique ? Il s'avère que non, ou du moins pas nécessairement. La deuxième loi de la thermodynamique exige que, à la suite d'un processus spontané, l'entropie totale du système et de son environnement augmente. Le changement d'entropie calculé ci-dessus caractérise uniquement le système chimique, constitué de réactifs et de produits qui participent à la combustion de l'hydrogène gazeux à 25°C.

  • 3.3. Rotation d'un corps rigide autour d'un axe fixe, son moment d'inertie et son énergie cinétique.
  • 3.4. Moment d'impulsion. Loi de conservation du moment cinétique. Deuxième loi de la dynamique du mouvement de rotation.
  • Conférence n°4
  • 4.1. Description du mouvement du liquide et du gaz. Viscosité des liquides et des gaz.
  • 4.2. Équation de continuité.
  • 4.3. L'équation de Bernoulli et ses conclusions
  • Conférence n°5
  • 5.1. Vibrations harmoniques.
  • 5.2. Ajout de vibrations harmoniques.
  • 5.3. Ajout de vibrations perpendiculaires.
  • 5.4. Équation différentielle des oscillations.
  • 5.5. Relations énergétiques dans les processus oscillatoires.
  • 5.6. Oscillations des pendules mathématiques et physiques
  • 5.7. Équation des oscillations forcées. Résonance
  • Conférence n°6
  • 6.1.Ondes dans les milieux élastiques et leurs types. Front d'onde, ondes planes et sphériques.
  • 6.2. L'énergie des vagues
  • 6.3. Ondes élastiques dans un solide
  • Conférence n°7
  • 7.1. Dispositions de base du MKT.
  • États agrégés de la matière
  • 7.2. Lois expérimentales des gaz parfaits
  • La loi d'Avogadro
  • 7.3. Équation d'état des gaz parfaits
  • 7.4. Équation de base de la théorie cinétique moléculaire d'un gaz parfait.
  • 7.5. Loi de Maxwell pour la distribution des molécules en fonction de la vitesse.
  • 7.6. Formule barométrique. Distribution Boltzmann
  • Conférence n°8
  • 8.2. Collisions de molécules et phénomènes de transport dans un gaz parfait
  • 8.3. Nombre moyen de collisions et temps de parcours libre moyen des molécules
  • 8.4.Libre parcours moyen des molécules
  • 8.5. Diffusion dans les gaz
  • 8.6. Viscosité du gaz
  • 8.7. Conductivité thermique des gaz
  • 8.8. Osmose. Pression osmotique
  • Conférence n°9
  • 9.1. Répartition de l'énergie sur les degrés de liberté des molécules
  • 9.2. Énergie interne
  • 9.3. Travail du gaz lors de sa détente
  • 9.4. Première loi de la thermodynamique
  • 9.5. Capacité thermique. L'équation de Mayer
  • 9.6. Processus adiabatique
  • 9.7. Processus polytropique
  • 9.8. Principe de fonctionnement d'un moteur thermique. Cycle de Carnot et son efficacité.
  • 9.9. Entropie. Signification physique de l'entropie. Entropie et probabilité.
  • 9.10. La deuxième loi de la thermodynamique et sa signification statistique.
  • Conférence n°10
  • 10.1. Gaz réels, équation de van der Waals.
  • L'équation de Van der Waals décrit assez bien qualitativement le comportement du gaz lors de la liquéfaction, mais n'est pas adaptée au processus de solidification.
  • 10.2. Caractéristiques de base et modèles d'états d'agrégation et de transitions de phase.
  • Transitions de phase du second ordre. Hélium liquide. Superfluidité
  • 10.3. Tension superficielle d'un liquide. Pression de Laplace.
  • 10.4. Phénomènes capillaires
  • 10.5. Solides
  • Défauts dans les cristaux
  • Propriétés thermiques des cristaux
  • Cristaux liquides
  • Conférence n°11
  • 11.1. Propriétés électriques des corps. Charge électrique. Loi de conservation de charge
  • 11.2. loi de Coulomb
  • 11.3. Champ électrostatique. Intensité du champ électrique. Lignes de champ.
  • 11.4. Dipôle électrique
  • 11.5. Flux vectoriel de tension. Théorème d'Ostrogradsky-Gauss
  • 11.6. Le travail du champ électrostatique oblige à déplacer les charges.
  • 11.6. Potentiel. Différence potentielle. Potentiel d'une charge ponctuelle, dipôle, sphère.
  • 11.7. Relation entre l'intensité du champ électrique et le potentiel
  • 11.8. Types de diélectriques. Polarisation des diélectriques.
  • 11.9. Théorème d'Ostrogradsky-Gauss pour un champ dans un diélectrique. Relation entre vecteurs - déplacement, - tension et - polarisation
  • 11.10. Conducteurs dans un champ électrostatique
  • 11.11. Conducteur dans un champ électrostatique externe. Capacité électrique
  • 11.12. Énergie d'un conducteur chargé, d'un système conducteur et d'un condensateur
  • Conférence n°12
  • 12.1. Courant électrique. Force et densité du courant.
  • 12.3. Loi d'Ohm pour une section homogène d'une chaîne. Résistance du conducteur.
  • 12.4. Loi d'Ohm pour une section non uniforme d'un circuit
  • 12.5. Loi Joule-Lenz. Travail et puissance actuelle.
  • 12.6. Les règles de Kirchhoff
  • Conférence n°13
  • 13.1. Théorie classique de la conductivité électrique des métaux
  • 13.2. Émission thermoionique. Courant électrique dans le vide.
  • 13.3. Courant électrique dans les gaz. Types de décharge de gaz.
  • Décharge de gaz autonome et ses types
  • Conférence n°14
  • 14.1. Champ magnétique. Interaction magnétique des courants. La loi d'Ampère. Vecteur d'induction magnétique.
  • 14.2. Loi Biot-Savart-Laplace. Champ magnétique de courants rectilignes et circulaires.
  • 14.3. Circulation du vecteur induction magnétique. Champ solénoïde et toroïde
  • 14.4. Flux magnétique. Théorème de Gauss
  • 14.5. Le travail de déplacement d'un conducteur et d'un cadre avec un courant dans un champ magnétique
  • 14.6. L'effet d'un champ magnétique sur une charge en mouvement. Force de Lorentz
  • 14.7. Champ magnétique dans la matière. Magnétisation et intensité du champ magnétique.
  • 14.8. Loi du courant total pour le champ magnétique dans la matière
  • 14.9. Types d'aimants
  • Conférence 15
  • 15.1. Le phénomène d'induction électromagnétique.
  • 15.2. Phénomène d'auto-induction
  • 15.3. Énergie du champ magnétique
  • 15.4. La théorie électromagnétique de Maxwell.
  • 1) La première équation de Maxwell
  • 2) Courant de mélange. Deuxième équation de Maxwell
  • 3) Troisième et quatrième équations de Maxwell
  • 4) Le système complet des équations de Maxwell sous forme différentielle
  • 15.5. CA
  • Conférence n°16
  • 16.1. Lois fondamentales de l'optique géométrique. Réflexion interne complète de la lumière.
  • 16.2. Réflexion et réfraction de la lumière sur une surface sphérique. Lentilles.
  • 16.3. Grandeurs photométriques de base et leurs unités
  • 17.1. Interférence de la lumière. Cohérence et monochromaticité des ondes lumineuses. Longueur du trajet optique et différence de trajet optique des rayons.
  • 17.2. Méthodes d'obtention de modèles d'interférence.
  • 17.3. Interférence dans les couches minces.
  • 17.4. Revêtement optique
  • 17.5. Diffraction de la lumière et conditions de son observation. Principe de Huygens-Fresnel. Réseau de diffraction. Diffraction par un réseau spatial. Formule de Wulff-Bragg
  • 17.6. Diffraction de Fresnel à partir des obstacles les plus simples.
  • 17.7. Diffraction en faisceaux parallèles (diffraction Fraunhofer)
  • 17.8. Diffraction par réseaux spatiaux. Formule de Wolfe-Bragg.
  • 17.9. Polarisation de la lumière. Lumière naturelle et polarisée.
  • 17.10. Polarisation de la lumière pendant la réflexion et la réfraction. Loi de Brewster.
  • 17.11. Polarisation pendant la biréfringence.
  • 17.12. Rotation du plan de polarisation.
  • 17.13. Dispersion de la lumière. Absorption (absorption) de la lumière.
  • Conférence n°18
  • 18.1. Nature quantique du rayonnement. Rayonnement thermique et ses caractéristiques. La loi de Kirchhoff. Lois Stefan-Boltzmann et Wien.
  • 18.2.Types d'effet photoélectrique. Lois de l'effet photoélectrique externe. L'équation d'Einstein pour l'effet photoélectrique.
  • 18.3. Masse et élan des photons. Légère pression. Effet Compton.
  • Conférence n°19
  • 19.2. Spectre de raies de l'atome d'hydrogène.
  • 19.3. Les postulats de Bohr. Expériences de Frank et Hertz.
  • Conférence n°20
  • 20.1.Noyau atomique.
  • 20.2.Forces nucléaires.
  • 20.3. Énergie de liaison nucléaire. Défaut de masse.
  • 20.4. Réactions de fission nucléaire.
  • 2.5.Fusion thermonucléaire.
  • 20.6.Radioactivité. Loi de la désintégration radioactive.
  • Horaire de travail indépendant
  • Calendrier des travaux pratiques et laboratoires
  • Liste de questions à préparer pour le Colloque de Mécanique
  • Formules
  • Définitions
  • Questions pour l'examen
  • Règles et échantillon de travaux de laboratoire
  • 9.9. Entropie. Signification physique de l'entropie. Entropie et probabilité.

    Considérant le rendement d'un moteur thermique fonctionnant selon le cycle de Carnot, on peut noter que le rapport de la température du réfrigérateur à la température du réchauffeur est égal au rapport de la quantité de chaleur cédée par le fluide moteur à la réfrigérateur et la quantité de chaleur reçue du radiateur. Cela signifie que pour un moteur thermique idéal fonctionnant selon le cycle de Carnot, la relation suivante est vraie :
    . Attitude Lorenz a appelé chaleur réduite . Pour un procédé élémentaire, la chaleur réduite sera égale à . Cela signifie que lorsque le cycle de Carnot est mis en œuvre (et c'est un processus cyclique réversible), la chaleur réduite reste inchangée et se comporte en fonction de l'état, donc, comme on le sait, la quantité de chaleur est fonction du processus.

    En utilisant la première loi de la thermodynamique pour les processus réversibles,
    et en divisant les deux côtés de cette égalité par la température, on obtient :

    (9-41)

    Exprimons à partir de l'équation de Mendeleïev-Clapeyron
    , remplacez-le par l'équation (9-41) et obtenez :

    (9-42)

    Prenons en compte cela
    , UN
    , remplacez-les dans l'équation (9-42) et obtenez :

    (9-43)

    Le côté droit de cette égalité est un différentiel complet, donc dans les processus réversibles, la chaleur réduite est également un différentiel complet, ce qui est un signe de la fonction d'état.

    Fonction d'état dont le différentiel est , appelé entropie et est désigné S . Ainsi, l’entropie est fonction de l’état. Après avoir introduit l'entropie, la formule (9-43) ressemblera à :

    , (9-44)

    DS– incrément d'entropie. L'égalité (9-44) n'est valable que pour les processus réversibles et est pratique pour calculer la variation d'entropie au cours de processus finis :

    (9-45)

    Si un système subit un processus circulaire (cycle) de manière réversible, alors
    , et donc S=0, alors S = const.

    En exprimant la quantité de chaleur par incrément d'entropie pour un processus élémentaire et en la substituant dans l'équation de la première loi de la thermodynamique, nous obtenons une nouvelle forme d'écriture de cette équation, qui est habituellement appelée identité thermodynamique de base :

    (9-46)

    Ainsi, pour calculer la variation d’entropie au cours de processus réversibles, il est pratique d’utiliser une chaleur réduite.

    Dans le cas de processus irréversibles hors équilibre
    , et pour les processus circulaires irréversibles, il est valable Inégalité de Clausius :

    (9-47)

    Considérons ce qui arrive à l'entropie dans un système thermodynamique isolé.

    Dans un système thermodynamique isolé, avec tout changement d'état réversible, son entropie ne changera pas. Mathématiquement, cela peut s'écrire ainsi : S = const.

    Considérons ce qui arrive à l'entropie d'un système thermodynamique au cours d'un processus irréversible. Supposons que la transition de l'état 1 à l'état 2 le long du chemin L 1 est réversible, et de l'état 2 à l'état 1 le long du chemin L 2 est irréversible (Fig. 9.13).

    Alors l'inégalité de Clausius (9-47) est valide. Écrivons l'expression du membre droit de cette inégalité correspondant à notre exemple :

    .

    Le premier terme de cette formule peut être remplacé par un changement d’entropie, puisque ce processus est réversible. Alors l’inégalité de Clausius peut s’écrire :

    .

    D'ici
    . Parce que
    , alors on peut enfin écrire :

    (9-48)

    Si le système est isolé, alors
    , et l'inégalité (9-48) ressemblera à :

    , (9-49)

    T Autrement dit, l’entropie d’un système isolé augmente au cours d’un processus irréversible. La croissance de l'entropie ne se poursuit pas indéfiniment, mais jusqu'à une certaine valeur maximale caractéristique d'un état donné du système. Cette valeur d'entropie maximale correspond à un état d'équilibre thermodynamique. Une augmentation de l'entropie au cours de processus irréversibles dans un système isolé signifie que l'énergie possédée par le système devient moins disponible pour la conversion en travail mécanique. En état d’équilibre, lorsque l’entropie atteint sa valeur maximale, l’énergie du système ne peut être convertie en travail mécanique.

    Si le système n’est pas isolé, l’entropie peut diminuer ou augmenter en fonction de la direction du transfert de chaleur.

    L'entropie en fonction de l'état du système peut servir de même paramètre d'état que la température, la pression et le volume. En décrivant un processus particulier sur un diagramme (T,S), on peut donner une interprétation mathématique de la quantité de chaleur comme l'aire de la figure sous la courbe représentant le processus. La figure 9.14 montre un diagramme pour un processus isotherme en coordonnées entropie – température.

    L'entropie peut être exprimée à travers les paramètres de l'état du gaz - température, pression, volume. Pour ce faire, à partir de l'identité thermodynamique principale (9-46) nous exprimons l'incrément d'entropie :

    .

    Intégrons cette expression et obtenons :

    (9-50)

    Le changement d’entropie peut également être exprimé par une autre paire de paramètres d’état : la pression et le volume. Pour ce faire, vous devez exprimer les températures des états initial et final à partir de l'équation d'état d'un gaz parfait par la pression et le volume et les remplacer par (9-50) :

    (9-51)

    Lors de l'expansion isotherme du gaz dans un vide, T 1 = T 2, ce qui signifie que le premier terme de la formule (9-47) sera remis à zéro et que le changement d'entropie ne sera déterminé que par le deuxième terme :

    (9-52)

    Bien que dans de nombreux cas, il soit pratique d'utiliser la chaleur réduite pour calculer la variation de l'entropie, il est clair que la chaleur réduite et l'entropie sont des concepts différents et non identiques.

    Découvrons signification physique de l'entropie . Pour ce faire, nous utilisons la formule (9-52), pour un processus isotherme dans lequel le énergie interne, et tous les changements possibles dans les caractéristiques sont dus uniquement à des changements de volume. Considérons la relation entre le volume occupé par le gaz dans état d'équilibre, avec le nombre de microétats spatiaux des particules de gaz. Le nombre de microétats de particules de gaz, à l'aide desquels un macroétat donné d'un gaz en tant que système thermodynamique est réalisé, peut être calculé comme suit. Divisons le volume entier en cellules cubiques élémentaires de côté d~10 –10 m (de l'ordre de grandeur du diamètre effectif de la molécule). Le volume d'une telle cellule sera égal à d 3. Dans le premier état, le gaz occupe le volume V 1, donc le nombre de cellules élémentaires, c'est-à-dire le nombre de places N 1 que les molécules peuvent occuper dans cet état sera égal à
    . De même, pour le deuxième état de volume V 2 on obtient
    . Il est à noter que le changement de position des molécules correspond à un nouveau microétat. Tous les changements dans le microétat n’entraîneront pas un changement dans le macroétat. Supposons que les molécules puissent occuper N 1 places, alors échanger les places de n'importe quelle molécule dans ces N 1 cellules ne conduira pas à un nouveau macroétat. Cependant, la transition des molécules vers d’autres cellules entraînera une modification du macroétat du système. Le nombre de microétats d'un gaz correspondant à un macroétat donné peut être calculé en déterminant le nombre de manières de placer les particules de ce gaz dans des cellules élémentaires. Pour simplifier les calculs, considérons 1 mole d'un gaz parfait. Pour 1 mole de gaz parfait, la formule (9-52) ressemblera à :

    (9-53)

    Le nombre de microétats du système occupant le volume V 1 sera noté Г 1 et déterminé en comptant le nombre de placements N A (nombre d'Avogadro) de molécules contenues dans 1 mole de gaz dans N 1 cellules (emplacements) :
    . De même, on calcule le nombre de microétats G 2 du système occupant le volume V 2 :
    .

    Le nombre de microétats Г i à l'aide desquels le ième macroétat peut être réalisé est appelé probabilité thermodynamique de ce macroétat. Probabilité thermodynamique Г ≥ 1.

    Trouvons le rapport Г 2 /Г 1 :

    .

    Pour les gaz parfaits, le nombre places gratuites beaucoup plus grand que le nombre de molécules, c'est-à-dire N 1 >> N A et N 2 >> N A. . Puis, compte tenu de l'expression des nombres N 1 et N 2 à travers les volumes correspondants, on obtient :

    De là, nous pouvons exprimer le rapport des volumes à travers le rapport des probabilités thermodynamiques des états correspondants :

    (9-54)

    Remplacez (9-54) par (9-53) et obtenez :
    . Considérant que le rapport entre la constante molaire des gaz et le nombre d'Avogadro, il existe la constante de Boltzmann k, et aussi que le logarithme du rapport de deux quantités égal à la différence logarithmes de ces quantités, on obtient :. De là, nous pouvons conclure que l'entropie de cet état S i est déterminée par le logarithme du nombre de microétats à travers lesquels un macroétat donné est réalisé :

    (9-55)

    La formule (9-55) s'appelle La formule de Boltzmann qui l'a reçu le premier et a compris signification statistique de l'entropie , Comment fonctions de désordre . La formule de Boltzmann a une signification plus générale que la formule (9-53), c'est-à-dire qu'elle peut être utilisée non seulement pour les gaz parfaits, et permet de révéler la signification physique de l'entropie. Plus le système est ordonné, plus moins de nombre plus les microétats à travers lesquels un macroétat donné est réalisé, plus l'entropie du système est faible. Une augmentation de l'entropie dans un système isolé, où se produisent des processus irréversibles, signifie le mouvement du système vers l'état le plus probable, qui est l'état d'équilibre. On peut dire que entropie est mesure du désordre systèmes; plus il y a de désordre, plus l’entropie est élevée. C'est signification physique de l'entropie .



    Avez-vous aimé l'article? Partagez avec vos amis !