retour index

chapitre 5

Entropie statistique

Retour sur l'énergie interne

L'entropie statistique

Entropie du gaz parfait

Le modèle du gaz parfait

 

Telle qu'elle a été introduite au chapitre précédent, on a de la peine à trouver le sens physique de l'entropie. L'entropie est une mesure du désordre d'un système, et celui-ci ne peut se définir que dans le cadre de la physique statistique. Pour comprendre l'entropie, il faut donc définir l'entropie statistique, qui est la véritable définition de l'entropie.

Retour sur l'énergie interne

Un système est en équilibre thermodynamique s'il est en équilibre thermique, mécanique, et chimique (ou chimio-osmotique).

L'expression du travail mécanique pour une transformation réversible est $\delta W=-pdV,$ produit de la variable intensive p (en fait, -p) par la différentielle de la variable extensive conjuguée V.

L'équilibre thermique fait intervenir la température. C'est une variable intensive. Comme pour l'équilibre mécanique, elle est associée à une variable extensive que l'on note entropie S, et l'énergie échangée, qui est dans ce cas la chaleur, s'écrit $\delta Q=TdS.$

L'équilibre chimio-osmotique fait intervenir la variable extensive nombre de moles n (dans le cas d'un seul constituant ;s'il y a plusieurs constituants, il y a plusieurs variables $n_{i},$ nombre de moles du constituant i). La variable intensive associée est le potentiel chimique $\mu ,$ et la variation d'énergie chimique ou osmotique associée est $\mu dn.$

Les 3 variables intensives T, p et $\mu $ sont des variables intensives de type champ, qui prennent la même valeur pour le système et son environnement à l'équilibre thermodynamique, par opposition aux variables intensives de type densité, définie comme le rapport de deux variables extensives, telle que la masse volumique MATH
MATH
L'énergie interne U est fonction des variables S, V et n, et l'on peut écrire $U=U(S,V,n),$ d'où
MATH
On définit
MATH
d'où
MATH
qui est l'identité thermodynamique. T, p et $\mu $ se déduisent de la donnée de U(S,V,n). Par contre, si l'on se donnait U(T,V,n), par exemple, on ne pourrait pas en déduire l'entropie S. La donnée de U(S,V,n) donne le maximum d'information sur le système. C'est la raison pour laquelle S, V et n sont les variables naturelles de U.

La température ainsi définie est la température thermodynamique ;on va voir, à la suite du calcul de l'entropie d'un gaz parfait, qu'elle s'identifie en fait à la température cinétique définie par l'équation $pV=nRT$ des gaz parfaits.

De la première relation, il s'ensuit que dans une transformation réversible où n est constant (système fermé), on a :MATH et $\delta Q=TdS$, conformément à la formulation classique de l'entropie pour une transformation réversible.

début chapitre

L'entropie statistique

Etat macroscopique et états microscopiques

Voyons sur un exemple la distinction entre état macroscopique et état microscopique.

Soient 12 particules discernables (numérotées) à répartir entre 2 compartiments à l'intérieur d'un récipient.

Un état macroscopique du système est un état global défini par un nombre déterminé de particules dans chaque compartiment.

L'état macroscopique correspond à un certain nombre d'états microscopiques, ou complexions, ou états accessibles, qui sont les différents états physiques réalisant l'état macroscopique donné. Par exemple, si l'état macroscopique est 5 particules à gauche et 7 à droite, un état microscopique sera par exemple :à gauche les particules 1,3,5,7,9, à droite, les autres.

Le nombre d'états microscopiques $\Omega $ est égal au nombre de façons de regrouper $N_{1}$ particules parmi les N ;c'est le nombre de combinaisons
MATH

Par exemple, pour $N=12,$ le nombre total d'états microscopiques est $2^{N}=4096.$ Pour $N_{1}$ particules à gauche, faisons la liste des
MATH
$.$
MATH

Chaque état microscopique étant équiprobable et de probabilité $1/2^{N},$ l'état le plus probable correspond à un nombre égal de particules dans chaque compartiment, de probabilité $924/4096=0,225,$ et la probabilité pour qu'il y ait 5, 6 ou 7 particules dans chaque compartiment est 0,612.

Lorsque le nombre de particules est grand, la distribution devient très pointue autour de la valeur maximale, ce qui fait qu'aux fluctuations près, on est à peu près sûr de trouver le même nombre de particules dans chaque compartiment, correspondant à l'état le plus probable. Le système se met donc naturellement dans l'état macroscopique qui correspond au nombre maximal de microétats. L'information sur l'état d'équilibre est contenue dans la donnée de $\Omega ,$ et l'entropie va être reliée naturellement à ce nombre $\Omega $ (en fait à son logarithme, pour avoir une fonction extensive).

Définition statistique de l'entropie

Boltzmann définit l'entropie statistique d'un état macroscopique par la formule
MATH

$k_{B}$ est la constante de Boltzmann, de valeur numérique 1,38MATH et $\Omega $ le nombre d'états microscopiques correspondant à l'état macroscopique considéré. La constante de Boltzmann est introduite afin d'identifier les températures cinétique et thermodynamique.

Ainsi définie, l'entropie est extensive, car, si l'on considère un système constitué de deux sous-systèmes indépendants, on a
MATH

Théorème d'extremum

Soit un récipient adiabatique pourvu d'une cloison intérieure amovible permettant de le diviser en deux compartiments. Cette cloison est une contrainte interne placée au sein du système constitué par le récipient entier. Si la cloison est thermiquement isolée, les deux compartiments sont indépendants ;supposons qu'ils soient séparément à l'équilibre ;alors, le système entier est à l'équilibre, mais il s'agit d'un état d'équilibre contraint.

Si l'on retire la cloison, le système évolue vers un nouvel état d'équilibre, qui est l'état d'équilibre naturel du système.

Soient $\Omega _{cont}$ le nombre d'états microscopiques accessibles au système en présence de la cloison, et $\Omega _{nat}$ le nombre d'états microscopiques accessibles au système après suppression de la contrainte, il est clair que, parmi tous les états microscopiques de l'équilibre naturel figurent les états microscopiques de l'état contraint (comme si les particules n'avaient pas bougé lors de la suppression de la contrainte), en plus de nombreux autres états où les particules se sont mélangées. On a donc
MATH

En conclusion, si l'on compare des états d'équilibre contraints à l'état d'équilibre naturel pour les mêmes valeurs de U, V et n, l'entropie est maximale à l'équilibre naturel.

Dans la situation contrainte, soient $U_{1,}$ $V_{1}$ et $n_{1}$ dans le premier compartiment et $U_{2,}$ $V_{2}$ et $n_{2}$ dans le second. L'entropie de la situation contrainte s'écrit :
MATH
avec $U_{2}=U-U_{1},$ $V_{2}=V-V_{1}$ et $n_{2}=n-n_{1}.$

L'état d'équilibre naturel maximise l'entropie $S_{cont}$ à U, V et n constants, soit
MATH
La première de ces équations s'écrit :
MATH
soit
MATH
Les autres équations montrent que $p_{1}=p_{2}$ et $\mu _{1}=\mu _{2}.$

D'où l'on déduit que les paramètres T , p et $\mu $ ont la même valeur en tout point d'un système à l'état d'équilibre naturel.

On peut alors compléter l'équivalence des deux définitions de l'entropie, car on a vu que, pour une transformation réversible, MATH Une fois la chaleur échangée, en supposant le système désormais isolé, son entropie ne peut que croître par suppression de contraintes internes et mise à égalité des paramètres intensifs. On a donc dans le cas général
MATH

le cas $\delta S^{p}>0$ étant celui d'une transformation irréversible, et $\delta S^{p}=0$ correspondant à une transformation réversible.

Il reste à montrer l'identité des températures thermodynamique et cinétique, ce que va nous montrer le calcul de l'entropie statistique d'un gaz parfait monoatomique.

début chapitre

Entropie du gaz parfait

Le calcul statistique de l'entropie d'un gaz parfait se base sur la mécanique quantique. On peut également l'obtenir en mécanique classique, mais au prix d'une hypothèse artificielle de découpage de l'espace des phases, qui est en fait une hypothèse quantique. C'est l'approche qualifiée de semi-classique. Nous effectuerons ce calcul plus naturellement en mécanique quantique, puisqu'au niveau moléculaire où l'on travaille, c'est celle-ci qui s'applique.

Energie d'une particule dans une boite

Plaçons nous d'abord dans un espace à une dimension. Le problème est de chercher les états stationnaires d'une particule dans un puits de potentiel infini, dont l'énergie potentielle s'écrit :
MATH

A l'intérieur du segment, on doit résoudre l'équation de Schrödinger indépendante du temps :
MATH
La solution, qui s'annule en $x=0$ et en $x=L,$ a la forme MATH avec MATH et $k_{n}L=n\pi ,$ avec n un entier positif ($\Phi (x)$ et $-\Phi (x)$ correspondent au même état physique).

L'énergie $\varepsilon _{n}$ est quantifiée et vaut MATH

Le problème à trois dimensions se résoud de la même façon. L'énergie dépend de 3 entiers n , p, q, et vaut
MATH
Dans l'espace des vecteurs d'onde, la surface d'énergie constante $\varepsilon $ est donc une sphère de rayon MATH et de volume MATH

Les états quantiques d'énergie inférieure ou égale à $\varepsilon $ correspondent dans l'espace $k_{x}>0,$ $k_{y}>0$ et $k_{z}>0,$ avec $k_{x}L=n\pi ,$ $k_{y}L=p\pi $ et $k_{z}L=q\pi ,$ aux noeuds du réseau dont la maille élémentaire a pour côtés MATH et MATH de volume MATH avec MATH

Le nombre de ces états quantiques est


MATH

début chapitre

Le modèle du gaz parfait

Pour passer au modèle du gaz parfait, il faut considérer $N$ particules sans interactions.

Supposons d'abord les molécules discernables. L'énergie du système est la somme des énergies cinétiques des N particules, soit
MATH
La surface d'énergie constante E est donc une ''hypersphère'' dans un espace à 3N dimensions. Le volume de cette hypersphère, de rayon MATH s'écrit (si N pair), MATH

Le nombre d'états quantiques, qui, pour une particule, s'écrit MATH devient pour N particules discernables:
MATH

En fait, les particules sont indiscernables. Il faut diviser par $N!,$ nombre de permutations possibles sur les numéros des N atomes, à condition que les vecteurs d'onde soient différents (c'est la ``limite classique'').

On obtient
MATH
Le nombre d'états quantiques $\delta \Phi ,$ d'énergie comprise entre E et $E+\delta E,$ à V et N fixés, s'écrit
MATH
La formule de Stirling MATH ou MATH permet de simplifier
MATH
On en tire
MATH
On constate que seuls les trois premiers termes sont extensifs, ce qui fait qu'à la ``limite thermodynamique'' ($N\gg 1$), le dernier terme est négligeable et le résultat ne dépend pas de la fenêtre d'énergie $\delta E$ choisie.

En négligeant ce terme, en remarquant que E s'identifie à l'énergie interne U et en notant $\Omega $ le nombre d'états quantiques, on obtient
MATH
pour un gaz parfait monoatomique, à la limite thermodynamique.

Des dérivées partielles de S(U,V,N), en identifiant avec MATH on déduit les trois équations d'état :
MATH

MATH

MATH
En comparant la deuxième équation d'état, où $T$ est la température thermodynamique, avec l'équation d'état de définition des gaz parfaits $pV=nRT,$T est la température absolue cinétique, on voit que la température thermodynamique s'identifie avec la température absolue à condition de poser
MATH
C'est la raison pour laquelle on a introduit la constante de Boltzmann dans la définition statistique de l'entropie.

Retour sur l'entropie

Revenons sur la signification de l'entropie.

Chaque sorte de molécules a tendance spontanément à occuper tout l'espace offert et à répartir uniformément son énergie cinétique entre les différents degrés de liberté, parce que c'est l'état le plus probable, et le second principe dit simplement que tout système évolue vers l'état le plus probable, correspondant à la plus grande entropie.

Remarquons que ce sont les chocs entre particules qui sont l'agent physique de l'homogénéisation.

Les chocs sont en effet soumis à la sensibilité aux conditions initiales, ce qui veut dire que le moindre changement dans les conditions initiales du système entraine des trajectoires rapidement différentes. Ne pouvant pas connaitre avec une précision infinie le point de départ, on ne peut donc connaitre que le futur immédiat du système. Deux trajectoires corrélées au départ sont rapidement décorrélées et deviennent indépendantes. Il s'ensuit que tout groupement ou ordre initial disparait rapidement au profit d'une homogénéité chaotique dans la disposition spatiale et dans la distribution des vitesses. C'est là l'origine physique de l'entropie.

début chapitre

retour index