5 Définition statistique de l entropie 5. ntropie de Boltzmann Le principe ergodique stipule que la condition d équilibre d un système est que toutes les configurations classiques permises par les lois de conservation [les points (p, q) de l espace des phases accessibles] sont équiprobables : dans la figure ci-dessous, la probabilité que le système soit dans un état qui appartient au domaine hachuré est donc proportionnelle au volume du domaine. Intuitivement, l entropie est reliée au nombre d états accessibles : s il y a plus d états accessibles, l entropie est plus grande. Le nombre d états est une grandeur exponentielle : elle se multiplie, alors que l entropie extensive s additionne. Si l on considère deux soussystèmes qui peuvent être dans W et W états respectivement, alors le système composé de ces deux sous-sytèmes possède W W états accessibles. Pour obtenir une grandeur extensive, on pose S = k B ln W où W représente le nombre d états microscopiques accessibles, et k B est la constante de Boltzmann qui détermine l unitéde mesuredelatempérature (car T = U/ S). Si k B = (on utilise cette convention dans notre cours), alors S est sans dimension, et la température a la même dimension que l énergie. On peut montrer que c est la même constante qui apparaît dans la loi des gaz parfaits pv = Nk B T. Dans l ensemble microcanonique, W = ρ() /h N (pour avoir un nombre fini d états, on a besoin d introduire une incertitude en énergie ), donc l entropie est : S =ln [ ρ() /h N] =lnρ()+cte, où ρ() = δ (H (p, q) )dω Avec cette définition, la constante additive dans l entropie dépend de l incertitude en énergie. Cependant, dans la limite thermodynamique, cette dépendance disparaît si l on prend l entropie par particule :pour N particules, s(ε) = lim N N ln ρ N(Nε) 5. quivalence des deux définitions de l entropie On a deux définitions de l entropie :
Thermodynamique : du = Statistique : S =lnw TdS }{{} la chaleur pdv }{{} le travail Pour montrer l équivalence de ces définitions, on assume la définition statistique et obtient la relation thermodynamique pour la différentielle. Il suffit de vérifier les variations par rapport à S et à V séparement.. Si V = cte, du = TdS n est autre que la définition de la température.. Si S = cte (processus adiabatique), alors du = travail = pdv est le travail mécanique fourni. n fait, pour cette argumentation, il faut vérifier que S = cte (avec la définition statistique de S) est vraiment la condition d un processus adiabatique (quasistatique pour un système isolé). Ce résultat est fourni par le théorème adiabatique. 5. Le théorème adiabatique de la mécanique classique Le volume dans l espace des phases (et donc l entropie) se conserve dans les processus adiabatiques quasistatiques. Ce théorème est valide pour une variation arbitraire du hamiltonien suffisamment lente (plus lente que le temps typique d exploration de l espace de phases par le système). Preuve : Définissons le volume V sous la surface S d énergie constante: V = θ( H(p, q)) dω Considérons une variation infinitésimale du hamiltonien : H H + H, donc le volume de l epace des phases sous la surface S d énergie constante va varier : V V + V. Au premier ordre par rapport à H, il y a deux contributions V = V (I) (II) + V.. V (I) vient de la variation H H + H à = cte. La surface S se déforme comme V (I) = H(p, q) ds S (p,q) H = dω δ (H (p, q) ) H(p, q) = ρ() H où la moyenne est prise sur l ensemble microcanonique (voir chapitre précédent).
. V (II) vient de la variation de l énergie + à H = cte :suivantlamême démarche, V (II) = ds S (p,q) H = ρ(). Mais le changement d énergie au cours d une variation lente du Hamiltonien est = H car le système est ergodique et le changement H est suffisamment lent. Donc, V (II) = V (I). Au premier ordre, on trouve donc ce qu il fallait démontrer. V = V (I) (II) + V =0, 5.4 Définition statistique de la température Après avoir défini l entropie de manière statistique (comme logarithme du volume de l espace des phases), on peut aussi introduire la température de façon statstique par T =( U/ S) V. xercice : si l on considère le gaz parfait dans l ensemble microcanonique et définit la température de cette manière, on retrouve la loi du gaz parfait PV = Nk B T. 5.5 Paradoxe de Gibbs : particules discernables et indiscernables Si l on fait le calcul de l entropie pour un gaz parfait monoatomique, on trouve : [ ( ( ) )] 4πmε S (V,N) = N +ln V h = ( )] 4πmε [+ln N + N ln (V ) h }{{ } grandeur extensive où ε est l énergie par particule. Le terme N ln (V ) n est pas extensif.
Considérons l exemple suivant : S A (V,N)+S B (V,N) = ( )] 4πmε [+ln (N) +N ln (V ) h S A+B (V,N) = ( )] 4πmε [+ln (N) +N ln (V ) h Donc S A+B = S A + S B +N ln : l entropie n est pas extensive, augmentation d entropie spontanée. Solution au paradoxe : la formule de l entropie a été dérivée pour des particules discernables (imaginez que chaque particules porte un numéro différent, ce qui permet de la distinguer). Dans ce cas, il est normal que l entropie augmente après que l on a enlevé la paroi; en effet, les particules qui étaient dans le compartiment gauche ne sont plus contraintes d y rester, et comme elles sont différentes de celles qui étaient à droite, on a des configurations supplémentaires du système (qui correspondent à l échange des particules entre les deux compartiments), donc l entropie (liée au nombre de configurations possibles) augmente. Si par contre les particules étaient indiscernables, les configurations (particules à gauche, particule à droite) et (particules à gauche, particule àdroite) deviennent identiques (une particule à gauche, une particule à droite), et doivent donc être comptées une seule fois. Plus généralement, deux configurations qui ne diffèrent que par une permutation des particules si les particules sont discernables deviennent identiques et doivent être comptées une seule fois si les particules sont indiscernables. Le volume de l espace de phase d un système de particules indiscernables doit donc être divisé par le nombre total des permutations, soit par N! où N est le nombre de particules. Le facteur (N!) dans l expression pour le nombre d états est appelé facteur correctif de Gibbs. On trouve pour l entropie : (id pour indiscernables, d pour discernables) S id = S d ln (N!) Pour un grande nombre de particules (dans la limite thermodynamique), on peut approximer le factoriel par la formule de Stirling : N! N N e N πn, N ce qui donne S id S d N ln (N)+N 4
Appliqué au gaz parfait, on trouve ( [ ( ) ]) 5 4πmε S id (V,N) =N +ln ρ, h où ρ := N/V est la densité moyenne du gaz. S id est ainsi extensive. 5.6 L entropie comme une mesure du désordre Soit W le nombre de configurations (le volume de l espace des phases) accessibles au système. L entropie est donc S = lnw. A l équilibre, toutes les configurations possibles sont équiprobables, de probabilité p i =/W. L entropie peut être exprimée comme la somme sur toutes les configurations (l intégrale sur l espace des phases) S =lnw = f i,où i { f i = ln ( ) W W pour une configuration i possible 0 pour une configuration en dehors de W On généralise donc la définition de l entropie pour une distribution de probabilitéar- bitraire de la façon suivante : S = p i ln p i i où p i est la probabilité de trouver le système dans l état i. Propriétés :. On vérifie facilement (exercice) que S A+B = S A + S B. Donc S ainsi définie est additive.. Le maximum de S (deuxième principe : S S max ) est atteint pour p i = W : équiprobabilité des configurations possibles xemple : reprenons l exemple du gaz parfait de la section précédente, on ne considére comme degrés de liberté que l indice A ou B du sous-volume. Dans le cas où les particules sont discernables : on considère une particule dans le compartiment A. L entropie de cette particule est Avant d enlever la paroi : p A =,p B =0 S =0 5
Après l avoir enlevée : p A = p B = S =ln Si l on considère N particules, alors l augmentation totale d entropie est de N ln. Ce résultat reste applicable si l on considère que les particules en A sont indiscernables entre elles, mais discernables de celles en B, car le facteur correctif de Gibbs est le même avant et après avoir enlevé la paroi. L entropie est définie pour une distribution de probabilité arbitraire comme une mesure d incertitude. 5.7 L entropie comme une mesure d information Unités de mesure de l entropie : en thermodynamique : S = k B ln W [J K ]. dans ce cours de mécanique statistique : S = ln W [] sans dimension. en informatique : S =log W [bit]. Considérons une séquence de 0, : 000...0. Si toutes les séquences de longueur Nsontéquiprobables, la probabilité d une séquence est #total de séquence = N, on trouve donc que l entropie par caractère est s = N log ( N ) =[bit] Si par contre les séquences ne sont pas équiprobables, l entropie par caractère s est plus petite que l unité; ceci est utilisé en informatique pour compresser des fichiers de taille originale N en un fichier de taille s N xemple : si tous les bits pairs de la séquence sont 0, on trouve s = (un facteur de compression de ). xemple : L entropie de la langue anglaise est d environ. bit par caractère. 5.8 Remarque sur les deux définitions d entropie 5.8. Version classique (continue) : dω S =ln h N Cette entropie peut être négative. lle est définie à une constante additive près (dépendant de l unité de volume dans l espace des phases). c.f. C.. Shannon, Prediction and ntropy of Printed nglish, Bell System Technical Journal, Vol. 0 (95) 6
5.8. Version quantique (discrète) : S = i p i ln p i Cette entropie est toujours non-négative (car 0 p i ). lle est définie de façon unique. 5.8. Relation entre les deux définitions : On peut relier les deux versions de la définition, si on discretise l espace des phases. Considérons la densité de probabilité P (p, q) de trouver le système dans l état (p, q). La probabilité de trouver le système dans une cellule est p i = P (p, q) h N [sans dimension], donc dans la limite h 0 S = p i ln p i dω P (p, q) ln ( P (p, q) h N) = ln P (p, q) N ln h () i Ce résultat S = ln P (p, q) généralise la formule classique pour la distribution de probabilité arbitraire. Si on prend la distribution uniforme P (p, q) = cte (dans une fenêtre ), alors on retrouve la première définition S = lnw. Le remplacement de l intégrale par la somme (ou inversement) est exact dans la limite h 0. Remarquez que l entropie classique définie de cette façon devient positive dans cette limite car on yajoute Nln h +. n fait, pour approximer l intégale par une somme, il suffit que la taille de cellules soit inférieure àl échelle de variation de P (p, q). n mécanique quantique, il y a une échelle minimale pour la variation de la distribution de probabilité P (p, q) reliée àlarelation d incertitude p x h. Il suffit donc de prendre les cellules de volume h N (où h est la constante de Planck) pour que l entropie () soit positive. 7