5 Définition statistique de l entropie

Documents pareils
8 Ensemble grand-canonique

Cours de Physique statistique

Premier principe : bilans d énergie

1 Thermodynamique: première loi

Physique : Thermodynamique

Capacité d un canal Second Théorème de Shannon. Théorie de l information 1/34

Chapitre 4 Le deuxième principe de la thermodynamique

Cours de Physique Statistique. Éric Brunet, Jérôme Beugnon

Initiation à la Mécanique des Fluides. Mr. Zoubir HAMIDI

DYNAMIQUE DE FORMATION DES ÉTOILES

Comparaison de fonctions Développements limités. Chapitre 10

Résolution d équations non linéaires

Chapitre 2 Le problème de l unicité des solutions

Probabilités sur un univers fini

Suites numériques 3. 1 Convergence et limite d une suite

Rupture et plasticité

Dualité dans les espaces de Lebesgue et mesures de Radon finies

O, i, ) ln x. (ln x)2

Chapitre 1. L intérêt. 2. Concept d intérêt. 1. Mise en situation. Au terme de ce chapitre, vous serez en mesure de :

Premier principe de la thermodynamique - conservation de l énergie

Modèles à Événements Discrets. Réseaux de Petri Stochastiques

Chapitre 3. Quelques fonctions usuelles. 1 Fonctions logarithme et exponentielle. 1.1 La fonction logarithme

Ernst C. G. Stueckelberg. Thermodynamique statistique. Livre V. Presses polytechniques et universitaires romandes

COURS DE MÉCANIQUE STATISTIQUE UNIVERSITÉ LYON-1. Monique Combescure. 3 janvier 1970

1.1 Codage de source et test d hypothèse

TSTI 2D CH X : Exemples de lois à densité 1

Précis de thermodynamique

Chapitre 3 LES GAZ PARFAITS : EXEMPLES DE CALCULS DE GRANDEURS THERMODYNAMIQUES

Fiche PanaMaths Calculs avec les fonctions sous Xcas

MODELES DE DUREE DE VIE

FONDEMENTS MATHÉMATIQUES 12 E ANNÉE. Mathématiques financières

1 de 46. Algorithmique. Trouver et Trier. Florent Hivert. Mél : Florent.Hivert@lri.fr Page personnelle : hivert

Compression et Transmission des Signaux. Samson LASAULCE Laboratoire des Signaux et Systèmes, Gif/Yvette

Groupe symétrique. Chapitre II. 1 Définitions et généralités

4 Distributions particulières de probabilités

Continuité et dérivabilité d une fonction

Texte Agrégation limitée par diffusion interne

BREVET DE TECHNICIEN SUPÉRIEUR AGRICOLE SUJET

La persistance des nombres

Variables Aléatoires. Chapitre 2

Chapitre 2. Matrices

PRIME D UNE OPTION D ACHAT OU DE VENTE

Une réponse (très) partielle à la deuxième question : Calcul des exposants critiques en champ moyen

LA PHYSIQUE DES MATERIAUX. Chapitre 1 LES RESEAUX DIRECT ET RECIPROQUE

OPTIMISATION À UNE VARIABLE

T.P. FLUENT. Cours Mécanique des Fluides. 24 février 2006 NAZIH MARZOUQY

Le modèle de Black et Scholes

électronique du tarif bleu

Objets Combinatoires élementaires

ÉPREUVE COMMUNE DE TIPE Partie D

Contexte. Pour cela, elles doivent être très compliquées, c est-à-dire elles doivent être très différentes des fonctions simples,

Coefficients binomiaux

Suites numériques 4. 1 Autres recettes pour calculer les limites

Eteindre. les. lumières MATH EN JEAN Mme BACHOC. Elèves de seconde, première et terminale scientifiques :

Simulation de variables aléatoires

Chapitre 6. Fonction réelle d une variable réelle

Probabilités sur un univers fini

Exo7. Limites de fonctions. 1 Théorie. 2 Calculs

Contenu pédagogique des unités d enseignement Semestre 1(1 ère année) Domaine : Sciences et techniques et Sciences de la matière

Calcul matriciel. Définition 1 Une matrice de format (m,n) est un tableau rectangulaire de mn éléments, rangés en m lignes et n colonnes.

Rappels sur les suites - Algorithme

Economie de l incertain et de l information Partie 1 : Décision en incertain probabilisé Chapitre 1 : Introduction à l incertitude et théorie de

Calcul fonctionnel holomorphe dans les algèbres de Banach

Fête de la science Initiation au traitement des images

Initiation à LabView : Les exemples d applications :

CALCUL DES PROBABILITES

Commun à tous les candidats

CONCOURS COMMUN 2010 PHYSIQUE

Cryptographie et fonctions à sens unique

Exercices - Fonctions de plusieurs variables : corrigé. Pour commencer

Calculateur quantique: factorisation des entiers

Finance, Navier-Stokes, et la calibration

G.P. DNS02 Septembre Réfraction...1 I.Préliminaires...1 II.Première partie...1 III.Deuxième partie...3. Réfraction

Précision d un résultat et calculs d incertitudes

Quantification Scalaire et Prédictive

Image d un intervalle par une fonction continue

Fonctions de plusieurs variables

Table des matières. I Mise à niveau 11. Préface

Exercice autour de densité, fonction de répatition, espérance et variance de variables quelconques.

(Ir)réversibilité et entropie

Espérance conditionnelle

Equipement d un forage d eau potable

MATLAB : COMMANDES DE BASE. Note : lorsqu applicable, l équivalent en langage C est indiqué entre les délimiteurs /* */.

Plan du chapitre «Milieux diélectriques»

Théorie des Graphes Cours 3: Forêts et Arbres II / Modélisation

8.1 Généralités sur les fonctions de plusieurs variables réelles. f : R 2 R (x, y) 1 x 2 y 2

SARM: Simulation of Absorption Refrigeration Machine

Modélisation aléatoire en fiabilité des logiciels

Saisie des chauffe-eau thermodynamiques à compression électrique

Sujet proposé par Yves M. LEROY. Cet examen se compose d un exercice et de deux problèmes. Ces trois parties sont indépendantes.

* très facile ** facile *** difficulté moyenne **** difficile ***** très difficile I : Incontournable T : pour travailler et mémoriser le cours

Maîtrise universitaire ès sciences en mathématiques

Dunod, Paris, 2014 ISBN

TS 35 Numériser. Activité introductive - Exercice et démarche expérimentale en fin d activité Notions et contenus du programme de Terminale S

Optimisation Discrète

Sur certaines séries entières particulières

AC AB. A B C x 1. x + 1. d où. Avec un calcul vu au lycée, on démontre que cette solution admet deux solutions dont une seule nous intéresse : x =

Distribution Uniforme Probabilité de Laplace Dénombrements Les Paris. Chapitre 2 Le calcul des probabilités

Exo7. Calculs de déterminants. Fiche corrigée par Arnaud Bodin. Exercice 1 Calculer les déterminants des matrices suivantes : Exercice 2.

Probabilités III Introduction à l évaluation d options

Transcription:

5 Définition statistique de l entropie 5. ntropie de Boltzmann Le principe ergodique stipule que la condition d équilibre d un système est que toutes les configurations classiques permises par les lois de conservation [les points (p, q) de l espace des phases accessibles] sont équiprobables : dans la figure ci-dessous, la probabilité que le système soit dans un état qui appartient au domaine hachuré est donc proportionnelle au volume du domaine. Intuitivement, l entropie est reliée au nombre d états accessibles : s il y a plus d états accessibles, l entropie est plus grande. Le nombre d états est une grandeur exponentielle : elle se multiplie, alors que l entropie extensive s additionne. Si l on considère deux soussystèmes qui peuvent être dans W et W états respectivement, alors le système composé de ces deux sous-sytèmes possède W W états accessibles. Pour obtenir une grandeur extensive, on pose S = k B ln W où W représente le nombre d états microscopiques accessibles, et k B est la constante de Boltzmann qui détermine l unitéde mesuredelatempérature (car T = U/ S). Si k B = (on utilise cette convention dans notre cours), alors S est sans dimension, et la température a la même dimension que l énergie. On peut montrer que c est la même constante qui apparaît dans la loi des gaz parfaits pv = Nk B T. Dans l ensemble microcanonique, W = ρ() /h N (pour avoir un nombre fini d états, on a besoin d introduire une incertitude en énergie ), donc l entropie est : S =ln [ ρ() /h N] =lnρ()+cte, où ρ() = δ (H (p, q) )dω Avec cette définition, la constante additive dans l entropie dépend de l incertitude en énergie. Cependant, dans la limite thermodynamique, cette dépendance disparaît si l on prend l entropie par particule :pour N particules, s(ε) = lim N N ln ρ N(Nε) 5. quivalence des deux définitions de l entropie On a deux définitions de l entropie :

Thermodynamique : du = Statistique : S =lnw TdS }{{} la chaleur pdv }{{} le travail Pour montrer l équivalence de ces définitions, on assume la définition statistique et obtient la relation thermodynamique pour la différentielle. Il suffit de vérifier les variations par rapport à S et à V séparement.. Si V = cte, du = TdS n est autre que la définition de la température.. Si S = cte (processus adiabatique), alors du = travail = pdv est le travail mécanique fourni. n fait, pour cette argumentation, il faut vérifier que S = cte (avec la définition statistique de S) est vraiment la condition d un processus adiabatique (quasistatique pour un système isolé). Ce résultat est fourni par le théorème adiabatique. 5. Le théorème adiabatique de la mécanique classique Le volume dans l espace des phases (et donc l entropie) se conserve dans les processus adiabatiques quasistatiques. Ce théorème est valide pour une variation arbitraire du hamiltonien suffisamment lente (plus lente que le temps typique d exploration de l espace de phases par le système). Preuve : Définissons le volume V sous la surface S d énergie constante: V = θ( H(p, q)) dω Considérons une variation infinitésimale du hamiltonien : H H + H, donc le volume de l epace des phases sous la surface S d énergie constante va varier : V V + V. Au premier ordre par rapport à H, il y a deux contributions V = V (I) (II) + V.. V (I) vient de la variation H H + H à = cte. La surface S se déforme comme V (I) = H(p, q) ds S (p,q) H = dω δ (H (p, q) ) H(p, q) = ρ() H où la moyenne est prise sur l ensemble microcanonique (voir chapitre précédent).

. V (II) vient de la variation de l énergie + à H = cte :suivantlamême démarche, V (II) = ds S (p,q) H = ρ(). Mais le changement d énergie au cours d une variation lente du Hamiltonien est = H car le système est ergodique et le changement H est suffisamment lent. Donc, V (II) = V (I). Au premier ordre, on trouve donc ce qu il fallait démontrer. V = V (I) (II) + V =0, 5.4 Définition statistique de la température Après avoir défini l entropie de manière statistique (comme logarithme du volume de l espace des phases), on peut aussi introduire la température de façon statstique par T =( U/ S) V. xercice : si l on considère le gaz parfait dans l ensemble microcanonique et définit la température de cette manière, on retrouve la loi du gaz parfait PV = Nk B T. 5.5 Paradoxe de Gibbs : particules discernables et indiscernables Si l on fait le calcul de l entropie pour un gaz parfait monoatomique, on trouve : [ ( ( ) )] 4πmε S (V,N) = N +ln V h = ( )] 4πmε [+ln N + N ln (V ) h }{{ } grandeur extensive où ε est l énergie par particule. Le terme N ln (V ) n est pas extensif.

Considérons l exemple suivant : S A (V,N)+S B (V,N) = ( )] 4πmε [+ln (N) +N ln (V ) h S A+B (V,N) = ( )] 4πmε [+ln (N) +N ln (V ) h Donc S A+B = S A + S B +N ln : l entropie n est pas extensive, augmentation d entropie spontanée. Solution au paradoxe : la formule de l entropie a été dérivée pour des particules discernables (imaginez que chaque particules porte un numéro différent, ce qui permet de la distinguer). Dans ce cas, il est normal que l entropie augmente après que l on a enlevé la paroi; en effet, les particules qui étaient dans le compartiment gauche ne sont plus contraintes d y rester, et comme elles sont différentes de celles qui étaient à droite, on a des configurations supplémentaires du système (qui correspondent à l échange des particules entre les deux compartiments), donc l entropie (liée au nombre de configurations possibles) augmente. Si par contre les particules étaient indiscernables, les configurations (particules à gauche, particule à droite) et (particules à gauche, particule àdroite) deviennent identiques (une particule à gauche, une particule à droite), et doivent donc être comptées une seule fois. Plus généralement, deux configurations qui ne diffèrent que par une permutation des particules si les particules sont discernables deviennent identiques et doivent être comptées une seule fois si les particules sont indiscernables. Le volume de l espace de phase d un système de particules indiscernables doit donc être divisé par le nombre total des permutations, soit par N! où N est le nombre de particules. Le facteur (N!) dans l expression pour le nombre d états est appelé facteur correctif de Gibbs. On trouve pour l entropie : (id pour indiscernables, d pour discernables) S id = S d ln (N!) Pour un grande nombre de particules (dans la limite thermodynamique), on peut approximer le factoriel par la formule de Stirling : N! N N e N πn, N ce qui donne S id S d N ln (N)+N 4

Appliqué au gaz parfait, on trouve ( [ ( ) ]) 5 4πmε S id (V,N) =N +ln ρ, h où ρ := N/V est la densité moyenne du gaz. S id est ainsi extensive. 5.6 L entropie comme une mesure du désordre Soit W le nombre de configurations (le volume de l espace des phases) accessibles au système. L entropie est donc S = lnw. A l équilibre, toutes les configurations possibles sont équiprobables, de probabilité p i =/W. L entropie peut être exprimée comme la somme sur toutes les configurations (l intégrale sur l espace des phases) S =lnw = f i,où i { f i = ln ( ) W W pour une configuration i possible 0 pour une configuration en dehors de W On généralise donc la définition de l entropie pour une distribution de probabilitéar- bitraire de la façon suivante : S = p i ln p i i où p i est la probabilité de trouver le système dans l état i. Propriétés :. On vérifie facilement (exercice) que S A+B = S A + S B. Donc S ainsi définie est additive.. Le maximum de S (deuxième principe : S S max ) est atteint pour p i = W : équiprobabilité des configurations possibles xemple : reprenons l exemple du gaz parfait de la section précédente, on ne considére comme degrés de liberté que l indice A ou B du sous-volume. Dans le cas où les particules sont discernables : on considère une particule dans le compartiment A. L entropie de cette particule est Avant d enlever la paroi : p A =,p B =0 S =0 5

Après l avoir enlevée : p A = p B = S =ln Si l on considère N particules, alors l augmentation totale d entropie est de N ln. Ce résultat reste applicable si l on considère que les particules en A sont indiscernables entre elles, mais discernables de celles en B, car le facteur correctif de Gibbs est le même avant et après avoir enlevé la paroi. L entropie est définie pour une distribution de probabilité arbitraire comme une mesure d incertitude. 5.7 L entropie comme une mesure d information Unités de mesure de l entropie : en thermodynamique : S = k B ln W [J K ]. dans ce cours de mécanique statistique : S = ln W [] sans dimension. en informatique : S =log W [bit]. Considérons une séquence de 0, : 000...0. Si toutes les séquences de longueur Nsontéquiprobables, la probabilité d une séquence est #total de séquence = N, on trouve donc que l entropie par caractère est s = N log ( N ) =[bit] Si par contre les séquences ne sont pas équiprobables, l entropie par caractère s est plus petite que l unité; ceci est utilisé en informatique pour compresser des fichiers de taille originale N en un fichier de taille s N xemple : si tous les bits pairs de la séquence sont 0, on trouve s = (un facteur de compression de ). xemple : L entropie de la langue anglaise est d environ. bit par caractère. 5.8 Remarque sur les deux définitions d entropie 5.8. Version classique (continue) : dω S =ln h N Cette entropie peut être négative. lle est définie à une constante additive près (dépendant de l unité de volume dans l espace des phases). c.f. C.. Shannon, Prediction and ntropy of Printed nglish, Bell System Technical Journal, Vol. 0 (95) 6

5.8. Version quantique (discrète) : S = i p i ln p i Cette entropie est toujours non-négative (car 0 p i ). lle est définie de façon unique. 5.8. Relation entre les deux définitions : On peut relier les deux versions de la définition, si on discretise l espace des phases. Considérons la densité de probabilité P (p, q) de trouver le système dans l état (p, q). La probabilité de trouver le système dans une cellule est p i = P (p, q) h N [sans dimension], donc dans la limite h 0 S = p i ln p i dω P (p, q) ln ( P (p, q) h N) = ln P (p, q) N ln h () i Ce résultat S = ln P (p, q) généralise la formule classique pour la distribution de probabilité arbitraire. Si on prend la distribution uniforme P (p, q) = cte (dans une fenêtre ), alors on retrouve la première définition S = lnw. Le remplacement de l intégrale par la somme (ou inversement) est exact dans la limite h 0. Remarquez que l entropie classique définie de cette façon devient positive dans cette limite car on yajoute Nln h +. n fait, pour approximer l intégale par une somme, il suffit que la taille de cellules soit inférieure àl échelle de variation de P (p, q). n mécanique quantique, il y a une échelle minimale pour la variation de la distribution de probabilité P (p, q) reliée àlarelation d incertitude p x h. Il suffit donc de prendre les cellules de volume h N (où h est la constante de Planck) pour que l entropie () soit positive. 7