En physique statistique, l'ensemble microcanonique est un ensemble statistique[1],[2] constitué des répliques fictives d'un système réel pouvant être considéré comme isolé[N 1], par suite dont l'énergie (E), le volume (V) et le nombre de particules (N) sont fixés. Cet ensemble statistique a une importance particulière, car c'est à partir de celui-ci que le postulat de la physique statistique est défini. Cet ensemble permet aussi de déterminer les ensembles canonique et grand-canonique, à l'aide d'échanges d'énergie et/ou de particules avec un réservoir.
Le terme d'ensemble microcanonique a été introduit par Gibbs dans son traité fondateur de la mécanique statistique[3]. Toutefois Boltzmann avait déjà considéré une telle situation, qu'il avait nommé ergode dans un article de 1884[4],[5].
En physique statistique, la description macroscopique d'un système va faire appel à un certain nombre de grandeurs macroscopiques, telles que l'énergie, la température, le volume, la pression, le nombre de particules, etc. Pour un système donné, certaines de ces grandeurs peuvent être fixées, à une incertitude près[N 2]: dans ce cas il s'agit de paramètres extérieurs (ou contraintes) imposés au système. A contrario, certaines grandeurs thermodynamiques seront libres de fluctuer selon les contraintes imposées au système: une telle grandeur est appelée variable interne.
Par exemple, dans le cas d'un gaz contenu dans un récipient pouvant être considérée comme indéformable, le volume total V est un paramètre extérieur. La pression de ce gaz pourra varier au sein de ce récipient, par exemple en fonction de sa température, et sera donc une variable interne. Il est aussi possible de considérer le cas d'un gaz dans un récipient déformable, par exemple muni d'un piston étanche : dans ce cas la pression pourra être un paramètre extérieur, alors que le volume, libre de fluctuer selon les contraintes imposées, deviendra une variable interne.
Dans le cas microcanonique, le système, supposé constitué d'objets microscopiques identiques[N 3], pouvant être des atomes, des molécules, etc., est considéré comme isolé, c'est-à-dire qu'il ne peut pas échanger de masse ou d'énergie avec l'extérieur[N 1]. Il en résulte que les valeurs de son énergie totale E, de son volume V ainsi que du nombre de particules N qu'il contient sont fixées[N 4].
L'ensemble statistique constitué des répliques fictives d'un système réel dont l'énergie E, le volume V et le nombre particules N sont fixées est appelé par définition ensemble microcanonique. Bien entendu, il s'agit d'une situation idéalisée, qui n'est pas exactement réalisable en pratique. Toutefois, cet ensemble est important sur le plan théorique car il permet d'énoncer le postulat fondamental de la physique statistique, et également de servir de base pour établir la distribution statistique des états internes à l'équilibre dans les cas canonique et grand-canonique, qui correspondent à des situations plus "réalistes" en pratique.
Remarque: la situation envisagée est ici celle d'un volume fixé d'un corps pur, sans échange d'énergie avec l'extérieur, donc thermiquement isolé. Il est bien sûr possible d'étendre le raisonnement à d'autres situations, par exemple pour un système ayant des propriétés électriques ou magnétiques, la polarisation ou l'aimantation pourront être fixées en même temps que son énergie, son volume et nombre de particules totaux.
Au niveau microscopique, la donnée des paramètres microscopiques de chacune des particules constituant le système correspond à un "micro-état" (ou état interne) de celui-ci. Par exemple, pour un gaz parfait, un micro-état sera spécifié par la donnée de l'ensemble des positions, vitesses, énergies, masses... de toutes les particules.
Pour des valeurs fixes de E, V et N, le système considéré va en revanche évoluer à l’équilibre vers un "macro-état" donné où, outre les paramètres extérieurs fixés, les variables internes telles que sa température, sa pression, etc. auront également des valeurs fixées, aux fluctuations microscopiques près. À un tel macro-état du système correspond un (très grand) nombre de micro-états, les différentes particules passant continuellement d'un micro-état à l'autre, y compris à l'équilibre[N 5].
L'existence de contraintes extérieures limite en principe le nombre de micro-états dans lesquels le système peut se trouver à l'équilibre thermodynamique. L'ensemble de ces micro-états, compatibles avec les contraintes extérieures du système, constitue les états accessibles de celui-ci, dont le nombre est noté Ω (notation introduite par Boltzmann).
Il est important de souligner que pour un système macroscopique Ω est toujours fantastiquement grand, de l'ordre de grandeur minimum de la constante d'Avogadro, voire souvent beaucoup plus. En effet, pour une valeur de l'énergie totale du système il existe de très nombreuses possibilités de répartition de l'énergie au sein de ses différents micro-états, dès lors que le nombre de particules est suffisamment grand[N 6]
Par ailleurs, la question des incertitudes sur les valeurs des paramètres extérieurs que sont l'énergie, le volume et le nombre de particules, n'est pas seulement d'ordre pratique, mais est en réalité très importante pour la cohérence interne de la théorie.
En effet, au niveau microscopique, et donc pour un micro-état donné, il convient d'avoir recours à la mécanique quantique, et donc de tenir compte de la quantification des états d'énergie des différentes particules. Or si la valeur de l'énergie totale était exactement fixée à une valeur E, il est très improbable que lors du passage d'un micro-état à un autre la somme des énergies microscopiques des différentes particules du système redonne exactement cette valeur E, ce qui conduirait à des variations arbitraires du nombre d'états accessibles avec la valeur de E.
En revanche s'il est tenu compte de l'incertitude δE sur la valeur de l'énergie totale E (et δV sur le volume total, δN sur le nombre de particules), avec δE faible devant E mais très grand devant l'espacement moyen entre les niveaux d'énergie microscopiques, cette difficulté disparaît.
Ceci étant précisé, il est clair qu'à un macro-état donné du système, il va correspondre une distribution statistique de ses Ω états accessibles. Dans le cas d'un système isolé, le postulat de la physique statistique précise pour un système isolé (E, V, N fixés) :
c'est-à-dire les états du système sont également probables.
Si désigne la probabilité associée à chaque micro-état i, ce postulat implique alors que pour tout micro-état accessible du système à l'équilibre:
Il peut sembler étrange que tous les états accessibles aient la même probabilité pour un système isolé. Ainsi, pour un gaz contenu dans une enceinte rigide, thermiquement isolée, et étanche, il paraît impossible que toutes les molécules du gaz puissent se trouver dans une seule moitié du récipient, quand bien même l'énergie totale resterait égale à E. De fait, le principe fondamental de la physique statistique prévoit que cette configuration est aussi probable que chacune de celles où les molécules sont réparties sur tout le volume de l'enceinte. Toutefois, le nombre total de ces dernières est bien supérieur à la configuration précédente, aussi la probabilité que cette configuration soit effectivement réalisée est excessivement faible.
Dans l'ensemble microcanonique, l'entropie statistique a été définie par Boltzmann par la relation :
où s'appelle la constante de Boltzmann.
Cette relation peut être obtenue à partir de l'expression générale de l'entropie statistique d'un système quelconque pour laquelle la distribution des états accessibles à l'équilibre est donnée par :
la sommation portant sur la totalité des états accessibles du système à l'équilibre. Or dans le cas microcanonique où pour tout micro-état i , il est facile de vérifier par substitution que l'on obtient bien l'expression précédente de l'entropie dite microcanonique.
Le postulat fondamental précédent pourrait bien sûr être discuté dans son principe. De fait, il revient à considérer que pour un système isolé à l'équilibre, aucun micro-état accessible n'est privilégié par rapport à un autre. Il s'agit d'une hypothèse à tout le moins raisonnable dans le cas d'un tel système: elle correspond de fait à l'information minimale que l'on peut avoir sur la distribution des états accessibles de celui-ci. En effet, il n'existe aucun moyen de savoir compte tenu des contraintes extérieures imposées au système, qu'un micro-état puisse être plus probable qu'un autre.
De fait, il est possible de façon équivalente au postulat précédent de considérer que pour un système isolé, celui-ci évolue spontanément vers un état d'équilibre tel que l'entropie est maximale, compte tenu des contraintes extérieures. Ceci permet en fait de retrouver la formulation classique du second principe de la thermodynamique pour un système isolé.
Il est alors possible de démontrer, en maximisant la valeur de l'entropie statistique sous la contrainte de normalisation de la distribution de probabilité, par exemple par la méthode des multiplicateurs de Lagrange, que la seule distribution de probabilité rendant l'entropie maximale est celle donnée précédemment.
Dans la situation microcanonique il est possible de définir diverses grandeurs thermodynamiques comme la température, la pression et le potentiel chimique du système considéré, qui traduisent en fait les conditions d'équilibre respectivement thermique, mécanique et chimique du système.
Il convient de préciser que cette notion d'équilibre peut se définir de deux façons. Un système peut être considéré comme ayant atteint l'équilibre si:
Par "sous-système" il est entendu une partie du système considérée, de dimensions et / ou de nombre de particules petits devant celles du système, mais qui peut encore être considérée comme macroscopique[7],. Ainsi par exemple, si le système est constitué d'un litre d'air dans les conditions ordinaires, des sous-systèmes d'un volume de 10 μm3, soit 1 pL, bien que semblant de très petites dimensions à l'échelle de l'observateur, satisferont encore largement à ces conditions[N 7].
C'est cette seconde définition de l'équilibre d'un système qui est intéressante afin de définir les différentes grandeurs thermodynamiques de celui-ci.
Soit un système constitué de la réunion de deux sous-systèmes isolés (1) et (2), dont les énergies sont données par et . Comme les deux sous-systèmes sont supposés isolés l'un de l'autre, l'énergie du système global est simplement la somme des énergies des deux sous-systèmes: (il en est de même pour le volume ou le nombre de particules globaux).
De même le nombre d'état accessibles du système global d'énergie E, de volume V et de nombre de particules N est donné par , ce qui traduit l'indépendance statistique entre les micro-états des deux sous-systèmes, évidente du fait de l'absence d'interaction entre eux.
Cette formule implique bien sûr que l'entropie du système global est égale à la somme des entropies des deux sous-systèmes: :.
Si maintenant les deux sous-systèmes sont mis en contact thermique l'un avec l'autre, c'est-à-dire qu'ils peuvent échanger de l'énergie par exemple via une paroi fixe, non poreuse, mais diatherme, il n'y a aucune raison que les relations précédentes restent valables. En effet, il faudrait normalement tenir compte des interactions entre les particules constituants les deux sous-systèmes, le hamiltonien global contenant désormais un terme d'interaction: .
Ainsi, il ne sera normalement plus possible de définir séparément l'énergie de chacun des deux sous-systèmes, du fait de ces interactions: les énergies et sont désormais des variables internes, libres de fluctuer, seule leur somme étant fixée à tout moment puisque le système global demeure isolé. De ce fait d'ailleurs, seule peut être considérée comme une variable interne puisque n'est pas indépendante de celle-ci.
Par suite, le nombre d'états accessibles du système n'a aucune raison d'être donné par le produit des états accessibles des deux sous-systèmes, qui ne sont pas statistiquement indépendants, et donc l'entropie n'est pas a priori additive.
Toutefois, pour la plupart des systèmes macroscopiques, il est possible de faire l'hypothèse du couplage faible, autrement dit . Il est possible de montrer[8] que cette hypothèse est très bien vérifiée lorsque :
Dans ces conditions, très largement vérifiées en pratique, l'énergie d'interaction entre les sous-systèmes est négligeable devant leurs énergies propres, et l'état statistique d'un sous-système n'est influencé que de façon également négligeable par l'autre[N 8]: dans ce cas, il est possible de considérer avec une très grande approximation que les deux sous-systèmes demeurent statistiquement indépendants[9], et donc que leurs entropies demeurent additives.
Pour simplifier le raisonnement, et considérer uniquement l'équilibre thermique, le système global est divisé en deux sous-systèmes pouvant uniquement échanger de l'énergie par transfert thermique mais ni volume ni particules[N 9].
Dans ce cas et du fait de l'additivité de l'entropie la condition d'équilibre thermique s'exprime sous la forme avec et , or vu le caractère isolé du système global , d'où , par suite la condition d'équilibre thermique au sein du système s'écrit:
cette relation étant valable pour tout sous-système, il est intéressant de définir une nouvelle grandeur, appelée température microcanonique:
et la condition d'équilibre thermique au sein du système correspond à l'égalité des températures microcanoniques de deux sous-systèmes quelconques: .
L'entropie étant maximale à l'équilibre, il est clair que ce qui implique que [N 10], i.e. la température microcanonique est une fonction strictement croissante de l'énergie du système, ce qui correspond bien à la notion intuitive de température.
Maintenant, en revenant aux deux sous-systèmes, initialement à des températures microcanoniques différentes, il est possible de déterminer aisément le sens de l'échange de chaleur. En effet est une fonction croissante de , et est donc une fonction strictement décroissante de . Il est alors évident, afin que la condition d'équilibre d'égalité des températures soit vérifiée, que le sous-système initialement à la température microcanonique la plus haute[N 11], transfère de l'énergie à celui dont la température est la plus basse, la température microcanonique finale étant intermédiaire entre les deux températures initiales.
Par suite, les propriétés de la température microcanonique permettent de retrouver l'énoncé classique du second principe de la thermodynamique, qui indique que le transfert thermique se fait toujours spontanément[N 12] du corps "chaud" (plus haute température) vers le corps "froid" (plus basse température).
En considérant à présent que les deux sous-systèmes peuvent échanger de l'énergie et du volume (par exemple, ils sont en contact via une paroi mobile et diatherme), et procédant de même que précédemment il vient pour la condition d'équilibre thermique et mécanique:
ce qui implique:
Bien entendu cette égalité ne sera vérifiée en général que si les deux termes devant et sont simultanément nuls, soit:
et
il est alors possible de définir la pression microcanonique par la relation:
et la condition d'équilibre mécanique se réduit alors à celle de l'égalité des pressions microcanoniques des deux sous-systèmes: .
Un raisonnement rigoureusement analogue au précédent, cette fois-ci pour deux sous-systèmes pouvant échanger énergie et particules, conduit à définir le potentiel chimique microcanonique par la relation:
la condition d'équilibre chimique entre les deux sous-systèmes correspondant alors à l'égalité de leurs potentiels chimiques microcanoniques: .
Dans la situation microcanonique, les grandeurs physiques comme la température, la pression, etc. sont des variables internes, qui sont normalement libres de fluctuer dans un certain intervalle déterminé par les contraintes extérieures imposées au système (énergie, volume et nombre de particules). Il est intéressant de déterminer la forme générale de la distribution statistique d'une variable interne quelconque, notée X, lorsque est atteint l'équilibre macroscopique.
Une variable interne X aura une valeur donnée égale à x pour un certain nombre d'états accessibles noté . Plus précisément correspondra au nombre d'états accessibles pour lesquels la valeur de la variable interne sera . Par suite la (densité de) probabilité pour cette variable interne ait une valeur comprise dans cet intervalle est donc:
Cette grandeur donne la distribution de probabilité de la variable interne X. Il est possible d'en donner une expression générale en considérant son logarithme:
soit encore, en définissant l'entropie microcanonique partielle par [10]
Finalement, l'entropie globale étant une constante[N 14], il vient pour l'expression de la densité de probabilité de distribution de la variable interne X:
Comme l'entropie partielle est nécessairement positive, et que l'exponentielle est une fonction strictement croissante, il en résulte que la valeur la plus probable de la variable interne X, notée est celle qui maximise [N 15], et est donc telle que:
avec:
En effectuant alors un développement limité à l'ordre 2 de au voisinage de cette valeur la plus probable , il vient:
Par suite, la densité de probabilité de distribution de la variable interne X s'écrit:
avec:
Il est possible de montrer que pour un système macroscopique, cette expression de la distribution statistique de la variable interne X est valable avec une très grande approximation[11]: cette distribution est une gaussienne très étroitement centrée autour de et la valeur moyenne de X coïncide avec sa valeur la plus probable: .
La formule précédente montre que dans la description microcanonique, pour un système macroscopique à l'équilibre, la distribution statistique d'une variable interne telle que la température, la pression... est une gaussienne très étroitement centrée sur sa valeur la plus probable, qui coïncide donc avec sa valeur moyenne. Les fluctuations relatives autour de cette valeur sont de l'ordre de , et donc est totalement inappréciable pour un système macroscopique.
Par exemple, 1 mm3 (soit 1 μL) d'un gaz dans les conditions ordinaires de températures et de pression contient encore environ N = 1016 atomes ou molécules, et donc les fluctuations relatives d'une variable interne seront donc de l'ordre de 10−8, ce qui n'est pas mesurable.
Par suite, et en pratique, les variable internes d'un système décrit selon le formalisme microcanonique, telles que la température, la pression... auront à l'équilibre une valeur fixée, déterminées par les contraintes extérieures, les fluctuations autour de cette valeur étant totalement négligeables.
Du point de vue de la mécanique quantique, la connaissance la plus complète que l'on puisse obtenir d'un système est la connaissance de sa fonction d'onde qui est fonction des coordonnées de chacune des molécules du système. Cette fonction d'onde est solution de l'équation de Schrödinger que l'on peut écrire de manière condensée sous la forme
La connaissance de la composition N du système permet d'exprimer l'opérateur hamiltonien , la connaissance de V précise les conditions aux limites auxquelles doit satisfaire . Dans ce cas, la connaissance de l'énergie du système (E), valeur propre de l'équation, permet d'écrire la liste complète de toutes les fonctions propres .
Le nombre total de solutions de l'équation de Schrödinger est noté . Ce nombre représente mathématiquement la dimension vectorielle des solutions de l'équation de Schrödinger, et il dépend des variables qui déterminent l'état macroscopique du système. Chaque état microscopique possède, pour un état macroscopique défini, la même énergie E, le même nombre de particules N, et le même volume V.
Sur la base de ce qui est dit plus haut, le sens de la mesure d'une grandeur quelconque du système est le suivant : pendant le temps t que dure la mesure, le système évolue en passant d'un état microscopique (une réplique) à un autre. Toute mesure effectuée est nécessairement une moyenne sur le temps des différents états traversés.
Dans le cas d'un système réel, la fonction d'onde dépend du temps. À tout instant i, on peut, en quelque sorte, « photographier » le système dans un état microscopique particulier, c'est-à-dire en avoir une réplique particulière (représentée par la fonction d'onde , solution de l'équation de Schrödinger). Or, nous possédons théoriquement la liste des fonctions d'onde permises et nous connaissons donc tous les états microscopiques par lesquels le système est susceptible de passer.
En résumé, la fonction d'onde totale solution du système réel est équivalente à un ensemble de fonctions d'onde, réplique du système dans chacun des états particuliers qu'il est susceptible d'occuper
Supposons maintenant la mesure de la grandeur . Sur base du postulat, et en considérant un ensemble de répliques d'un système où chaque réplique figure en un même nombre d'exemplaires (par exemple, une fois chacune), la valeur de la grandeur dans chaque réplique sera notée :
La moyenne de cette grandeur calculée avec l'ensemble des répliques est alors la somme (sur tous les états microscopiques du système considéré) de la probabilité d'être dans l'état i multiplié par la valeur de cet état :
D'après l'hypothèse ergodique, cette moyenne doit coïncider avec la valeur moyenne mesurée sur le système réel et est définie par