Entropie, exergie et information
Pour ce premier article, j’ai décidé de parler d’une notion assez peu connue du grand public: l’exergie, et de son lien avec l’informatique.
L’exergie est une grandeur thermodynamique, liées aux notions d’énergie et d’entropie. Il en existe plusieurs définitions, mais la plus intuitive est la suivante: “l’exergie d’un système est le travail utile maximal que peut fournir ce système dans un environnement donné”. Le point important est que l’exergie est définie par rapport à l’environnement, contrairement à l’énergie qui est une grandeur intrinsèque du système. Dit autrement, l’exergie est une mesure du déséquilibre d’un système avec son environnement: un système en équilibre avec son environnement ne peut fournir aucun travail utile, son exergie est donc nulle. L’exergie s’exprime en Joules (J), tout comme l’énergie.
Un exemple pour comprendre: une casserole d’eau à température ambiante de 20°C possède une certaine énergie interne (proportionnelle à la température), mais son exergie est nulle car l’eau est en équilibre thermique avec l’environnement, et son énergie est donc inutilisable. Une casserole chauffée à 100°C possède, elle, une exergie (énergie utilisable) capable de faire cuire un oeuf ou de réchauffer - un peu - la cuisine. La même casserole placée dans un four déjà chauffé à 100°C aurait la même énergie, mais par contre une exergie nulle, car elle serait cette fois en équilibre avec son environnement. On comprend avec cet exemple que l’exergie a une utilité pratique beaucoup plus importante que l’énergie, bien que cette notion soit beaucoup moins connue. On comprend également que l’exergie peut se détruire: si on laisse la casserole se refroidir, l’énergie totale de la cuisine ne change pas, mais son exergie totale diminue car l’eau de la casserole et l’air de la cuisine se rapprochent de leur état d’équilibre.
Autre exemple: le chauffage électrique. L’électricité est de l’exergie pure, car l’énergie électrique est théoriquement entièrement récupérable en travail (par exemple dans un moteur électrique sans aucun frottement). Dans un radiateur électrique, cette énergie est convertie en chaleur, utilisée pour réchauffer l’air de la pièce. Par contre une grande partie de cette énergie est “perdue” car si l’air chaud de la pièce devait être utilisé dans un moteur thermique pour produire de l’énergie, seule une petite partie (en pratique moins de 10%) de l’énergie de départ pourrait être récupérée. Plus de 90% de l’exergie de l’électricité a donc été définitivement perdue dans l’opération. Et le problème n’est pas que les technologies actuelles ne permettent pas de récuperer toute l’énergie de l’air chaud; c’est en fait une limitation théorique due à la nature même de l’énergie thermique. On a coutume de dire que le chauffage électrique a un rendement énergétique de 100%, ce qui est vrai puisque toute l’énergie électrique dépensée dans le radiateur est récupérée en énergie thermique, mais par contre le rendement exergétique est extrêmement mauvais.
Vous me direz: très bien mais quel rapport avec l’informatique ? J’y viens. L’exergie est en fait directement liée à la notion d’entropie qui est, elle, bien plus connue. En thermodynamique, l’entropie d’un système est une mesure de son degré de désordre; elle ne peut qu’augmenter si le système est isolé (second principe de la thermodynamique) et atteint son maximum lorsque le système est dans son état d’équilibre. Si \(T_0\) est la température de l’environnement, \(S^{tot}\) l’entropie totale du système et de l’environnement, et \(S^{tot}_{eq}\) l’entropie totale quand le système est à l’équilibre avec l’environnement, on peut montrer que l’exergie du système s’exprime par:
\[B = T_0 (S^{tot}_{eq} - S^{tot})\]Cette relation montre bien que l’exergie est une mesure du déséquilibre entre le système et son environnement, et diminue à mesure que l’entropie augmente. Mais cette relation devient encore plus intéressante si on regarde de plus près la définition de l’entropie. Comme l’a montré Boltzmann, si un système peut prendre \(W\) états possibles, avec une probabilité \(P_i\) de se trouver dans l’état \(i\), alors l’entropie est égale à
\[S = - k \sum_{i=1}^W P_i.ln P_i\]où k est la constante de Boltzmann (\(1,381.10^{-23}J.K^{-1}\)). On considère que lorsque le système est à l’équilibre, tous les états sont equiprobables, et alors l’entropie devient maximale et égale à \(S = k.ln W\).
Le lien avec l’informatique commence à apparaître si on remarque que la définition de l’entropie donnée par Boltzmann ressemble beaucoup à une autre formule découverte par Shannon 75 ans plus tard:
\[H = - \sum_{i=1}^N P_i.log_2 P_i\]Cette formule donne la quantité d’information contenue dans une source quelconque de données, pouvant prendre \(N\) valeurs (états) possibles, avec une probabilité \(P_i\) pour chaque valeur. Le nombre \(H\) s’exprime en bits, et s’appelle l’entropie de Shannon, par analogie. Si les valeurs sont équiprobables, la formule devient \(H = log_2 N\), ce qui est assez logique car une information aléatoire représentée par \(n\) bits peut prendre \(N=2^n\) valeurs possibles. Si les valeurs ne sont pas équiprobables, alors il est possible de compresser les données, et l’entropie de Shannon permet de calculer le nombre minimal de bits théoriquement requis pour coder l’information sans perte de données.
Et que devient l’exergie dans tout ça ? Si on combine les équations précédentes, on montre que l’exergie peut s’exprimer par:
\[B = k.T_0.ln2.H\]où \(H\) est la quantité d’information (en bits) nécessaire pour décrire l’écart entre l’état du système et son état d’équilibre. Cette relation fait donc un lien entre la théorie de l’information et la thermodynamique ! Ce lien peut sembler purement formel et abstrait, mais on peut le comprendre intuitivement si on considère que l’information doit toujours à un moment ou à un autre être représentée par un support physique.
Si on applique cette formule, une exergie de 1 Joule à température ambiante de 20°C correspond à une quantité d’information de \(3,6.10^{20}\) bits ! Pour donner un élément de comparaison, une mémoire flash permet au mieux d’écrire 10 Gbit de données avec 1 Joule d’énergie; on est donc encore très loin du maximum théorique. D’un autre côté, la réplication de l’ADN dans les cellules permet de copier de l’ordre de \(2.10^{19}\) bits d’information par Joule consommé, ce qui extrêmement proche de la limite théorique ! En matière de consommation d’énergie (ou plutôt, d’exergie), la vie est bien plus efficace que les ordinateurs…