8 – Irréversibilité et perte d’information

Au cours du 19ème siècle, il apparaît de plus en plus clairement qu’un gaz est formé de particules très petites appelées molécules et que ces molécules sont constamment en mouvement. La chaleur est donc bien une forme d’énergie mécanique. C’est l’énergie cinétique des molécules en mouvement. Celles-ci forment un système mécanique complexe dont on ne peut étudier l’évolution que statistiquement. C’est ce que fait l’écossais James Clerk Maxwell suivi en cela par l’autrichien Ludwig Boltzmann. La température devient une grandeur statistique. C’est une mesure de l’énergie cinétique moyenne des molécules. Ces deux quantités sont proportionnelles. Le coefficient de proportionnalité s’appelle maintenant la constante de Boltzmann. C’est Boltzmann qui découvre la nature statistique de l’entropie.
<br /><br />
<table width= »450″ >
<tr align= »center »>
<td>
<img src= »Boltzmann.jpg » alt= »Ludwig Boltzmann » width= »230″ />
</td>
<td>
Ludwig Boltzmann.
</td>
</tr>
</table>
<br />

 

Reprenons l’exemple précédent du gaz qui se détend irréversiblement à travers un piston qui fuit. Ce gaz est formé de molécules qui obéissent aux lois de la mécanique établies par Newton. Or, ces lois sont réversibles. Boltzmann réalise que si, à un moment donné, on inverse la vitesse de ces molécules, alors chacune d’elles va effectuer le parcours en sens inverse et le gaz va revenir à son état initial, c’est-à-dire que son entropie va diminuer. Ce phénomène n’est donc pas impossible. Il est seulement hautement improbable qu’il se produise naturellement. C’est d’autant plus improbable que les molécules d’un gaz sont plus nombreuses. Dans un gaz qui ne contiendrait que 3 ou 4 molécules, il ne serait pas impossible de les retrouver occasionnellement, au hasard de leur mouvement, toutes du même coté du piston. Dans un gaz qui contient des milliers de milliards de milliards de molécule, c’est tout simplement statistiquement impossible. On sait maintenant manipuler des ensembles de quelques molécules. On observe effectivement des fluctuations aléatoires d’entropie. Celle-ci peut donc occasionnellement diminuer mais en valeur moyenne elle ne diminue pas<a href= » http://www.aip.org/pt/vol-58/iss-7/p43.html »>(1)</a>.

Il faut donc distinguer l’état microscopique d’un gaz (défini par la position et la vitesse de chacune de ces molécules) de son état macroscopique (défini par des grandeurs statistiques comme la pression et la température). Lorsqu’on supprime des contraintes (en créant par exemple une fuite dans le piston), l’état microscopique d’un système va évoluer réversiblement en accord avec les lois de Newton, mais son état macroscopique va évoluer irréversiblement d’un état peu probable vers un état statistiquement plus probable. Dans un système formé d’un très grand nombre de molécules, c’est toujours l’état le plus probable qui est observé (même nombre de molécules de chaque coté du piston). L’incertitude devient une certitude. L’état statistiquement le plus probable étant celui d’entropie maximale, l’entropie apparaît comme une mesure de cette probabilité.

Ainsi l’irréversibilité provient de notre impossibilité de connaître et de contrôler le mouvement de chacune des molécules. Nous verrons que l’entropie est aussi une mesure ce manque d’information, c’est-à-dire de notre ignorance. On peut imaginer que si l’on connaissait avec suffisamment de précision la position et la vitesse de chacune des molécules de l’air qui nous entoure, alors on pourrait prédire le temps qu’il va faire (et reconstituer le temps qu’il a fait) pendant des années. Mais nous ne connaissons que la pression, la température, et la vitesse du vent en certains points du globe. Cela limite nos prévisions à quelques jours. La moindre erreur s’amplifie et rend toute prévision illusoire. C’est l’image symbolique du battement d’aile d’un papillon qui peut être à l’origine d’un cyclone. Vu l’immensité du nombre de molécules l’évolution qu’on observe, est toujours l’évolution macroscopiquement la plus probable, c’est-à-dire celle qui maximise l’entropie. C’est aussi celle qui minimise notre possibilité de prévoir l’avenir. Quand l’entropie augmente, le passé s’estompe et l’avenir devient imprévisible.

Le déterminisme du XIXème siècle était fondé sur l’idée qu’on pouvait théoriquement connaître avec une précision infinie la position et la vitesse de toutes les particules de l’univers et donc prévoir entièrement son évolution future. La mécanique quantique a définitivement éliminé cette possibilité en établissant la relation d’incertitude de Heisenberg qui dit que toute amélioration de la précision sur la position d’une molécule se traduit par une dégradation de la précision sur sa vitesse et vice-versa. L’information que l’on peut avoir sera donc toujours limitée par la mécanique quantique. Notre degré d’ignorance est maintenant parfaitement établi. On peut mesurer l’entropie de façon absolue. C’est la fin du déterminisme et le rétablissement du libre arbitre. Contrairement à ce que pensait Einstein, Dieu joue effectivement aux dés: le hasard est inscrit dans les lois de la nature.

L’américain Claude Shannon fut le premier à relier la notion d’entropie à celle d’information. Il le fit pendant la dernière guerre mondiale alors qu’il travaillait aux laboratoires Bell sur les moyens de communication. Il cherchait alors à établir une théorie mathématique de l’information, notion qui paraissait jusque là subjective. Il remarqua que l’information dépend de notre connaissance à priori. Un événement certain n’apporte aucune information. L’information dépend donc de la probabilité d’un événement. Plus celui-ci est improbable plus l’information qu’il apporte est élevée.

Le jeu du portrait illustre parfaitement la théorie de Shannon. Ce jeu consiste à deviner le nom d’une personne ou d’un objet à partir de réponses par oui ou par non. Celui qui pose le plus petit nombre de questions à gagné. La stratégie consiste à maximiser l’information contenue dans la réponse. Une réponse prévisible n’apportant pas d’information, il faut donc poser des questions telles que la réponse soit la plus imprévisible possible. Pour cela, il faut que les deux réponses possibles (oui ou non) aient la même probabilité 1/2. On obtient alors le maximum d’information que peut apporter une variable binaire, c’est-à-dire une variable qui ne peut prendre que deux valeurs (oui ou non, 0 ou 1).

La quantité d’information apportée par une telle variable binaire est prise par Shannon comme unité de mesure de l’information. Il lui donne le nom de bit, contraction de l’anglais “binary unit”. Son expression mathématique de la quantité d’information est (au signe près) en tout point semblable à l’expression de Boltzmann pour l’entropie. L’entropie est donc effectivement une information au sens de Shannon. C’est l’information que l’on perd dans une transformation irréversible (quand l’information diminue l’entropie augmente). La théorie de Shannon est à la base de toutes les nouvelles technologies de l’information et de la communication (NTIC), notamment les méthodes de compression de l’information.

Ainsi le monde est à la fois prévisible et imprévisible. Il est prévisible en ce sens qu’il obéit à des lois strictes, immuables et parfaitement identifiables. Les mêmes causes produisent toujours le même effet. Mais il est en même temps imprévisible parce que notre connaissance du monde est fondamentalement limitée et que la moindre incertitude sur cette connaissance rend caduque toute prévision à long terme. L’avenir réserve toujours des surprises.

(1) voir (en anglais): http://www.aip.org/pt/vol-58/iss-7/p43.html


12 réflexions sur « 8 – Irréversibilité et perte d’information »

  1. Contradiction ?

    Dans votre article 7 vous associez « réversibilité » à « entropie constante » :

    « Si on suit l’évolution d’une certaine quantité d’énergie, alors l’entropie associée à cette énergie ne peut qu’augmenter ou rester constante. Si l’évolution est réversible, l’entropie reste constante. Si l’évolution est irréversible l’entropie augmente. »

    Mais dans le présent article 8 vous associez « réversibilité » à « entropie DÉcroissante » :

    « Boltzmann réalise que si, à un moment donné, on inverse la vitesse de ces molécules, alors chacune d’elles va effectuer le parcours en sens inverse et le gaz va revenir à son état initial, c’est-à-dire que son entropie va diminuer. »

    Qu’en est-il finalement ?

  2. Vous oubliez qu’il faudrait beaucoup d’énergie pour inverser la vitesse des molécules d’un gaz!

  3. Merci pour votre réponse, mais en quoi le fait qu’il faudrait beaucoup d’énergie pour inverser la vitesse des molécules d’un gaz implique-t-il qu’il n’y a pas contradiction entre la première phrase qui associe « réversibilité » à « entropie CONSTANTE » et la seconde qui l’associe à « entropie DÉCROISSANTE » ?

  4. Bonjour,

    J’aurais deux questions:

    1) Si l’entropie augmente et l’information diminue au cours de l’évolution de l’univers, cela veut-il dire que le magna du big Bang contenait une information énorme ? C’est semble paradoxal pour le profane.

    2) Le vivant se présente comme des ilots de néguentropie. Comment expliquer cette condensation, et même cet accroissement local d’information ? D’où vient-elle ?

    Merci beaucoup

  5. Dans le premier cas, il s’agit d’un système isolé (énergie constante). Dans le deuxième cas, le système n’est plus isolé: il faut lui fournir de l’énergie.

  6. On sait aujourd’hui que l’expansion de l’univers s’accélère. Cela implique que l’univers observable est ouvert (voir la section 4.1 de mon livre: le paradoxe thermodynamique). Clairement, il s’auto-organise (des différences de températures apparaissent spontanément lors de la formation des étoiles). Cela implique que l’entropie de l’univers observable diminue d’où, en particulier, l’apparition de la vie.

  7. Merci pour cette ébauche de réponse. Je pense que je trouverai plus dans votre livre, surtout la première partie.

    Cordialement

  8. Ce terme d’auto-organisation, récurrent sous votre plume, me chiffonne.

    L’univers étant un tout, il ne peut puiser qu’en lui-même les racines de son éventuelle organisation (ou désorganisation), il ne peut, quasi-tautologiquement, que s’auto-organiser (ou s’auto-désorganiser).

    Dès lors je ne vois que deux options métaphysiques (celles de Parménide et d’Héraclite):
    1. Il peut effectivement s’auto-organiser (ou se désorganiser);
    2. Il ne le peut pas (et donc il est en permanence ce qu’il est).

    Quelque soit l’option métaphysique choisie, ce qui est applicable à l’univers ne l’est plus, selon moi, à l’une quelconque des ses parties strictes, en particulier à sa partie « observable ». Il me semble plus pertinent (et plus respectueux des principes de la thermodynamique?) de dire que s’il y a organisation de la partie « observable » c’est parce qu’il y a désorganisation de la partie « inobservable ».

    Dans le phénomène de Bénard il n’y a pas, toujours selon moi, d’auto-organisation des molécules de liquide (la partie « observée »). Il y a deux phases en compétition, l’une conductive, désorganisée, l’autre convective, plus organisée. C’est la partie « inobservée » qui décide (forme du récipient, mode de chauffage du fluide, etc.) de l’apparence de la partie « observée ». Et si la partie « observée » s’organise c’est parce que la partie « inobservée » se désorganise.

  9. Je suis assez d’accord avec ce point de vue. La diminution d’entropie en un lieu correspond à une augmentation ailleurs.

  10. A Vezes. L’idée de néguentropie n’a aucune réalité physique ou biologique. Avec l’apparition du second principe de la Thermodynamique, du concept d’entropie et de la prévision d’un état de tiédeur (warmtod), beaucoup de gens se sont rassuré en se disant que la physique et la biologie parlaient de deux mondes différents. D’où le rêve d’une néguentropie. Sans employer ce mot, Karl Marx pensait que la force de travail humain avait justement cette propriété de produire plus de valeur (par le travail musculaire) qu’elle en avait reçu (par la consommation des aliments). A cette époque, les atomes étaient une hypothèse contestée et ultra-minoritaire. Le suicide de Boltzmann doit beaucoup à ce refus des atomes. Avec Einstein et Jean Perrin, le paysage des idées a beaucoup changé. On parle d’atomes, de molécules, de chimie organique et de biologie moléculaire. Les physiciens, les chimistes et les biologistes parlent du même monde, fait d’atomes, de molécules, de molécules géantes et de chaînes d’acides aminés. Le mot « néguentropie » n’a plus sa place dans la science, même s’il traîne encore dans la littérature et la philosophie.

  11. A BasicRabbit. Hélas, les mots les plus employés par les hommes (amour, organisation, information, communication, énergie, pouvoir) ont une multitude de sens et souvent des sens contraires. Le mot « auto-organisation » n’échappe pas à ce constat. En Sciences, il vaut mieux se référer aux équations qui sont utiles qu’aux explications que l’on en donne. Par exemple, dans la théorie de la relativité restreinte d’Einstein, il vaut mieux s’appuyer sur l’équation E=m*c^2 que sur les mots « relativité » et « restreinte ». Dans le cas de cellules de Bénard, le mot « organisation » donne un nom (discutable) au fait que la convection crée justement des cellules, des flux ascendants puis descendants, puis ascendants. Il ne faut pas faire dire à ce mot plus que cela. Et dans ce contexte bien précis, le mot « organisation » n’est pas le contraire du mot « désorganisation ». Et, comme vous le faites vous-même, « organisé » peut être remplacé par « convectif » qui, dans ce cas là, s’oppose à « conductif ».

  12. L’entropie étant une moyenne statistique macroscopique, elle cache forcément des détails microscopiques. Donc, on peut toujours, par définition même, trouver des molécules plus rapides que la moyenne et des molécules plus lentes que la moyenne. Mais, en disant cela, il ne faut pas sortir de la population statistique dont on fait la moyenne.
    Par contre, si on est de très mauvaise fois, comme Claude Allègre, on peut dire « cette année a été la plus froide depuis dix ans, puisque c’est l’année où il y a eu le jour le plus froid depuis 10 ans ». Sauf que cette année-là, qui était l’année 2013 si ma mémoire est bonne, était l’année la plus chaude depuis au moins trois ans.
    Pour ce qui est de la partie inobservable de l’Univers, on manque cruellement de données et de statistiques ;-))

Les commentaires sont fermés.