Archives mensuelles : juin 2006

10. Des cellules presque vivantes.

Pendant longtemps un certain nombre de phénomènes physiques ont intrigué les physiciens car ils semblaient contraire au second principe de la thermodynamique. Ces phénomènes, qualifiés de dissipatifs par Ilya Prigogine <a href= »http://www.philo5.com/Les vrais penseurs/03 – Ilya Prigogine.htm »>(1)</a>, apparaissent toujours dans des systèmes traversés par des flux importants d’énergie. C’est le cas par exemple de l’apparition spontanée de mouvements ordonnés dans un fluide soumis à des différences de température ou de pression. La diminution d’entropie observée est en fait compatible avec le second principe parce que ces systèmes ne sont pas isolés, mais le second principe ne les explique pas. Nous allons voir ici comment le principe de production maximale d’entropie les explique avant d’aborder son application au phénomène plus compliqué qu’est la vie.

En 1900, dans son mémoire de thèse intitulé “Les tourbillons cellulaires dans une nappe liquide”, Henri Bénard, alors étudiant à la Sorbonne, mettait en évidence l’apparition de cellules hexagonales régulières dans un film d’huile dont les deux surfaces sont soumises à une forte différence de température. Ces cellules rappellent étrangement des structures créées par des êtres vivants comme les nids d’abeilles ou les cellules animales ou végétales. À cette époque on pensait que seuls les êtres vivants pouvaient créer de telles structures.

Ces cellules, appelées depuis cellules de Bénard <a href= »http://fr.wikipedia.org/wiki/Cellules_de_Bénard « >(2)</a>, sont des cellules convectives à l’intérieur desquelles l’huile circule comme l’eau dans une casserole sur le feu. Chauffé par en dessous, le liquide se dilate. Il devient donc moins dense et monte à la surface où il se refroidit avant de redescendre autour de la cellule. Ce phénomène se produit naturellement à la surface du soleil. C’est la granulation solaire <a href= »http://www.cite-sciences.fr/francais/ala_cite/expo/tempo/planete/portail/planete/video.php?film=42&debit=1″>(3)</a> découverte par Janssen <a href= »http://www.cosmovisions.com/Janssen.htm »>(4)</a> en 1889. Moins réguliers que les cellules créées par Bénard, les granules solaires sont environ deux cent millions de fois plus grand, un rapport de taille plus grand que celui d’une bactérie à un éléphant. Ainsi un même processus physique peut produire des phénomènes analogues à des échelles extrêmement différentes.

benard
Cellules de Bénard

Il s’agit bien d’un système traversé par un flux important d’énergie, ici un flux de chaleur. Lorsque la différence de température est faible, la chaleur se propage par conduction: l’agitation des molécules se propage simplement par collisions d’un molécule à une autre sans déplacement du fluide. Lorsque la différence de température devient plus élevée, un nouveau moyen de transport de la chaleur apparaît: la convection. Il y a apparition d’un mouvement d’ensemble ordonné des molécules. La diminution d’entropie liée à cette apparition d’ordre est entièrement compensée par la dissipation plus élevée de chaleur à la surface du fluide.

Il y a en fait compétition entre deux moyens de transport de l’énergie: la conduction et la convection. Lorsque le flux de chaleur est important, la conduction n’est plus assez efficace pour transporter l’énergie. L’individualisme des molécules ne paie plus et, l’union faisant la force, la convection l’emporte. D’une façon générale, c’est toujours le moyen de transport le plus efficace qui l’emporte puisqu’il dérobe l’énergie aux autres. Le résultat est bien une évolution vers un maximum de dissipation d’énergie, conformément au principe de production maximale d’entropie.

Ce n’est pas par hasard si les cellules de Bénard font instinctivement penser à des phénomènes liés à la vie. Comme tous les phénomènes dissipatifs, elles en possèdent au moins trois caractéristiques:
<ul>
<li>
a) Le métabolisme: les cellules de Bénard ne subsistent que si elles sont constamment alimentées en énergie. Lorsque l’apport d’énergie cesse, elles disparaissent comme un individu meurt lorsqu’il n’est plus alimenté.</li><li>
b) Le comportement imprévisible: la position, le nombre ou la forme exacte des cellules de Bénard varient d’une expérience à une autre comme les cellules diffèrent entre deux individus d’une même espèce. </li><li>
c) La sélection naturelle: un changement de régime comme le passage de la conduction à la convection porte, en hydrodynamique, le nom de bifurcation. Nous verrons que c’est un mécanisme tout à fait analogue à celui de l’apparition de nouvelles espèces animales ou végétales. Les cellules de Bénard ne peuvent se développer que dans des conditions où elles l’emportent sur un phénomène dissipatif concurrent comme la conduction. C’est le mécanisme même de la sélection naturelle découvert par Darwin.</li></ul>

Lorsque le transport de chaleur se fait par conduction, les molécules du fluide situées près de la surface chaude ne reçoivent aucune information sur ce qui se passe près de la surface froide. Elles se contentent de transmettre par collision de l’énergie cinétique aux molécules voisines sans “savoir” ce qu’il s’y passe ailleurs. L’énergie se transmet ainsi de proche en proche jusqu’à la surface froide.

Lorsque la convection s’établit, les molécules qui se sont refroidies près de la surface froide redescendent vers la surface chaude. Elles y apportent donc une information sur la température de la surface froide. Une communication s’établit. Si un changement de température survient au niveau de la surface froide, l’information est aussitôt transmise au niveau de la surface chaude où les molécules réagissent en conséquence. C’est ainsi qu’une diminution de la différence de température entraîne une diminution de la différence de densité entre le fluide ascendant et descendant donc une diminution de la convection. Inversement, une augmentation de la différence de température se traduit par une augmentation de la convection, qui elle-même tend à réduire cette différence de température.

Ce phénomène de régulation thermique est caractéristique d’une boucle d’asservissement qui s’est formée ainsi naturellement. C’est elle qui maintient l’ordre et la régularité du mouvement. Elle est responsable de la diminution locale d’entropie. Le cycle de la matière dans une cellule convective est tout à fait analogue au cycle du fluide dans une machine thermique comme le cycle de Carnot. Une caractéristique souvent oubliée des machines de Carnot est qu’elles nécessitent toutes un asservissement. Dans la machine de Denis Papin, un opérateur devait intervenir pour régler l’admission de la vapeur dans le cylindre. C’est James Watt qui automatisa non seulement l’admission de la vapeur dans le cylindre mais aussi la vitesse de rotation grâce à son régulateur à boules. Les moteurs de voiture actuels doivent leur rendement à d’innombrables boucles d’asservissement.

Les boucles d’asservissement sont à la base de l’automatique et de la cybernétique <a href= »http://fr.wikipedia.org/wiki/Cybernétique »>(5)</a>, science qui conduit à l’intelligence artificielle. Elles caractérisent les mécanismes d’apprentissage des êtres vivants, mécanismes qui se traduisent par l’apparition de la conscience. On peut définir la conscience comme la faculté de s’inclure soi-même dans son modèle interne du monde extérieur, ce qui est une sorte de boucle d’asservissement. On admet généralement que le passage du non-conscient au conscient est progressif. Il y a donc plusieurs degrés de conscience.

La conscience apparaît comme une propriété globale qui semble émerger chez les êtres vivants évolués. Le degré de conscience pourrait donc être une mesure de la complexité d’un système cybernétique. Pour moi, l’unité de conscience est une boucle d’asservissement élémentaire, comme le bit est une unité d’information. Sans voir, comme Teilhard de Chardin <a href= »http://www.richmond.edu/~jpaulsen/teilhard/citation.html « >(6)</a>, de la conscience partout y compris dans une pierre, je dirais qu’une cellule de Bénard a déjà un degré de conscience élémentaire. Elle est consciente d’une différence de température et réagit en conséquence.

(1) Voir par exemple:
http://www.philo5.com/Les%20vrais%20penseurs/03%20-%20Ilya%20Prigogine.htm
(2) Voir: http://fr.wikipedia.org/wiki/Cellules_de_Bénard
(3) Voir l’animation:
http://www.cite-sciences.fr/francais/ala_cite/expo/tempo/planete/portail/planete/video.php?film=42&debit=1
(4) Voir par exemple: http://www.cosmovisions.com/Janssen.htm
(5) Voir: http://fr.wikipedia.org/wiki/Cybernétique
(6) Teilhard de Chardin, Le phénomène humain (Seuil, 1970).
Voir aussi : http://www.richmond.edu/~jpaulsen/teilhard/citation.html
(7) Illustration tirée du livre: Into the cool, E. D. Schneider and D. Sagan (Univ. of Chicago Press, 2005). D’après: Koschmieder, E. L., Bénard cells and Taylor vortices (Cambridge Univ. Press).


9 – Évolution vers l’ordre ou le désordre?

desordreÀ ce stade, le lecteur peut se demander pourquoi j’ai consacré trois articles à parler de thermodynamique sur un site politique. C’est que les lois de la thermodynamique ne s’appliquent pas seulement aux gaz mais à tous les phénomènes physiques y compris —comme nous allons le voir— à la vie, c’est-à-dire à nous-mêmes. Peut-être le lecteur a-t’il déjà remarqué que les deux concepts clés de la thermodynamique, <i>énergie</i> et <i>information</i> sont à la base même des révolutions que traverse l’humanité. Après la révolution industrielle liée à l’utilisation de <i>l’énergie</i>, l’humanité est en train de traverser une nouvelle révolution liée à l’utilisation de <i>l’information</i>.

Il fallait-il sans doute s’y attendre. La révolution néolithique n’a-t’elle pas été elle aussi suivie d’une révolution de l’information avec l’invention de l’écriture et de la monnaie? C’est en effet le besoin de comptabiliser les échanges commerciaux qui a donné naissance à ces inventions. La monnaie elle-même peut être considérée comme une mesure d’entropie ou plutôt de son opposé appelé <i>néguentropie</i> (ou entropie négative). Le rôle de la monnaie est de maintenir la <i>réversibilité</i> des échanges. Tout ce qui se dégrade, perd de la valeur monétaire (son entropie augmente). Inversement une chose précieuse est généralement une chose rare donc de faible entropie. C’est ainsi que le prix du pétrole augmente lorsque la probabilité d’en trouver diminue (1).

Nous assistons actuellement à une frénésie d’échanges d’information à laquelle vous participez vous-même en lisant ce blog. Chaque jour, une quantité croissante d’information (la monnaie en est un cas particulier) traverse le globe à la vitesse de la lumière. Suivant toujours la loi de Moore <a href= »http://fr.wikipedia.org/wiki/Loi_de_Moore »>(2)</a>, la capacité d’enregistrement des mémoires électroniques double tous les deux ans. Pourquoi cette frénésie? Elle est d’autant plus surprenante que tout accroissement de l’information correspond à une diminution d’entropie ce qui parait contraire au second principe de la thermodynamique. Nous allons voir que, loin d’être contraire au second principe, cette frénésie y est directement apparentée.

Il nous faut d’abord remarquer que le second principe n’interdit à l’entropie de diminuer que dans un système <i>isolé</i> c’est-à-dire sans apport d’énergie. Si vous mettez des glaçons et de l’eau chaude dans une bouteille Thermos, vous obtenez de l’eau froide. C’est une transformation irréversible durant laquelle l’entropie augmente. Si vous y mettez de l’eau froide vous ne verrez jamais apparaître des glaçons et de l’eau chaude. L’entropie ne pourra pas diminuer. Par contre, si vous mettez de l’eau froide dans votre réfrigérateur et que <i>vous le branchez sur une prise électrique</i>, vous verrez apparaître des glaçons à l’intérieur et un dégagement de chaleur à l’extérieur (en général par derrière). L’entropie a diminué provisoirement grâce à un apport <i>extérieur</i> d’énergie électrique. Ce n’est que provisoire car la chaleur produite derrière votre réfrigérateur va se dissiper dans l’atmosphère et vos glaçons vont fondre dans votre boisson achevant de dissiper toute l’énergie électrique que vous avez consommée. Au total, l’entropie aura définitivement augmenté.

Il nous reste maintenant à comprendre pourquoi nous fabriquons tant de réfrigérateurs et autres machines thermiques. Une réponse étonnante est que c’est la conséquence d’un principe encore plus général que le second principe, appelé principe de production maximale d’entropie (Maximum Entropy Production ou MEP) <a href= »http://www.entropylaw.com/entropyproduction.html »>(3)</a>. Ce principe n’a été établi qu’assez récemment, plus d’un siècle après Boltzmann, grâce à l’étude des systèmes thermodynamiques hors équilibre. Il stipule que l’univers évolue de façon à <i>maximiser son taux de production d’entropie </i>(4). Nous commençons seulement à en réaliser l’étendue des conséquences. Il explique en particulier la vie, donc nous-mêmes et par exemple le fait que, grâce à l’invention du réfrigérateur, nous consommons davantage d’électricité donc <i>nous dissipons davantage d’énergie ou nous produisons davantage d’entropie</i> que nous ne le faisions autrefois.

Après les travaux de Boltzmann, l’entropie a d’abord été considérée comme une mesure du désordre. Si on met en vrac des pions blancs et des pions noirs dans une même boîte on dit qu’ils sont en désordre. Si on les sépare dans deux boites différentes on dit qu’on met de l’ordre. Il en est de même pour les molécules. Si on mélange deux gaz différents, l’opération est irréversible et l’entropie augmente. Cette augmentation d’entropie correspond bien au passage d’un état ordonné vers un état désordonné. Notons que la notion d’ordre est liée à celle d’information. Vous pouvez soit ranger vos outils en mettant de l’ordre soit les laisser en désordre et <i>mémoriser l’information </i>sur leur emplacement. Si vous perdez cette information l’entropie augmentera et il vous faudra dépenser de l’énergie pour les retrouver.

<br /><br />
<table width= »450″ >
<tr align= »center »>
<td width= »225″>
<img src= »ordre.jpg » alt= »ordre »/>
</td>
<td width= »225″>
<img src= »desordre.jpg » alt= »ordre » />
</td>
</tr>
<tr align= »center »>
<td width= »225″>
Ordre = entropie faible
</td>
<td width= »225″>
Désordre = entropie élevée
</td>
</tr>
</table>
<br />
La thermodynamique classique de Clausius et de Boltzmann explique très bien le comportement des systèmes à l’équilibre (qui n’évoluent pas) ou très proches de l’équilibre (qui évoluent lentement de façon quasi-réversible). Dans ce cas on observe toujours une tendance vers le désordre. Lorsque deux pièces mécaniques frottent l’une contre l’autre, le mouvement mécanique ordonné des molécules se transforme en un mouvement désordonné qui se manifeste par une élévation de la température. Malheureusement, la thermodynamique classique n’explique pas que lorsqu’on crée un déséquilibre important dans un fluide, il peut y avoir apparition spontannée de mouvements <i>ordonnés</i>.

Les exemples classiques en sont le mouvement convectif de l’eau dans une casserole que l’on met sur le feu, l’apparition de tourbillons dans le sillage d’une voiture, la houle sur l’océan, les cyclones dans l’atmosphère, etc… La thermodynamique classique s’applique mal à ces systèmes car ce ne sont pas des systèmes isolés. Ce sont des systèmes dits ouverts qui sont traversés par des flux importants d’énergie. Le second principe ne s’applique alors qu’à l’entropie totale de l’univers considéré comme système isolé. Cette entropie est la somme de l’entropie du système et de celle du milieu extérieur. De tels systèmes peuvent exister parce que la diminution d’entropie interne au système liée à la création d’ordre est largement compensée par la forte augmentation d’entropie de son environnement. Ces phénomènes ne sont donc pas en contradiction avec le second principe, mais la thermodynamique classique ne les prévoit pas.

 
Dans nos prochains articles nous verrons comment le principe de production maximale d’entropie explique l’apparition spontannée d’ordre, y compris l’apparition de la vie, et pourquoi l’évolution nous pousse à consommer toujours davantage d’énergie.

(1) Sur la monnaie en tant que mesure d’entropie voir:
Valery Chalidze, Entropy Demystified, Potential Order, Life and Money (Universal Publishers, 2000).
Nicholas Georgescu-Roegen, The Entropy Law and the Economic Process (iUniverse, 1999).

(2) Voir: http://fr.wikipedia.org/wiki/Loi_de_Moore

(3) Voir: http://www.entropylaw.com/entropyproduction.html

(4) Le principe de production maximale d’entropie est en fait un théorème de mécanique statistique: Dewar, R.C., Maximum entropy production and the fluctuation theorem, J. Phys. A: Math. Gen. 38 (2005) L371-L381.