86 – Les structures dissipatives

Les frottements solides, la viscosité des liquides et des gaz font que l’énergie mécanique se dissipe toujours en chaleur. En l’absence d’apport extérieur d’énergie, les mouvements mécaniques finissent par s’arrêter, tandis que les différences de températures s’estompent et s’annulent. C’est ainsi que les systèmes isolés tendent vers l’équilibre thermodynamique. Leur énergie interne reste constante, tandis que leur entropie augmente pour atteindre sa valeur maximale à l’équilibre.

Supposons maintenant qu’on maintienne les mouvements mécaniques en compensant l’effet des frottements par à un apport permanent d’énergie, et que la chaleur dégagée soit évacuée de façon à ce que la température du système reste constante. On a maintenant un système ouvert maintenu en mouvement permanent grâce au flux d’énergie qui le traverse. Restant constamment semblable à lui-même, le système thermodynamique est qualifié de stationnaire.

Les exemples de tels systèmes abondent dans la nature: un cyclone ou un ensemble de cyclones/anticyclones tels que l’atmosphère terrestre, un être vivant ou un ensemble d’êtres vivants comme une espèce animale ou végétale, ou un écosystème, un être humain ou un ensemble d’êtres humains tel qu’une société humaine. Il y a environ un demi-siècle Prigogine leur donnait le nom de structure dissipative.

Par définition, une structure dissipative dissipe de l’énergie donc produit de l’entropie qu’elle évacue au fur et à mesure qu’elle la produit. Entropie et information étant de signe opposé (billet précédent), évacuer de l’entropie signifie importer de l’information. Une structure dissipative importe sans cesse de l’information de son environnement. Lorsqu’elle s’auto-organise une structure dissipative diminue son entropie interne, donc augmente son contenu en information en la mémorisant. C’est une mémoire temporaire.

En régime stationnaire, une structure dissipative perd autant d’information qu’elle en mémorise. Elle renouvelle sans cesse l’information qu’elle mémorise. Perdre de l’information est synonyme de produire de l’entropie, donc de dissiper de l’énergie. C’est en effaçant continuellement de l’information qu’elle a mémorisée qu’une structure dissipative dissipe de l’énergie.

S’il est naturel de parler de diminution d’entropie lorsqu’une machine thermique comme un cyclone s’auto-organise, parler d’information mémorisée est plus inhabituel. La mémoire d’un cyclone est inertielle. Si vous coupez la source d’énergie, le cyclone va continuer à tourner mais de moins en vite. La mémoire de ce mouvement va s’effacer progressivement au fur et à mesure que l’énergie se dissipe.

On sait aujourd’hui que les organismes vivants mémorisent de l’information dans leurs gènes. Les organismes les plus évolués ont aussi un cerveau. Un jeune enfant mémorise énormément d’information au cours de son éducation. Devenu adulte, il oublie autant de faits qu’il en mémorise de nouveaux. Devenu vieux, sa mémoire décline peu à peu, comme sa faculté de dissiper l’énergie. Les sociétés humaines ont longtemps mémorisé de l’information dans des livres. Aujourd’hui, leur faculté de mémoriser de l’information a considérablement augmenté, comme celle de dissiper de l’énergie.

J’ai déjà parlé dans ce blog du modèle de cerveau de Stassinopoulos et Bak (billet 62). Il est décrit dans mon livre sur la thermodynamique de l’évolution (sections 9.3 et 9.4). Ce modèle s’applique à un réseau neuronal quelconque. Il peut, par exemple, être utilisé pour comprendre le comportement d’une société humaine (billet 63). On parle alors de « cerveau global ». Il peut aussi être utilisé pour décrire un réseau d’échanges économiques (voir mon exposé au CNAM). Il pourrait même s’appliquer à un gaz, considéré comme un ensemble de particules qui échangent de l’information (billet 26).

Un cas particulierement intéressant est celui d’un écosystème. Après avoir reçu une formation d’ingénieur chimiste, Robert Ulanowicz s’est intéressé aux écosystèmes comme étant des réseaux d’agents échangeant de la matière, de l’énergie et de l’information. Il a ainsi modélisé les échanges entre les organismes vivants de la baie de Chesapeake. Pour Ulanowicz, les écosystèmes mémorisent de l’information tout comme le fait un cerveau humain. Il définit le degré d’ordre d’un écosystème par un paramètre α compris entre 0 et 1.

On peut interpréter ce paramètre d’ordre α comme étant la fraction de mémoire utilisée par ce réseau neuronal. Ses résultats s’appliquent à toute structure dissipative considérée comme un réseau neuronal. Nous avons vu plus haut qu’une structure dissipative s’auto-organise en mémorisant de l’information sur son environnement. Plus la quantité d’information mémorisée est grande, mieux la structure s’adapte à son environnement, mais plus elle doit modifier d’information pour rester adaptée, donc plus elle dissipe d’énergie. Il arrive un moment ou la fraction 1-α de mémoire disponible devient insuffisante, de sorte que les capacités d’adaptation de la structure n’augmentent plus et même diminuent. Il existe une valeur de α pour laquelle la capacité d’adaptation est optimale.

Robert Ulanowicz définit la robustesse R d’un écosystème comme étant sa capacité à s’adapter aux changements. Il montre que R doit être de la forme R = -α.log(α). La robustesse est nulle pour α = 0 et pour α = 1. Elle est maximale et égale à 1 pour α = 1/e où e est la base des logarithmes népériens (e = 2,718). Ses mesures sur les écosystèmes de la baie de Chesapeake montrent que les valeurs observées de α se concentrent effectivement autour de la valeur 1/e. Pour plus de détails voir l’article original (1). Dans un prochain billet, nous en tirerons les conséquences.

(1) R.E. Ulanowicz, Int. J. of Design & Nature and Ecodynamics. Vol. 4, No. 2 (2009) 83–96.

 


13 réflexions au sujet de « 86 – Les structures dissipatives »

  1. Merci monsieur (et madame) Roddier pour cet excellent article de vulgarisation des structures dissipatives.
    Vous dites ceci:
    Une structure dissipative importe sans cesse de l’information de son environnement.
    Peut-elle en importer indéfiniment et peut-elle dissiper indéfiniment de l’énergie en perdant cette information?
    Si on compare la structure dissipative à une plante, il vient un moment par manque (ou trop) d’énergie, la plante arrive à la fin de son cycle alors qu’advient-il de l’entropie et de la néguentropie?
    N’est pas aussi une histoire de cycle?

  2. Cette notion de « capacité d’adaptation optimale » me fait fortement penser au rendements marginaux décroissants développés par Tainter dans son livre sur l’effondrement des sociétés complexes. Toute sa théorie est basée dessus, avec également une notion d’optimum (voir la courbe dans son livre page 141). Au delà de cet optimum, la baisse du rendement marginal entraine une perte d’efficacité du système qui le mène à son déclin. Je me demande si on ne pourrait pas faire également le lien avec toute société complexe, que ce soit à l’échelle d’une entreprise ou d’un pays : il existe une taille optimale.
    Cordialement

  3. Ma remarque sera plutôt d’ordre général et je reposte ici ma remarque initiale ( voir pôst 50 : processus) pour commencer une série de remarques générales :

    Bien sûr je rends d’abord hommage à votre intelligence et à la simplicité limpide de vos explications.

    Maintenant, ma remarque. Vous voudrez bien me reprendre si je commets une erreur :

    la démarche mathématique à la base de la Physique et des extensions fort intéressantes que vous proposez à des domaines vivants possède une faille constitutive si on interprète Gödel comme suit :

    en effet, pour ce Logicien, les théories mathématiques possédant axiomatiquement l’Arithmétique ( c’est à dire toutes celles auxquelles vous faites référence dans ce blog) sont : soit incomplètes (indécidables localement), soit contradictoires (absurdes).

    Ce fait résulterait du fameux théorème d’incomplétude portant son nom.

    Cette faille est comme un accroc dans un tricot : on peut très bien ne pas le remarquer, voire l’ignorer. Mais l’usage de la théorie peut très bien finir par tout réduire en charpie (au niveau du réel cette fois).
    Le problème scientifique majeur reste toutefois l’absence de fondement rationnel à tous ces développements; même si il ne s’agit que d’imperfections logiques d’apparence mineure, la rigueur mathématique, en tous cas logique, entraîne leur caducité. Ne pas en tenir compte, autrement dit ne pas repartir hors des moyens arithmétiques, est une réalité sociale ancrée ( un puits de potentiel ?). Cela n’en n’est pas moins un passage de la science ( et de la philosophie) au sophisme voire au religieux, version 2.0.

    Cette croyance aussi doit s’effondrer. Tôt ou tard.

    J’espère que nous aurons l’occasion d’approfondir cette question.

    A bientôt de vous lire.

    Eric Basillais

    1. Vous avez tout à fait raison de citer Gödel. Ce que dit son théorème d’incomplétude est que tout système axiomatique contient au moins une proposition indécidable ou contradictoire. Le problème se résout en incluant le système dans un autre plus général. L’opération peut être répétée indéfiniment. Faisant partie de l’univers, nous ne pourrons jamais comprendre tout l’univers (à cause de l’auto-référence), mais rien n’empêche notre degré de compréhension de progresser indéfiniment. Notez que la question de savoir si le chat de Schrödinger est vivant ou non est un bon exemple de question indécidable ou qui ne peut avoir qu’une réponse contradictoire (le chat est à la fois mort et vivant).

      1. Merci de votre réponse, M. Roddier.

        Concernant les problèmes logiques soulevés par le théorème d’incomplétude de Gödel, ils ne concernent QUE les théories contenant l’Arithmétique.

        Ce que je souhaitais indiquer était la nécessité de fonder la science EN DEHORS de l’usage de l’Arithmétique. Donc EN DEHORS de la MESURE…

        Il y a là une Révolution Scientifique qui a tardé sur le progrès réalisé en Logique par Gödel. Dans l’ordre industriel, c’est parfaitement compréhensible. Mais dans l’ordre purement scientifique, c’est une démission intellectuelle.

        Les conséquences de cette erreur sont fatales. Le fait de reporter indéfiniment l’impasse logique de théorie en théorie plus grande ne règle évidemment rien,en termes logiques, puisque toutes ces théories emboîtées contiennent le noyau arithmétique à la source de leur caducité commune.

        Parler de progrès de la connaissance dans ces conditions est donc absurde.

        Toutefois, je répète que votre point de vue dissipatif sur l’Etre, envisagé dans sa dimension matérielle et informationnelle ( celle-ci n’étant qu’une certaine extension de celle-là) est très stimulant intellectuellement.

        Mais j’insiste pour qu’on ne perde jamais de vue que toutes les théories physiques développées et dérivées depuis quelques siècles jusqu’aux théories les plus récentes, sont toutes logiquement faussées. De sorte qu’il ne peut s’agir que d’une sorte d’analogie utilitariste sans fondement.

        1. Pour un scientifique, une théorie doit être falsifiable au sens de Popper. En sortant du domaine de la mesure, vous ne faîtes qu’inclure dans le domaine scientifique des théories qui n’ont aucune chance d’être jamais falsifiées.

          1. Très intéressant …

            Je ne m’étais pas aperçu de l’évolution de la science manifestée par Popper.
            Il y a donc eu un schisme sur lequel on a peu communiqué, dans un monde pourtant bavard.
            A savoir, le schisme porte entre l’Empirisme ( la version Popper est convenable dans ce cadre) et la Logique ( la version Gödel est convenable dans ce cadre).

            Cela implique plusieurs objections :
            1/ comment falsifie-t-on les théories concernant des objets qui nous englobent ou nous constituent ?
            Ex: la société, la psyché, l’économie, l’univers…
            Il y a pour le moins des limites me semble-t-il à la définition Popperienne de la science.

            2/ Les Maths ne sont pas Popperiennes ( purement logiques, non empiriques)

            3/ Fondamentalement, qu’est-ce qu’on fait lorsqu’il y a conflit entre la Falsification Logique et la Falsification Popperienne ? Lorsque les deux méthodes produisent la même valeur de vérité (vrai ou faux; non faux ou faux), tout va bien; mais dans le cas que je soulève, il y a bien un conflit de fondements.
            L’approche Popperienne ne signifie-t-elle pas : rien n’est fondé mais tout est falsifiable (aux limites sur la falsifications près ci-dessus signalées) ?

            Enfin, pour revenir au chat de Schrödinger, il est l’extension macroscopique fictive d’un état quantique microscopique quantique, étant la combinaison à poids égaux de deux états classiques (observables) mutuellement voire logiquement exclusifs l’un de l’autre.
            Effectivement, l’existence de « l’état chat » défie la logique en apparence. Mais, si elle est acquise, c’est plutôt les conceptions de la Physique qui doivent plier que la logique elle-même. Il me semble que cela a été le cas historiquement pour ce que j’en sais.

            Plus fondamentalement encore, il s’agit seulement pour moi d’acter un conflit entre l’attitude empirique (mesure, arithmétique) et l’attitude logique, comme co-fondements de la science. Ce conflit devrait être réglé en revoyant le problème de la mesure en contournant l’arithmétique. Alors, le conflit serait levé. Et il est probable qu’en suivant cette voie de recherche on trouverait une subtilité…

            Ex : les mesures différentielles ( mesures de courbes, surfaces etc…) que l’on somme par intégration sont analogues à l’arithmétique mais n’en relèvent pas cependant.

  4. Bonjour Mr.Roddier, j’ai une interrogation qui me tracasse depuis un moment et je ne suis pas sur de la réponse, pouvez vous me donner votre avis ?

    Imaginons un récipient adiabatique contenant de l’eau (chaude si l’on veut), sans aucun échange de chaleur, il apparaîtra malgré tout une stratification (le plus froid en bas et le plus chaud en haut) donc une diminution de l’entropie (création d’une structure plus organisée) pourquoi ?

  5. Peut-être il y a-t-il un lien entre R = -α . log(α) et et le taux croissance de la création monétaire tel que défini par la théorie relative de la monnaie : c = ln(v/2) / (v/2)

    Ce taux relativement constant, seulement fonction de l’espérance de vie (v) et du taux de croissance de la population, vise à effectuer une symétrie spatiale de la création monétaire. Ce faisant la TRM participe à un cerveau global plutôt qu’oligarchique.

    À noter également la notion de « champs de valeur » formalisé par la TRM.

    http://allocation-universelle.net/theorie-relative-monnaie.php

    1. ERRATUM : il y a une erreur dans mon commentaire de 1 novembre 2016 à 15 h 41 min.

      L’équation c = ln(v/2) / v/2 assure la symétrie TEMPORELLE de la création monétaire (dans la mesure où c varie peu) . La symétrie SPATIALE est assurée par le partage égalitaire et gratuit de cette création monétaire.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *