Tous les articles par francois

88 – Une suite logistique naturelle?

Un lecteur aura peut-être remarqué l’analogie entre la suite des α(i) du billet précédent et la suite logistique décrite dans mon billet 20:

Xi+1 = μ.Xi.[1-Xi]        (1)

Avec la même notation, la suite du billet précédent s’écrit:

Xi+1 = -μ.Xi.log Xi     (2)

Les deux fonctions X(1-X) et -X.log(X) ont un aspect tout à fait similaire pour X compris entre 0 et 1. La première est symétrique. Elle représente un arc de parabole avec un maximum égal à 1/4 pour X=1/2. La seconde est légèrement dissymétrique et passe par un maximum égal à 1/e pour X=1/e. On peut donc s’attendre à ce que les suites (1) et (2) aient un comportement analogue. À ma connaissance, personne ne l’a encore vérifié. Aussi ai-je profité d’un séjour à la neige avec mon fils ainé [1] pour lui demander de le vérifier. Mes lecteurs auront la primeur du résultat.

Les deux figures ci-dessous montrent la limite X de la suite en fonction du paramètre μ, la première dans le cas de la fonction logistique de Verhulst, la seconde dans le cas de la fonction d’Ulanowicz. On constate que l’allure générale est la même, avec toutefois une différence notable. Au lieu de démarrer à μ = 1, la courbe de la figure 2 démarre à μ = 0. Que cela signifie-t-il physiquement?

Les deux courbes correspondent à des modèles physiques notablement différents. Le modèle de Verhultz s’applique à une structure dissipative (originellement une société) dont l’organisation ne change pas, mais dont les ressources énergétiques diminuent. Le modèle d’Ulanowicz s’applique à une structure dissipative (originellement un écosystème) dont l’organisation évolue sans cesse et s’adapte à son environnement.

Il s’agit de deux conceptions radicalement différentes. La population de Verhultz ne se développe qu’en présence de ressources appropriées. Celle d’Ulanowicz s’adapte aux ressources disponibles. Le fait même de pouvoir s’adapter implique un rendement infini à l’origine (voir billet précédent). La population de Verhultz s’éteint lorsque ses ressources sont épuisées. La population d’Ulanowicz s’effondre dans la mesure ou elle ne s’adapte pas assez vite à d’autres ressources.

Le modèle d’Ulanowicz est clairement plus proche de la réalité. La fin du pétrole n’implique pas la fin de l’humanité. Elle implique un effondrement de nos sociétés actuelles dans la mesure où celles-ci ne développent pas assez vite de nouvelles ressources. On retrouve une fois de plus l’importance de la notion d’entropie par rapport à celle d’énergie. Une société ne s’effondre pas parce qu’elle épuise ses ressources en énergie mais parce qu’elle n’acquiert pas assez vite l’information nécessaire pour renouveler ses ressources, c’est-à-dire elle n’élimine pas assez vite l’entropie qu’elle produit [2][3].

[1] Nicolas Roddier (Tachysséma)

[2] François Roddier, dans Politiques de l’Anthropocène II. Économie de l’après-croissance, (Éd. SciencesPo). Chapitre 10: Pourquoi les économies stagnent et les civilisations s’effondrent.

[3] Jacopo Simonetta. The other side of the global crisis: entropy and the collapse of civilisations.

 

evol1Fig. 1. Suite de Verhultz

evol2Fig. 2. Suite d’Ulanowicz


87 – Un peu d’économie

Les économistes souhaiteraient faire de l’économie une science exacte au même titre que les sciences physiques. Ils tentent pour cela d’établir des relations mathématiques entre des grandeurs mesurables. Malheureusement, le choix de ces grandeurs est très pauvre. Il semble se limiter à deux. L’une est le temps qui est clairement défini. L’autre est la monnaie dont l’unité, autrefois liée à l’étalon or, est aujourd’hui plutôt mal définie, et semble fluctuer de façon incontrôlable.

Nous avons vu qu’une société humaine est une structure dissipative. Elle est modélisable comme un réseau d’agents échangeant de l’information. D’un point de vue strictement économique, l’information échangée est la monnaie. Il semble qu’on ait là de quoi jeter les bases d’une véritable science économique. Peut-on appliquer les résultats d’Ulanowicz à l’économie?.

On se heurte d’emblée à un problème fondamental lié à la notion de structure dissipative. Par définition, celles-ci sont dans un état stationnaire, c’est-à-dire qu’elles n’évoluent pas. Malheureusement on s’intéresse justement à leur évolution. Comment faire? En dynamique des fluides, on suppose que l’évolution d’un cyclone est suffisamment lente pour qu’on puisse encore définir la température et la pression du gaz en chaque point. C’est ce qu’on appelle l’équilibre thermodynamique local. Lorsqu’on mesure l’état d’un écosystème, on suppose implicitement que cet état ne varie pas sensiblement durant le temps des mesures. L’hypothèse apparait valable compte tenu de la précision des mesures. Qu’en est-il de l’économie?

Les économistes résolvent généralement le problème en définissant l’état d’une économie sur l’échelle d’une année. Ce choix naturel permet de moyenner les fluctuations saisonnières (mais peut poser des problèmes dans le cas très fluctuant de l’économie financière). Quelle serait donc l’équivalent du paramètre d’ordre α d’Ulanowicz? Si l’on définit l’information comme étant donnée par la monnaie, alors l’information mémorisée est le capital. Cette information est en général mémorisée sur un compte bancaire. Normalisée au maximum égal à 1, c’est la fraction α du revenu annuel qui est capitalisée en vue de rapporter l’année suivante.

La quantité α est une variable aléatoire dont la réalisation n’est connue qu’à la fin de l’année i. L’expression d’Ulanowicz montre que α(i) peut aussi être considéré comme un estimateur bayésien (1) de la probabilité de profit pour l’année i+1. En ce sens, α(i) apporte  pour l’année suivante une information α(i+1) qui vaut en moyenne α(i+1) = -α(i).log α(i). La quantité α(i+1) est ce qu’on appelle le revenu du capital. Les économistes la mettent sous la forme α(i+1) = r.α(i) où r est le rendement du capital. On voit que l’expression d’Ulanowicz implique un rendement du capital de la forme r = -log α. Cela peut paraître surprenant car il est infini à l’origine. Nous allons voir que c’est effectivement le cas.

Si l’on réinvestit chaque année le revenu du capital, on a ce qu’on appelle un revenu d’intétêts composés caractéristique des processus autocatalytiques. Une fois réinvesti le revenu du capital devient un nouveau capital α(i+1) = r.α(i), terme d’une progression géométrique de raison r. Il s’agit bien d’une cascade d’événements typique des processus d’auto-organisation. On sait que ces cascades sont déclenchées par des fluctuations aléatoires, ici des pertes ou des gains accidentels en moyenne nuls. Un gain de moyenne nulle peut être considéré comme un revenu accidentel sans capital. Son rendement est bien infini. Lorsque ce gain est investi, il peut engendrer une cascade plus ou moins importante d’événements capables de créer des fortunes. C’est la base du système capitaliste, souvent qualifié de « rêve américain », dans lequel n’importe qui est sensé pouvoir devenir riche.

L’expression d’Ulanowicz implique qu’il existe une valeur critique α  = 1/e (37%) pour laquelle la raison r = -log α de la progression est égale à l’unité. Le revenu du capital compense alors tout juste les dépenses et maintient le capital constant. Lorsque α < 1/e, la raison r de la progression est supérieure à l’unité, de sorte que le capital croit chaque année. Dans le cas d’un pays, on parle de croissance économique. Lorsque α > 1/e, la raison r de la progression devient inférieure à l’unité et le capital décroit. Lorsqu’il y a eu création monétaire, c’est-à-dire que le capital a été emprunté à une banque, alors il ne peut plus être remboursé et c’est la faillite, d’où la terreur des économistes à l’idée d’une décroissance économique.

Tout système économique, nation ou entreprise, cherche à maximiser le revenu de son capital de façon à faire croître ce dernier. On voit qu’il y a une limite au delà de laquelle le capital ne croit plus et même décroit, c’est le point critique caractérisé par le nombre sans dimension 1/e. Il semblerait que l’on puisse généraliser ce résultat à toute structure dissipative (2). Celle-ci va s’adapter à son environnement de façon à maximiser l’information reçue jusqu’au moment ou l’information qu’elle mémorise ne croit plus et même décroit. Elle a alors atteint le point critique. Elle mémorise alors autant d’information qu’elle en efface. Cela implique que le point critique est aussi un point de dissipation maximale d’énergie. On sait qu’une structure dissipative oscille constamment autour du point critique en quête du maximum (billet 21).

(1) Un estimateur bayésien (ou inférence bayésienne) estime la probabilité d’un événement à partir de celles d’événements précédents.

(2) Considérée comme un réseau d’agents échangeant de l’information.


86 – Les structures dissipatives

Les frottements solides, la viscosité des liquides et des gaz font que l’énergie mécanique se dissipe toujours en chaleur. En l’absence d’apport extérieur d’énergie, les mouvements mécaniques finissent par s’arrêter, tandis que les différences de températures s’estompent et s’annulent. C’est ainsi que les systèmes isolés tendent vers l’équilibre thermodynamique. Leur énergie interne reste constante, tandis que leur entropie augmente pour atteindre sa valeur maximale à l’équilibre.

Supposons maintenant qu’on maintienne les mouvements mécaniques en compensant l’effet des frottements par à un apport permanent d’énergie, et que la chaleur dégagée soit évacuée de façon à ce que la température du système reste constante. On a maintenant un système ouvert maintenu en mouvement permanent grâce au flux d’énergie qui le traverse. Restant constamment semblable à lui-même, le système thermodynamique est qualifié de stationnaire.

Les exemples de tels systèmes abondent dans la nature: un cyclone ou un ensemble de cyclones/anticyclones tels que l’atmosphère terrestre, un être vivant ou un ensemble d’êtres vivants comme une espèce animale ou végétale, ou un écosystème, un être humain ou un ensemble d’êtres humains tel qu’une société humaine. Il y a environ un demi-siècle Prigogine leur donnait le nom de structure dissipative.

Par définition, une structure dissipative dissipe de l’énergie donc produit de l’entropie qu’elle évacue au fur et à mesure qu’elle la produit. Entropie et information étant de signe opposé (billet précédent), évacuer de l’entropie signifie importer de l’information. Une structure dissipative importe sans cesse de l’information de son environnement. Lorsqu’elle s’auto-organise une structure dissipative diminue son entropie interne, donc augmente son contenu en information en la mémorisant. C’est une mémoire temporaire.

En régime stationnaire, une structure dissipative perd autant d’information qu’elle en mémorise. Elle renouvelle sans cesse l’information qu’elle mémorise. Perdre de l’information est synonyme de produire de l’entropie, donc de dissiper de l’énergie. C’est en effaçant continuellement de l’information qu’elle a mémorisée qu’une structure dissipative dissipe de l’énergie.

S’il est naturel de parler de diminution d’entropie lorsqu’une machine thermique comme un cyclone s’auto-organise, parler d’information mémorisée est plus inhabituel. La mémoire d’un cyclone est inertielle. Si vous coupez la source d’énergie, le cyclone va continuer à tourner mais de moins en vite. La mémoire de ce mouvement va s’effacer progressivement au fur et à mesure que l’énergie se dissipe.

On sait aujourd’hui que les organismes vivants mémorisent de l’information dans leurs gènes. Les organismes les plus évolués ont aussi un cerveau. Un jeune enfant mémorise énormément d’information au cours de son éducation. Devenu adulte, il oublie autant de faits qu’il en mémorise de nouveaux. Devenu vieux, sa mémoire décline peu à peu, comme sa faculté de dissiper l’énergie. Les sociétés humaines ont longtemps mémorisé de l’information dans des livres. Aujourd’hui, leur faculté de mémoriser de l’information a considérablement augmenté, comme celle de dissiper de l’énergie.

J’ai déjà parlé dans ce blog du modèle de cerveau de Stassinopoulos et Bak (billet 62). Il est décrit dans mon livre sur la thermodynamique de l’évolution (sections 9.3 et 9.4). Ce modèle s’applique à un réseau neuronal quelconque. Il peut, par exemple, être utilisé pour comprendre le comportement d’une société humaine (billet 63). On parle alors de « cerveau global ». Il peut aussi être utilisé pour décrire un réseau d’échanges économiques (voir mon exposé au CNAM). Il pourrait même s’appliquer à un gaz, considéré comme un ensemble de particules qui échangent de l’information (billet 26).

Un cas particulierement intéressant est celui d’un écosystème. Après avoir reçu une formation d’ingénieur chimiste, Robert Ulanowicz s’est intéressé aux écosystèmes comme étant des réseaux d’agents échangeant de la matière, de l’énergie et de l’information. Il a ainsi modélisé les échanges entre les organismes vivants de la baie de Chesapeake. Pour Ulanowicz, les écosystèmes mémorisent de l’information tout comme le fait un cerveau humain. Il définit le degré d’ordre d’un écosystème par un paramètre α compris entre 0 et 1.

On peut interpréter ce paramètre d’ordre α comme étant la fraction de mémoire utilisée par ce réseau neuronal. Ses résultats s’appliquent à toute structure dissipative considérée comme un réseau neuronal. Nous avons vu plus haut qu’une structure dissipative s’auto-organise en mémorisant de l’information sur son environnement. Plus la quantité d’information mémorisée est grande, mieux la structure s’adapte à son environnement, mais plus elle doit modifier d’information pour rester adaptée, donc plus elle dissipe d’énergie. Il arrive un moment ou la fraction 1-α de mémoire disponible devient insuffisante, de sorte que les capacités d’adaptation de la structure n’augmentent plus et même diminuent. Il existe une valeur de α pour laquelle la capacité d’adaptation est optimale.

Robert Ulanowicz définit la robustesse R d’un écosystème comme étant sa capacité à s’adapter aux changements. Il montre que R doit être de la forme R = -α.log(α). La robustesse est nulle pour α = 0 et pour α = 1. Elle est maximale et égale à 1 pour α = 1/e où e est la base des logarithmes népériens (e = 2,718). Ses mesures sur les écosystèmes de la baie de Chesapeake montrent que les valeurs observées de α se concentrent effectivement autour de la valeur 1/e. Pour plus de détails voir l’article original (1). Dans un prochain billet, nous en tirerons les conséquences.

(1) R.E. Ulanowicz, Int. J. of Design & Nature and Ecodynamics. Vol. 4, No. 2 (2009) 83–96.

 


85 – Entropie et information.

Beaucoup de mes lecteurs trouvent ces notions difficiles, notamment ceux d’entre eux qui n’ont pas eu de formation scientifique. Je les rassure. Les physiciens eux-mêmes ont mis plus d’un siècle à comprendre ce qu’est l’entropie.

Le concept d’entropie a été introduit en 1865 par le physicien allemand Rudolph Clausius, comme une conséquence du second principe de la thermodynamique, tel qu’il a été énoncé en 1824 par le français Sadi Carnot. Comme l’énergie, l’entropie est une fonction d’état, c’est-à-dire qu’elle ne dépend que de l’état (1) du système considéré. Cependant, à la différence de l’énergie, l’entropie n’est pas une quantité conservative. Elle ne se conserve que dans les systèmes isolés subissant des transformations réversibles. Si un système isolé subit des transformations irréversibles, son entropie augmente. Ainsi, l’entropie d’un système isolé ne peut qu’augmenter. Sa valeur maximale est atteinte à l’équilibre thermodynamique.

Cela a conduit à l’idée que l’entropie de l’univers ne peut qu’augmenter, idée que l’on retrouve partout dans la littérature. En pratique, la seule chose qu’un scientifique puisse étudier est l’univers observable. On sait aujourd’hui que l’univers observable perd sans cesse de la matière. Une partie de celle-ci disparait derrière un horizon cosmologique (2) tandis qu’une autre partie disparait à l’intérieur de trous noirs. En conséquence, l’entropie de l’univers observable peut fort bien diminuer. L’apparition spontanée de différences de température, lors de la formation des étoiles, laisse à penser que c’est le cas.

Dès 1861, Willard Gibbs soulevait une difficulté liée à la notion d’entropie en montrant que mélanger deux gaz augmente leur entropie, sauf si ceux-ci sont identiques. L’augmentation est la même aussi petite que ce soit leur différence. Ainsi l’entropie d’un système dépend de ce qu’on sait sur le système.

En 1868, James Clerk Maxwell aboutissait à une conclusion similaire en montrant qu’un « démon » qui serait capable de distinguer les molécules rapides d’un gaz de ses molécules lentes pourrait les séparer, sans effectuer de travail mécanique. Cela créerait une différence de température, en violation du second principe.

En 1929, Leo Szilard reprend l’idée de Maxwell et montre qu’on pourrait faire marcher un moteur thermique avec une seule source de chaleur en utilisant un gaz formé d’une seule molécule à la condition de savoir où celle-ci se trouve. Ces deux derniers exemples montrent qu’un apport de connaissance sur un système isolé diminue l’entropie de celui-ci.

En 1944, Erwin Schrödinger, remarque qu’en s’auto-organisant les êtres vivants diminuent leur entropie interne grâce au flux d’énergie qui les traverse. Il introduit le néologisme de néguentropie ou entropie négative.

En 1948, Claude Shannon publie sa théorie mathématique de la communication dans laquelle il introduit une mesure de la quantité d’information a transmettre dans un message. L’expression de cette mesure est identique (au signe près) à celle de l’entropie de Gibbs. On parle alors d’entropie informationelle ou entropie de Shannon.

En 1956, Léon Brillouin applique l’expression de Shannon à l’information apportée par le démon de Maxwell et montre qu’elle résoud le paradoxe. L’entropie thermodynamique de Gibbs apparait alors comme un cas particulier de l’entropie de Shannon appliquée à l’information sur un système thermodynamique. Appliquée aux êtres vivants, la néguentropie de Schrödinger représente l’information transmise par les gènes.

En 1961, les ingénieurs cherchent à réduire la chaleur dégagée par les ordinateurs et se posent la question de savoir s’il y a une limite théorique. Ralph Landauer montre qu’il y a une limite due aux opérations irréversibles. Effacer un bit d’information doit nécessairement provoquer un dégagement de chaleur équivalent à l’énergie d’un degré de liberté du système. C’est le principe de Landauer. Effacer de l’information étant un cas particulier d’opération irréversible, l’entropie de Shannon devient un cas particulier d’entropie thermodynamique.

Entropie thermodynamique et entropie de Shannon étant chacune un cas particulier de l’autre, cela implique qu’il s’agit d’un seul et même concept.

Aujourd’hui, les lasers permettent d’isoler un très petit nombre de particules élémentaires, d’observer leur agitation thermique et même de les manipuler comme le ferait un démon de Maxwell (3). C’est ainsi que le principe de Landauer a pu être récemment vérifié expérimentallement au laboratoire de l’ENS de Lyon (4).

Les travaux de Landauer ont montré que la notion d’information est bien une grandeur physique. Elle s’applique aussi bien à l’état d’un gaz qu’à celui d’un ordinateur. De fait, le physicien Ed Fredkin a montré qu’un gaz se comporte comme un ordinateur. L’univers lui-même peut être considéré comme un ordinateur (billet 26), un ordinateur qui se perfectionnerait de lui-même en créant des modules capables de mémoriser toujours plus d’information. Prolongements exosomatiques des cerveaux humains, les ordinateurs apparaissent eux-mêmes comme les derniers avatars de cette évolution.

(1) L’état thermodynamique d’un système est défini par ses variables macroscopiques. Par exemple, l’état d’un gaz est défini par son volume, sa pression et sa température.

(2) Lawrence M. Krauss, Robert J. Sherrer. The End of Cosmology? Scientific American, March 2008, pp. 47-53.

(3) Eric Lutz, Sergio Ciliberto, Information: From Maxwell’s demon to Landauer’s eraser. Physics Today, Vol. 68, Issue 9, September 2015.

(4) Antoine Bérut et al., 2012.


84 – La poule aux œufs d’or

Le Contre-Sommet de Vénissieux a été annulé (voir le site). Je partage  l’émotion de tous devant des événements qui, hélas, confirment nos inquiétudes  sur l’évolution actuelle de la société. Voici le texte que j’avais préparé pour mon intervention:

Je souhaiterais ici vous faire part de mon expérience en tant que chercheur en sciences de l’univers (Astronomie-Géophysique). J’ai choisi cette voie en 1959 parce que j’étais plus intéressé par la recherche fondamentale que par ses applications. Je croyais alors naïvement que les chercheurs décidaient eux-mêmes des orientations les plus susceptibles de faire avancer nos connaissances. Je me suis rapidement aperçu que ces décisions étaient prises d’en haut par des technocrates, suivant des critères obscurs, généralement liés à d’éventuelles applications industrielles ou militaires.

Dans le cas de l’astronomie, cela me paraissait franchement bizarre jusqu’au jour où je me suis rendu compte que le critère principal était la faveur du grand public (il faut bien que nos dirigeants se fassent élire!). J’ai passé ensuite ma vie à tenter de détourner des moyens de financement de grands programmes aussi dispendieux qu’inutiles, vers des recherches qui me paraissaient à la fois moins coûteuses et bien plus prometteuses. Je disais alors à qui voulait l’entendre: on est en train de tuer la poule aux œufs d’or.

Aujourd’hui la poule est à l’agonie. Les partisans de la croissance s’en lamentent. Je crains que certains partisans de la décroissance ne s’en réjouissent. Je donne tort aux uns comme aux autres. La poule, c’est en fait toute notre civilisation. On sait aujourd’hui que les civilisations naissent, se développent, vieillissent et meurent. Lorsque j’étais jeune, je m’étonnais que les habitants de l’île de Pâques aient pu abattre tous leurs arbres sans se rendre compte de ce qu’ils faisaient. Je pensais qu’en aucun cas, une civilisation comme la nôtre ne ferait une telle bétise. C’est pourtant ce que nous avons fait en brûlant nos ressources fossiles au point de provoquer un réchauffement climatique. Aujourd’hui, les technocrates appellent au secours les chercheurs en sciences de l’univers. Ma réponse est: c’est trop tard!

Une aventure similaire est arrivée aux Mayas d’Amérique comme aux Sumériens de Mésopotamie. On parle aujourd’hui de «cerveau global». L’effondrement des civilisations conduit à une prise de conscience collective des individus qui la composent. Ceux-ci s’interrogent sur les causes de l’effondrement. Qu’avons nous fait? La civilisation méditerranéenne s’est effondrée en 1177 avant J.C., à la fin de l’âge de bronze. Vers cette époque apparaissait le monothéisme avec l’ancien testament. Celui-ci nous en offre une explication, celle du veau d’or: le dieu de Moïse nous puni à cause de notre cupidité. Mille six cents ans plus tard, l’empire romain s’effondre. Le nouveau testament nous propose une nouvelle explication: nous sommes punis à cause de nos disputes entre monothéistes et polythéistes. Le message est celui des chrétiens: aimons nous les uns les autres.

Ce message a présidé à l’essor du Moyen-Âge jusqu’à ce que de nouvelles querelles religieuses apparaissent. Celles-ci ont été surmontées au siècle des lumières. Celui-ci nous a conduit à la révolution industrielle, mais aussi au réchauffement climatique. Mille six cents ans après l’effondremement de l’empire romain, nous sommes à nouveau au bord du gouffre. Comment le cerveau global de l’humanité va-t-il réagir? Quel nouveau péché avons-nous commis? S’il parait difficile d’éviter de nouvelles querelles, la leçon semble claire: nous avons péché par orgueil. En mettant le pied sur la lune, l’homme a cru s’affranchir des lois de la nature. Comme le dit l’entrepreneur lyonnais Romain Ferrari, il est grand temps qu’il remette les pieds sur terre.

Si notre poule aux œufs d’or va s’éteindre, un de ses œufs va un jour éclore. Quel consigne allons-nous laisser à nos descendants? Pour moi, la réponse est claire: c’est une leçon d’humilité. Nous avons pour la première fois une explication rationnelle à ce qui nous arrive, mais elle est encore très mal comprise. La vie est un processus naturel de dissipation d’énergie. Nous sommes faits pour dissiper l’énergie. Dès qu’une source d’énergie apparait, nous nous précipitons vers elle comme les insectes vers la lumière à laquelle ils se brûlent. Allons-nous enfin en devenir conscient?

Une seule loi pourrait aujourd’hui remplacer les dix commandements de Moïse: la loi fondamentale de la thermodynamique, dite loi de Carnot. Elle s’énonce ainsi: on ne peut durablement dissiper l’énergie que par des cycles fermés de transformation extrayant de la chaleur d’une source chaude pour en rendre une partie à une source froide. Nous commençons seulement à en percevoir les implications. La première est que cette loi met en jeu non seulement l’Homme mais toutes les formes terrestres de dissipation d’énergie, un ensemble que certains dénomment Gaïa.

Une seule forme d’énergie est autorisée. Elle est fournie par le Soleil, notre source chaude à 6000°K. Notre source froide est le ciel nocturne à 3°K. Elle implique que nous prenions soin de la couche d’ozone qui nous en sépare. Quand au cycles de transformations, ils mettent en jeu toutes les formes de vie terrestre. On peut considérer Gaïa comme un moteur à deux temps. Dans un premier temps, les plantes captent l’énergie solaire et l’emmagazinent sous forme de carbone chimiquement réduit. Dans un second temps, l’oxydation du carbone dégage la chaleur émise sous forme de rayonnement infrarouge en direction du ciel nocturne.

Les moteurs thermiques sont naturellement instables. Ils fonctionnent grâce à des suites d’explosions et d’extinctions. James Watt a dû équiper sa machine à vapeur d’un régulateur à boule. L’humanité va devoir réguler son propre développement. Elle pourra pour cela s’inspirer de la biologie (on parle de biomimétisme). Elle devra passer d’un stade d’organisation semblable à celui des écosystèmes à l’intérieur duquel règne une compétition darwinienne, à un stade d’organisation plus complexe, semblable à celui d’un organisme multicellulaire. Cela implique le développement de multiples voies métaboliques, chacune associée à des monnaies-enzymes différentes. Elles sont la clé des mécanismes de régulation du corps humain.


82 – Annonce

Mercredi 14 octobre 2015 à 19h30, je donnerai une des deux conférences animées par Philippe Lamberts, à:

La Tricoterie, 158 rue Théodore Verhaegen, 1060 St-Gilles, Belgique.

Il est recommandé de s’inscrire à l’avance par e mail via: info@etopia.be ou la page facebook.

 


81 – Instruction et éducation.

Une société d’insectes, comme un essaim d’abeilles, ne peut se former que si les individus qui la composent ont tous des gènes communs, en l’occurrence les gènes de la reine qui est leur génitrice commune. Ce sont ces gènes communs qui assurent la cohésion de la société grâce au phénomène de sélection de parentèle. Par contre les mâles appelés faux bourdons communiquent à leurs descendants des gènes différents. En assurant la diversité génétique de l’essaim, ils permettent à la sélection naturelle d’agir sur son évolution.

On sait que, chez l’Homme, la culture joue le rôle des gènes (1). De la même façon, la cohésion d’une société humaine nécessite une certaine proportion de culture commune à tous ses membres. Cette culture commune ne peut être dispensée que par une éducation commune. Elle donne le sens d’appartenance à une même communauté, notamment l’usage d’une langue commune. Toutefois une société dont tous les individus partageraient entièrement une seule et même culture ne saurait évoluer. L’analogie avec les sociétés d’insectes nous incite à penser que la moitié de l’héritage culturel doit typiquement être diversifié.

Lorsqu’une société se réorganise, comme la France en 1789, sa culture évolue. Des penseurs comme Condorcet ont, à cette époque, réfléchi au rôle de l’enseignement. Une de ses thèses est que l’éducation doit se borner à l’instruction, c’est-à-dire à l’apprentissage de faits solidement établis, admis par tous, indépendamment de toute idéologie. En bon révolutionnaire, il rejette l’éducation religieuse à l’école. Celle-ci doit rester laïque et respecter l’indépendance des opinions sinon, elle peut porter atteinte aux droits des parents. On retrouve bien la même idée que l’héritage culturel doit être transmis en partie par la société et en partie par la famille. L’héritage de la société correspond aux gènes de la reine des abeilles. L’héritage de la famille correspond aux gènes des faux-bourdons.

Aujourd’hui l’évolution a été si rapide qu’on ne sait plus ni quoi ni comment enseigner.  Avec les vidéos et les ordinateurs, les enfants n’éprouvent plus le besoin d’apprendre à lire, ni à compter. Les programmes du secondaire ne cessent d’être modifiés, tandis que le baccalauréat n’offre plus de débouchés. Notre système d’éducation nationale s’effondre. Les parents n’ayant plus le temps de s’occuper de leur progéniture, les enfants des plus pauvres restent sans éducation. Ceux des plus riches sont confiés à des écoles privées de plus en plus nombreuses.  Aux inégalités de richesses s’ajoutent les inégalités culturelles. L’unité culturelle de la France se délite au profit d’une culture européenne calquée sur celle des États-Unis.

(1) François Roddier.  Thermodynamique de l’évolution. Éditions Parole (2012).


80 – La notion de processus.

Dans ma réponse aux derniers commentaires sur mon billet 77, je parle du néocortex. Le développement du néocortex, notamment le cortex préfrontal, nous distingue des grands singes avec lesquels nous partageons plus de 99% de nos gènes fonctionnels. Quelques gènes, bien ciblés par la sélection naturelle, nous en séparent. Ces quelques gènes nous ont permis non seulement d’éliminer d’autres espèces homo concurrentes mais aussi de décupler par la technique notre dissipation d’énergie et d’envahir toute la planète. On reconnait là l’aspect non-linéaire de l’évolution qui produit des effets disproportionnés, sans rapport avec leurs causes, aspect qui rend son étude difficile.

Dans mon commentaire, je qualifie le néocortex de cerveau rationnel, le siège de la raison. En mathématiques, le mot raison signifie justement proportion. On lie généralement le développement du néocortex à la formation des premières sociétés et à la nécessité de partager équitablement la nourriture en proportion du nombre d’individus. On sait en effet que le néocortex est lié aux activités sociales, notamment le langage. Il est lié aussi à la mémoire dite « mémoire de travail » qui permet le calcul mental. Ces facultés mentales ont permis le développement des mathématiques, outil indispensable à toute science.

Une particularité du cerveau humain, appelée néotémie, est de garder des caractéristiques juvéniles. Les mathématiques ont sans conteste un caractère ludique et leur développement est vraisemblablement lié à ce caractère. Le physicien est plus intéressé par l’application des mathématiques au monde qui nous entoure. La physique reste cependant très proche des mathématiques. Les deux se sont souvent développés de concert comme en physique mathématique, les mathématiques apportant alors la rigueur aux méthodes plus intuitives des physiciens.

Le physicien s’intéresse avant tout aux grandeurs mesurables qui sont un gage de précision, différentes mesures pouvant être comparées entre elles. Les concepts physiques ont été peu à peu étendus à la chimie puis à la biologie et aux sciences humaines, notamment par le biais de la statistique, une progression logique allant du simple au plus complexe.

Je montre dans mon livre (1) comment de génétique, l’évolution est devenue progressivement culturelle. Déterminé dès la naissance par ses gènes, le comportement d’un insecte ou d’un lézard n’évolue plus une fois atteint l’âge adulte. Au contraire, déterminé par sa culture, donc initialement par son éducation, le comportement d’un être humain continue à évoluer toute sa vie.

Personnellement, j’ai évolué dans l’ordre logique: mon premier livre, a été un livre de mathématiques. Son sujet: la transformation de Fourier, est un outil pour les physiciens. Le fait que Joseph Fourier ait développé cet outil pour résoudre l’équation de la chaleur est peut-être prémonitoire de mon intérêt qui a suivi pour la dissipation de l’énergie. Dès ma retraite, je me suis intéressé à la biologie. Mes dernières conférences portent aujourd’hui sur l’économie.

Ma démarche scientifique reste cependant une démarche de physicien. Mes lecteurs ont pu remarquer que j’utilise sans cesse le mot processus. En physique, on parle de processus lorsque des grandeurs physiques sont liées par des équations permettant de décrire leur évolution. Prenons comme exemple une masse attachée au bout d’un ressort. L’équation différentielle qui lie la position de la masse au temps montre que la masse va osciller sinusoïdalement. Elle permet de calculer la période des oscillations.

Il arrive que d’autres grandeurs physiques soient liées par exactement les mêmes équations. C’est le cas par exemple du courant électrique dans une bobine mise en série avec un condensateur. L’équation différentielle qui lie la charge du condensateur au temps est la même que dans l’exemple précédent. Elle montre que le courant électrique va lui aussi osciller et permet de calculer la période des oscillations. Un physicien dira qu’il s’agit du même processus. C’est beaucoup plus qu’une métaphore ou une analogie, parce que la comparaison est quantitative et porte sur des grandeurs mesurables. Le comportement est exactement le même, bien que les échelles de temps ou d’espace peuvent être extrêmement différentes.

En passant du simple au complexe, reconnaître que la monnaie se comporte comme un catalyseur montre que le formalisme de la cinétique chimique pourrait s’appliquer à l’économie. Il apparaîtrait alors clairement que l’évolution économique s’apparente à celle d’une réaction de combustion. Une démarche analogue m’a fait dire que les cycles économiques sont des cycles de machines thermiques. Pour ceux qui ont écouté ma conférence du 12 mars (voir billet 75), j’y ai montré qu’on peut décrire l’évolution de chacun de ces cycles à l’aide des mêmes équations. Un physicien dira encore qu’il s’agit du même processus.

J’ai largement décrit dans mon livre (1), comme dans ce blog, le processus de criticalité auto-organisée découvert par le physicien danois Per Bak. Cet auteur a montré que les extinctions d’espèces en sont une conséquence. Elles sont dues à l’incapacité des gènes à s’adapter à une évolution qui devient trop rapide. L’évolution de l’espèce homo sapiens étant devenue largement culturelle, l’homme peut s’adapter beaucoup plus rapidement au changement de son environnement. Toute adaptation a cependant des limites. Les effondrements de civilisation ont remplacé les extinctions d’espèces. Là encore, le physicien dira qu’il s’agit du même processus. Ce qu’on sait sur l’un de ces deux phénomènes nous aide à comprendre l’autre.

Tandis que les extinctions d’espèces affectent la transmission des gènes, les effondrements de civilisation affectent la transmission de la culture. Dans nos sociétés modernes, ce rôle est réservé à l’école. On doit donc s’attendre à ce qu’un effondrement de civilisation se manifeste d’abord par un effondrement du système scolaire, un sujet que je me propose d’aborder prochainement.

(1) Thermodynamique de l’évolution, Parole éd., 2012.

79 – L’homéostasie et le métabolisme

Un des problèmes non résolus de la biologie, auquel je fais souvent référence, est celui de l’homéostasie, c’est-à-dire de la stabilité des organismes vivants. Au fur et à mesure de l’évolution, des mécanismes de régulation sont apparus qui maintiennent à peu près constantes certaines de leurs caractéristiques comme leur taille, leur température ou leur besoin en nourriture. À cause de ces mécanismes, le processus de criticalité auto-organisée ne s’applique plus.

Il s’applique cependant encore à la plupart des populations d’individus, par exemple aux populations de bactéries. On le sait grâce aux épidémies. Les statistiques montrent que l’amplitude des épidémies est inversement proportionnelle à leur fréquence (1). Bak et Sneppen ont montré qu’il s’appliquait de façon générale aux espèces animales et végétales. En présence de nourriture, leur population prolifère jusqu’au moment où, les ressources étant épuisées, la population s’effondre au point que parfois l’espèce s’éteint. La statistique des extinctions d’espèces montre que l’amplitude des extinctions est effectivement inversement proportionnelle à leur fréquence.

Le processus de criticalité auto-organisée ne s’applique plus dès que la population est suffisamment organisée pour pouvoir être considérée comme formant un seul et même organisme vivant. C’est le cas par exemple d’un essaim d’abeilles. Darwin lui-même s’était déjà rendu compte que, dans ce cas, la sélection naturelle ne s’applique plus aux abeilles, mais à l’essaim. Au lieu d’être en compétition entre elles, les abeilles coopèrent pour le plus grand bénéfice de la ruche. On constate alors que la taille des essaims d’abeille n’est plus distribuée suivant une loi en 1/f, mais est centrée autour d’une taille optimale. C’est bien sûr le cas de tous les organismes multicellulaires considérés comme des populations de cellules différenciées coopérant entre elles. La question se pose alors de savoir ce qui détermine la taille optimale des essaims d’abeille comme celle des organismes multicellulaires.

La réponse est naturellement liée à la quantité d’énergie qu’ils dissipent par unité de temps, c’est-à-dire à leur métabolisme. On sait que le métabolisme d’un organisme vivant est lié à sa masse par la loi empirique de Kleiber (2). Très largement vérifiée, cette loi dit que le métabolisme est proportionnel à la puissance 3/4 de la masse. Si l’on admet que l’énergie dissipée par un organisme vivant est proportionnelle à sa surface, tandis que sa masse est proportionnelle à son volume, alors le métabolisme devrait être proportionnel à la puissance 2/3 de la masse et non pas 3/4. D’après West, Brown et Enquist (3), la puissance 3/4 serait due à la structure fractale des artères ou capillaires qui distribuent l’énergie chez les êtres vivants. Cette structure optimiserait leur dissipation d’énergie. Elle serait donc une conséquence du principe de production maximale d’entropie. Mais pourquoi le coefficient 3/4? La question est toujours débattue.

Reprenons le cas d’une ruche. En présence de nourriture abondante, on s’attend à ce que le métabolisme de la ruche (énergie totale qu’elle dissipe par unité de temps) soit proportionnel au nombre d’abeilles, c’est-à-dire à la masse totale des abeilles. En l’absence de nourriture, les abeilles limitent leurs pertes thermiques en formant un essaim sphérique. Si le métabolisme de l’essaim se limite à compenser ces pertes, il est alors proportionnel à la puissance 2/3 de sa masse. Ce sont clairement deux cas extrêmes. L’exposant 3/4 apparait comme un cas intermédiaire pour lequel la nourriture est suffisante à la survie, sans pour autant être abondante.

On peut définir l’efficacité métabolique de la ruche comme étant son métabolisme par unité de masse (ou par abeille). L’exposant 3/4 implique qu’il décroit comme la puissance -1/4 de la masse totale des abeilles. Cela a des implications pour la croissance d’une ruche. Au fur et à mesure que le nombre d’abeilles croit, l’efficacité métabolique de la ruche décroit. Chacun sait que les abeilles produisent plus de miel que ce dont elles ont besoin, à notre grand bénéfice. L’excédent de miel est là pour compenser un manque éventuel de nourriture. Mais lorsque le nombre d’abeilles augmentent, celles-ci ont de plus en plus de mal à maintenir un stock suffisant de nourriture. La croissance de la ruche s’arrête. Sa population atteint l’homéostasie.

La question se pose alors de savoir ce qui détermine l’arrêt de la croissance. Les abeilles ayant tendance à former des essaims trop petits ou trop gros vont, suivant le cas, moins bien se reproduire ou survivre moins longtemps que celles qui forment des essaims de taille optimale. La sélection naturelle va donc les éliminer. Au lieu de fluctuer avec une amplitude inversement proportionnelle à sa fréquence, comme le voudrait le processus de criticalité auto-organisée, la taille des essaims d’abeilles devient régulée. Elle se contente de fluctuer autour d’une taille optimale. Cette taille optimale, est devenue une caractéristique génétique des abeilles.

Le lecteur aura compris que tout ceci peut s’appliquer aux populations humaines. L’histoire et l’archéologie montrent que les populations humaines ont tendance à croître exponentiellement puis à s’effondrer dès que les ressources viennent à manquer. La découverte et l’extraction des énergies fossiles, notamment le pétrole, à provoqué une véritable explosion de la population humaine à l’échelle du globe et chacun s’inquiète, à juste titre, des effets de notre utilisation incontrôlée de ces ressources. Peu à peu une prise de conscience se fait jour de la nécessité de réguler notre utilisation de l’énergie. Tandis que la taille des essaims d’abeilles est devenue une caractéristique génétique de ces insectes, la taille des populations humaines deviendra-t-elle à son tour une caractéristique culturelle de l’homme?

(1) C’est pourquoi celles-ci font partie des causes possibles d’effondrement de l’humanité.

(2) Voir Thermodynamique de l’évolution, p. 68.

(3) West, G.B., Brown, J.H. & Enquist, B.J. (1997) A general model for the origin of allometric scaling laws in biology. Science 276, 122–126.