85 – Entropie et information.

Beaucoup de mes lecteurs trouvent ces notions difficiles, notamment ceux d’entre eux qui n’ont pas eu de formation scientifique. Je les rassure. Les physiciens eux-mêmes ont mis plus d’un siècle à comprendre ce qu’est l’entropie.

Le concept d’entropie a été introduit en 1865 par le physicien allemand Rudolph Clausius, comme une conséquence du second principe de la thermodynamique, tel qu’il a été énoncé en 1824 par le français Sadi Carnot. Comme l’énergie, l’entropie est une fonction d’état, c’est-à-dire qu’elle ne dépend que de l’état (1) du système considéré. Cependant, à la différence de l’énergie, l’entropie n’est pas une quantité conservative. Elle ne se conserve que dans les systèmes isolés subissant des transformations réversibles. Si un système isolé subit des transformations irréversibles, son entropie augmente. Ainsi, l’entropie d’un système isolé ne peut qu’augmenter. Sa valeur maximale est atteinte à l’équilibre thermodynamique.

Cela a conduit à l’idée que l’entropie de l’univers ne peut qu’augmenter, idée que l’on retrouve partout dans la littérature. En pratique, la seule chose qu’un scientifique puisse étudier est l’univers observable. On sait aujourd’hui que l’univers observable perd sans cesse de la matière. Une partie de celle-ci disparait derrière un horizon cosmologique (2) tandis qu’une autre partie disparait à l’intérieur de trous noirs. En conséquence, l’entropie de l’univers observable peut fort bien diminuer. L’apparition spontanée de différences de température, lors de la formation des étoiles, laisse à penser que c’est le cas.

Dès 1861, Willard Gibbs soulevait une difficulté liée à la notion d’entropie en montrant que mélanger deux gaz augmente leur entropie, sauf si ceux-ci sont identiques. L’augmentation est la même aussi petite que ce soit leur différence. Ainsi l’entropie d’un système dépend de ce qu’on sait sur le système.

En 1868, James Clerk Maxwell aboutissait à une conclusion similaire en montrant qu’un « démon » qui serait capable de distinguer les molécules rapides d’un gaz de ses molécules lentes pourrait les séparer, sans effectuer de travail mécanique. Cela créerait une différence de température, en violation du second principe.

En 1929, Leo Szilard reprend l’idée de Maxwell et montre qu’on pourrait faire marcher un moteur thermique avec une seule source de chaleur en utilisant un gaz formé d’une seule molécule à la condition de savoir où celle-ci se trouve. Ces deux derniers exemples montrent qu’un apport de connaissance sur un système isolé diminue l’entropie de celui-ci.

En 1944, Erwin Schrödinger, remarque qu’en s’auto-organisant les êtres vivants diminuent leur entropie interne grâce au flux d’énergie qui les traverse. Il introduit le néologisme de néguentropie ou entropie négative.

En 1948, Claude Shannon publie sa théorie mathématique de la communication dans laquelle il introduit une mesure de la quantité d’information a transmettre dans un message. L’expression de cette mesure est identique (au signe près) à celle de l’entropie de Gibbs. On parle alors d’entropie informationelle ou entropie de Shannon.

En 1956, Léon Brillouin applique l’expression de Shannon à l’information apportée par le démon de Maxwell et montre qu’elle résoud le paradoxe. L’entropie thermodynamique de Gibbs apparait alors comme un cas particulier de l’entropie de Shannon appliquée à l’information sur un système thermodynamique. Appliquée aux êtres vivants, la néguentropie de Schrödinger représente l’information transmise par les gènes.

En 1961, les ingénieurs cherchent à réduire la chaleur dégagée par les ordinateurs et se posent la question de savoir s’il y a une limite théorique. Ralph Landauer montre qu’il y a une limite due aux opérations irréversibles. Effacer un bit d’information doit nécessairement provoquer un dégagement de chaleur équivalent à l’énergie d’un degré de liberté du système. C’est le principe de Landauer. Effacer de l’information étant un cas particulier d’opération irréversible, l’entropie de Shannon devient un cas particulier d’entropie thermodynamique.

Entropie thermodynamique et entropie de Shannon étant chacune un cas particulier de l’autre, cela implique qu’il s’agit d’un seul et même concept.

Aujourd’hui, les lasers permettent d’isoler un très petit nombre de particules élémentaires, d’observer leur agitation thermique et même de les manipuler comme le ferait un démon de Maxwell (3). C’est ainsi que le principe de Landauer a pu être récemment vérifié expérimentallement au laboratoire de l’ENS de Lyon (4).

Les travaux de Landauer ont montré que la notion d’information est bien une grandeur physique. Elle s’applique aussi bien à l’état d’un gaz qu’à celui d’un ordinateur. De fait, le physicien Ed Fredkin a montré qu’un gaz se comporte comme un ordinateur. L’univers lui-même peut être considéré comme un ordinateur (billet 26), un ordinateur qui se perfectionnerait de lui-même en créant des modules capables de mémoriser toujours plus d’information. Prolongements exosomatiques des cerveaux humains, les ordinateurs apparaissent eux-mêmes comme les derniers avatars de cette évolution.

(1) L’état thermodynamique d’un système est défini par ses variables macroscopiques. Par exemple, l’état d’un gaz est défini par son volume, sa pression et sa température.

(2) Lawrence M. Krauss, Robert J. Sherrer. The End of Cosmology? Scientific American, March 2008, pp. 47-53.

(3) Eric Lutz, Sergio Ciliberto, Information: From Maxwell’s demon to Landauer’s eraser. Physics Today, Vol. 68, Issue 9, September 2015.

(4) Antoine Bérut et al., 2012.


50 réflexions sur « 85 – Entropie et information. »

  1. Bonjour
    Il y a une petite coquille dans le paragraphe 11 sur la dernière phrase….
    Sinon j’en profite : est ce que les éléments récents vous inspirent une analyse en relation avec votre livre ? Les « barbares » sont en train de gagner ?

    1. Nous descendons en partie des barbares qui ont pris la place des romains, comme nous descendons aussi des petits mammifères qui ont pris la place des dinosaures.

      1. La disparition des dinosaures semble être directement liée à la disparition de la forêt carbonifère qui a été supplantée par les feuillus car il a fallu résoudre le problème «  »croissance des plantes d’un côté et décroissance du carbone atmosphérique de l’autre » »
        Comme nous allons devoir combiner croissance du bien-être avec décroissance des énergies fossiles.
        Konrad Scheiber explique cela mieux que moi en suivant sa vidéo conférence et son PDF
        http://colloquebrf.enfa.fr/brf-it005.php

        1. Oui. Les oscillations du climat sont liées à la vie. Ce sont des oscillations entre une forme oxydée du carbone (le dioxyde) et ses formes réduites. Il s’agit d’oscillations autour d’un point critique. Ce type d’oscillations se synchronise facilement sur des perturbations périodiques extérieures, comme les cycles de Milankovich.

          1. Oui je comprends, il y a une variation climatique corrélée à l’ensemble des cycles que vous décrivez, mais le passage de la végétation carbonifères aux feuillus ne constitue-t-il
            pas un effondrement de la quantité de carbone atmosphérique qui obligea le système à passer à autre chose comme l’indique le pdf de Konrad Schreiber
            http://colloquebrf.enfa.fr/diaporamas-brf/Schreiber.pdf page 18
            On est passé de 0,22% à 0,033% de CO2 atmosphérique, une telle diminution ne doit-elle pas impliquer un changement radical?
            A mes yeux, je ne pense pas qu’une telle variation puisse faire partie d’un cycle, sinon nous retournerions un jour à la forêt carbonifère.

            1. Il me semble que vous confondez cycle avec fonction sinusoïdale. Lorsque vous tapotez sur un tas de sable dont la pente est maintenue au dessus du point critique, vous provoquez des avalanches cycliques. Leur amplitude peut être aléatoire mais elles ont lieu à la fréquence de votre tapotement.

  2. Une remarque sur les croyances.

    On constate que les religions obéissent aux lois de la mécanique statistique. Je m’explique: les sociétés d’abord animistes sont devenues plus tard polythéistes, puis monolâtres, monothéistes, puis finalement athéistes (juste une tendance toutefois ). La boucle bouclée on revoit de nos jours des formes néo-animistes apparaitre qui préfigurent peut-être la période post-contemporaine?

    On peut en déduire à travers la notion de sélection K et r que le nombre de divinités vénérées par une société est inversement proportionnelle à la quantité d’énergie qu’elle dissipe. Qu’en pensez vous?

    Cordialement.

    1. Vous avez raison de dire que les notions de sélection r et K s’appliquent aux croyances. Toutefois, le type de sélection n’est pas lié à la quantité d’énergie dissipée mais à sa variation dans le temps. Une chute de l’énergie dissipée favorise la sélection K, donc le monothéisme. C’est ce qu’on observe à la fin de l’empire romain. Au contraire, une montée de l’énergie dissipée favorise la sélection r, c’est-à-dire la multiplication des croyances. Le siècle des lumières a conduit à la libre pensée.

      1. Concernant les croyances encore une fois,permettez moi une petit objection: la chute de l’énergie dissipée ne favoriserait pas la sélection K,mais plutôt l’inverse.
        Je m’explique:la fin de l’empire romain qui a vu l’émergence du Christianisme en sont sein ne dois pas être considéré comme une chute (c’est à dire au sens de l’organisation de l’empire) mais comme un bond (au sens de son extension mémétique).

        La disparition de l’empire romain n’est donc pas ici le point fondamentale,ce qui a compté c’est la transmission mémétique des idées de celui ci,hors, après sa disparition,le champs d’idée qui en restait était maximale,favorisant le monothéisme.

        A noter que les petites sociétés (dite primitives) et dissipant donc peu d’énergie sont toutes, sans exception, des sociétés animistes.
        La période des lumières conduisant au prémisses de l’ère industrielles à favorisé l’athéisme,avec la séparation des églises et de l’état et la notion de laïcité.

        On peut également appliquer le concept au monde de l’entreprise,la sélection r favorise les petites artisans,petites boutiques,la K favorise les monopoles(wallmart,renault-nissan,groupe Wolkwagen etc…),nous remarquons effectivement à notre époque une chute terrifiante du nombre des petits commerçants aux profits des monopoles,la tendance devrait s’inverser après l’effondrement…

        Merci encore pour tous vos travaux,les concepts développés permettent une lecture extrêmement précises des phénomènes sociaux et économique.

        1. Il faut bien comprendre que les deux types de sélection agissent simultanément. La croissance économique favorise la sélection r c’est-à-dire l’innovation. Elle a permis le développement du monothéisme (qui était une innovation), comme elle favorise les petites entreprises innovantes. Un ralentissement de la croissance rend l’innovation plus difficile. Il favorise la sélection K, c’est-à-dire le développement des innovations les plus effectives qui peuvent alors devenir dominantes, comme pendant un certain temps le christianisme ou, aujourd’hui, les monopoles industriels.

  3. En réponse à votre commentaire du 10 décembre 2015 à 23h 4min

    C’est très certainement cela, je confonds fonction sinusoïdale et cycles.
    Je suppose qu’une fonction sinusoïdale est cycloïde mais qu’un cycle peut comprendre autre chose qu’une fonction sinusoïdale.
    Ce qui voudrait dire qu’à la fin de chaque cycle la situation est changeante, ce qui correspond à l’évolution de l’univers ainsi qu’à notre chère petite planète.
    Comme le tas de sable sur lequel on tapote et qui change de forme.

  4. Bonjour Francois Roddier et merci pour votre livre il m’a donné une envie de manger de l’information comme jamais.

    Fractal,thermodynamique, théorie de l’information,Planck(et j’en passe)…

    je tourne en replay.

    Il y a forcement quelques choses derrière.
    L’univers cherche a s’équilibrer dans toute les échelles.
    Donc on retrouve des systèmes fractal mais pas a toute les échelles mais toujours entre deux.(transition)

    UNIVERS
    +FRACTAL ∞ Fractal-

    Transition
    /équilibre

    THERMODYNAMIQUE

    Chaleur qu’on pourrait considérer comme l’information.

    Et les multi-vers(l’ensemble des différents fractal développer et interagissent entre eux) qui tourne autour des transitons de phase.

    Mais il faut que sa boucle dans l’infiniment grand vers l’infiniment petit (theorie M) ou que sa créer un équilibre autour d’une transition de phase global.(univers fractal ,gravité quantique a boucle)

    Je vois que les trou noir et le principe holographique pour boucler la boucle
    ou la thermodynamique a toute echelle qui instaure un équilibre linéaire entre toute les échelles et donnerai un limite a cette infiniment petit et infiniment grand et non une boucle.

    Mais si c’était la même chose vue d’un point de vue différent.

    L’équilibre gravité,électromagnétisme,interaction fort/faible.

    On pourrait pas les réduire a un type d’interaction gravitationnel quantique entre différent niveau d’énergie.

    Gravité et electro magnétisme
    Onde et corpuscule
    Energie et Fréquence
    Position et Direction
    2 face d’une même pièce

    Dont l’échelle( ou l’écart de potentiel énergétique) fait varié les propriétés comme un entonnoir.(organisation de la structure qui lui donne ses propriétés par rapport a un autre )

    Le temps qui ressemble a la capacité des systèmes a sauvé l’information et évoluer dessus.(un principe d’accélération proportionnel a la capacité de sauvegardes et d’organisation du système étudié)

    Je me donne mal a la tète a bloquer sur cette idée sans fondement.

    Encore désolé pour le condensé d’ineptie.(oui je suis conscient du niveau de connerie que je suis en train de partager)

    je sais même pas ce que vous pourriez répondre qui diffère de WTF mais je partage parce que votre livre a réveil un essaim de question.(intérêt de divergé de la mécanique quantique et la relativité général qui sont validés et revalidés, dans une théorie sortie de mon abysse, I DON T KNOW)

    Mais VOILA ma bouilly quand j’essai de tout relier avec aucune méthode.( A NE PAS MANGER C EST INDIGESTE )

    Mais avec vos connaissances et votre expérience si vous pouviez mettre un coup de pinceau.(j’ai pas eu l’occasion de demander a mr.mandelbrot
    j’aimerai tenter ma chance avec une personne que j’admire autant)

  5. Bonjour,

    La formation dans l’univers de modules d’entropie négative, souvent, ne semblent pas aller vers une plus grande dissipation d’entropie.

    Par exemple : les voitures consomment de moins en moins d’essence. Les avions emportent de plus en plus de passagers. Il n’est pas exclu que sur un aéroport, le trafic de passagers augmente, et la consommation totale de kérosène diminue.

    Au niveau de quel « module », ou organisme peut-on constater à coup sûr l’augmentation de la dissipation d’énergie?

    1. Au niveau de l’univers. Voir la courbe d’Eric Chaisson à la fin du billet 27 intitulé « L’homme, la vie et la dissipation d’énergie ».

  6. Bonjour,
    je suis en train de lire votre excellent livre mais en tant qu’enseignant de sciences de l’ingénieur, je suis triste que vous n’ayez pas abordé les systèmes techniques lors de votre analyse thermo-bio-sociologique,car ils vérifient bien les lois que vous mettez en évidence. En effet, tout système technique est constitué d’une « chaine d’information » qui gère l’information (composée d’un microprocesseur, capteurs, interfaces, etc,..) et d’une « chaine d’énergie » (actionneurs( moteur, verin, etc,..avec ses différents blocs: distribuer, convertir, transformer, etc,..). La chaine d’information gère bien la chaine d’énergie pour améliorer le flux d’énergie qui la traverse. Améliorer l’efficacité énergétique du système technique (en diminuant l’entropie) se fait souvent grace à la chaine d’information. C’est le cas d’une voiture moderne, d’une machine à laver , refrigérateur, d’une machine outil, etc,.. vous pouvez en voir la structure en image en tapant « chaine d’information chaine d’énergie » dans google. Or des lois d’évolution existent pour améliorer les produits (par exemple, les lois d’évolution TRIZ d’un génie russe Genrich Altschuller (8 lois). vous devriez vous interesser aux lois 1 et 2 , car elles correspondent à votre analyse. Bref, par ses conceptions, l’être humain est en train de poursuivre l’évolution des microsystèmes et macrosystèmes (votre graphe de votre livre) pour augmenter les W/kg des systèmes (étoiles, etc,..humain, société humaines et maintenant, système techniques..)
    Bon courage pour vos recherches.

    1. Merci de rappeler que les inventions des ingénieurs suivent aussi les lois de l’évolution. De fait, la nature innove aujourd’hui à travers eux. Ils sont de plus en plus nombreux à réaliser que la nature a toujours innové, d’où la vogue du biomimétisme.

  7. Ce sujet est de toute évidence le coeur du problème…
    Je m’intéresse (avec une totale incompétence !) à l’astrophysique, et j’ai une question qui fait le lien entre ce post et les trous noirs. Ca tombe bien, puisque vous êtes aussi astrophysicien…
    Dans pas mal d’article sur les trous noirs on trouve la référence au « paradoxe de l’information »: L’information contenue dans un système quantique doit demeurer constante ou être transmise à l’environnement. Est-ce que ce principe est compatible avec la notion d’entropie et donc de perte d’information ?
    Merci !

    1. Oui. Tout système quantique a une entropie minimale (information maximale) donnée par la relation d’incertitude de Heisenberg.

  8. J’ai une interrogation sur le « second principe » :

    Si on observe une boîte avec 2 compartiments qui communiquent, l’un étant vide, et l’autre rempli d’un gaz, alors le gaz finit par se répartir de façon égale dans les 2 compartiments. C’est le second principe : on observe une augmentation de l’entropie.

    Mais si cette boîte est placée dans le vide intersidéral, avec des molécules de gaz initialement immobiles, sans vitesse l’une par rapport aux autres : il n’y aura aucun mouvement brownien. En revanche, ce sont les forces gravitationnelles qui vont s’exercer et les molécules vont finir collées à la paroi de la boîte.

    N’a-t-on pas là un système isolé avec une entropie qui diminue? Que nous dit alors le 2nd principe?

    Merci pour vos lumières!

    1. Vous avez là un système isolé hors équilibre. Le second principe implique que son entropie va augmenter jusqu’à ce qu’il atteigne l’équilibre thermodynamique. Vos molécules n’ont aucune raison de rester collées à la boite. Elles se mettront en mouvement de sorte que leur température d’équilibre sera non nulle. Si vous enduisez la boite de colle, alors leur énergie cinétique va être absorbée par la boite et c’est la température de la boite qui va augmenter.

      1. Veuillez par avance excuser ma connaissance imparfaite des phénomènes physiques… Intuitivement j’ai du mal à comprendre comment les deux phénomènes suivants s’expliquent du point de vue du 2nd principe :

        – sur une très longue période de temps, des milliards d’années, la matière tend à se rassembler pour former des galaxies en tourbillon, des astéroïdes, des planètes… l’information et l’ordre augmentent, et donc l’entropie baisse.

        – à l’échelle d’une vie, un être humain va dissiper de l’énergie, produire du gaz et augmenter l’entropie.

        Mon intuition me dit que la tendance à long terme est dans le rassemblement des molécules dispersées, par le simple effet de la gravitation, et non pas pour dissiper de l’énergie comme les systèmes auto-organisés.

        Je ne comprends pas d’où vient exactement le 2nd principe : Est-ce une force plus forte que la gravitation, et qui tend à disperser les molécules ? Comme les forces internes aux atomes qui permettent les chocs élastiques ?

        Merci !

        1. Vous oubliez que l’énergie se conserve (premier principe). Lorsqu’une étoile se forme par condensation gravitationnelle, l’énergie potentielle de gravitation se transforme en énergie cinétique des molécules. La température du gaz augmente (au point de déclencher des réactions thermonucléaires!) La condensation n’est possible que parce qu’une partie de l’énergie est évacuée sous forme de rayonnement électromagnétique (les étoiles brillent!), sinon la condensation s’arrêterait.

          1. Merci, c’est une « information » qui me manquait 🙂

            Peut-on donc dire que le Soleil augmente actuellement l’entropie de l’univers? (ça paraît logique au vu des forces que vous décrivez au moment de la condensation, mais le Soleil n’est pas un système isolé)

            En est-il de même pour une planète comme la Terre, avec les réactions sous la croûte terrestre?

            1. L’entropie produite par le Soleil est évacuée sous forme de rayonnement. Une planète comme la Terre produit à son tour de l’entropie en dissipant de l’énergie solaire. Elle dissipe aussi de l’énergie géothermique.

  9. Bonjour 😀
    d ‘abord merci beaucoup pour ce excellent travail vraiment ..
    j ai besoin d « aide a propos « l’entropie et système thermodynamique irréversible « on sait qu il y a création d » entropie et augmentation de désordre et une grande dissipation d énergie mais comment on peut diminuer ces perte d’énergie et est ce que vous pouvez me donner des exemples ou des applications et est ce qu il y a d’autres phénomènes qui vient avec l ‘irréversibilité??
    MERCI 😀

    1. Vous soulevez tout le problème de la biologie. Nous vivons grâce à un flux permanent d’énergie que nous dissipons sous forme de chaleur. Tout être vivant cherche à capturer la plus grande partie possible de ce flux pour le dissiper à son profit. Il le fait grâce aux informations qu’il a reçues de son environnement (gènes, éducation).

      Les êtres vivants dits sociaux s’associent entre eux. Cela leur permet de partager davantage d’information, donc de dissiper davantage d’énergie. Mais plus ils dissipent d’énergie, plus vite ils modifient leur environnement et plus vite ils doivent se réadapter.

  10. Merci pour ce post. Votre Blog est vraiment remarquable !

    Shannon n’avait pas tellement perçu le lien entre la théorie de l’information et la thermodynamique. C’est assez amusant d’ailleurs de lire la manière dont il s’y est pris pour choisir le nom « entropie » :

    My greatest concern was what to call it. I thought of calling it ‘information,’ but the word was overly used, so I decided to call it ‘uncertainty.’ When I discussed it with John von Neumann, he had a better idea. Von Neumann told me, ‘You should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, no one really knows what entropy really is, so in a debate you will always have the advantage.’

    Par contre vous écrivez « Entropie thermodynamique et entropie de Shannon étant chacune un cas particulier de l’autre, cela implique qu’il s’agit d’un seul et même concept. »

    Je ne comprends pas trop où tout cela nous mène.
    Elles sont toutes les deux des instances d’un même formalisme : $\int log(f(x)) f(x) \nu(dx)$ mais chacune de ces instances n’a forcément la même portée. Je ne dis pas qu’il y en a une plus grande que l’autre mais surtout je ne suis pas certain de comprendre l’intérêt qu’il y a à créer des conditions expérimentales dans lesquelles l’instance thermodynamique se confond formellement avec l’instance informationnelle.

    Ce type de fonction vient naturellement lorsque l’on cherche quelque chose de

    (i) positif,
    (ii) minimal pour une distribution uniforme (minimal/maximal, çà dépend de la convention de signe…) et
    (iii) additif : l’information de deux messages « indépendants » est la somme des informations des messages indépendants. (en physique stat l’entropie est extensive)

    Je sens bien que cette tentation de chercher à ramener l’humain, la machine, les systèmes humains, la matière, l’univers … sous un même principe est tentante, et ces parallèles ont l’air vraiment riches dans l’emploie d’une partie d’un vocabulaire ici et qu’une autre partie là. Concernant l’économie pourtant le terrain me semble glissant parce que les humains ne sont pas des atomes, surtout parce qu’ils conservent de l’information et surtout parce qu’ils communiquent entre eux et peuvent donc faire émerger des structure du micro à la macro par « contagion ». Vous avez déjà abordé un parallèle de la formule de Boltzmann en économie ? et sur le principe disant que la nature cherche à maximiser l’entropie ? ». J’imagine que tout cela n’est pas parfait et bien évidement il y a des pertes et nous n’échappons pas au 2nd principe globalement. Le choix du système adapté à la théorie n’incluant pas nécessairement le choix du système le plus pertinent pour la pratique…

    1. Je réponds à votre phrase: « les humains ne sont pas des atomes, surtout parce qu’ils conservent de l’information et surtout parce qu’ils communiquent entre eux ». Les atomes conservent de l’information sous forme de quantité de mouvement et de moment cinétique. Ces informations sont communiquées à d’autres atomes au moment des collisions. Voir mon billet 26 intitulé « L’univers est un ordinateur ».

      1. L’intelligence, la Liberté et l’Existence sont-elles des informations au sens du modèle thermodynamique ou de son analogue au sens de l’Information de Shanon ?

        Non, bien sûr. Sous ce rapport, les humains ne sont pas des atomes. Et c’est en cela que le Monisme thermodynamique que vous proposez est une erreur, une mystique dont je prévois le danger dans l’usage que vous faites du mot GAIA, en référence à la Terre-Mère et à sa reprise par Lovelock (qui n’est pas un scientifique positiviste comme vous ou Popper mais un mystique au service de Think Tank de l’Empire Britannique).

        1. Il me semble que vous ayez mal lu. Je ne réduis nul part le comportement des humains à celui des atomes. J’indique seulement que des physiciens ont montré que les atomes ont des comportements qui peuvent en certains points être comparés à celui des humains (par exemple échanger de l’information comme le font aussi les composants d’un ordinateur).

      2. Merci de votre réponse,

        Je comprends pour les atomes est-ce que pour vous il n’y a pas de différence de nature entre l’information reçue stockée et communiquée par les atomes et celle reçue stockée et communiquée par les humains ? Je ne pense pas avoir de réponse figée sur cette question mais j’aurais peur de simplifier à outrance. Pour moi ce que l’on choisit de dire est une trace que l’on laisse sur le monde quelque chose comme une direction qui participe à celle de l’humanité. Je ne choisirais pas de dire « l’univers est un ordinateur » même si je comprends bien qu’avec un certain effort d’abstraction l’un et l’autre ont (vu de l’extérieur) des manières similaires de se comporter et que ces similitudes peuvent être exploitées. Bien évidement cela reste mystérieux mais trouver des propriétés partagées ne suffit pas à confondre les choses en utilisant le verbe Etre.

        Sans aller jusqu’à l’univers, alors L’homme est un ordinateur ? Dans quel sens ? Qu’appel-t-on ordinateur ici qui peut se confondre avec l’être de l’homme ou celui de l’univers ? Qu’appelle-t-on univers ? Pour l’instant les ordinateurs que je connais sont dessinés par l’homme ou l’ordinateur mais je ne crois pas que l’inverse soit vrai. Un jour certainement des ordinateurs construiront des hommes, ou hébergeront des hommes comme le pensent les transhumanismes mais parlera-t-on alors encore des hommes ? je ne crois pas.

        Pour moi l’importance de l’utilisation de mots différents pour désigner les hommes et les ordinateurs est primordiale dans le sens où elle nous fait porter maintenant la responsabilité des degrés de liberté qui nous sont offerts aujourd’hui et que l’ordinateur pour l’instant n’a pas. Dans l’évolution des espèces l’homme aura précédé l’ordinateur, peut-être qu’alors des scientifiques choisirons d’autres formes de nomenclatures de distinctions, de classifications… toutes ces classifications forment notre langage, notre manière de composer le monde, presque notre manière de penser, notre manière d’être. Cela dépendra peut-être autant des traces que nous aurons d’ailleurs laissé que de nos « propriétés » les plus importantes.

        Aujourd’hui j’entends ces fanatiques libertariens de la secte transhumaniste dire qu’il faut laisser faire les choses que c’est la nature qui parle, que la machine va dominer l’homme qu’il faut juste se préparer à monter dans le train. Moi je dis que nous, humains, en tant que partie de la nature justement, nous avons notre mot à dire, je crois que nous sommes des bâtisseurs. Nos choix sur la structure d’internet, ou l’architecture des ordinateurs ont une importance capitale sur l’avenir de l’humanité, sur l’avenir de la planète, sur l’esthétique de ce qui va advenir. Ce sera facile de dire après coup « c’était écrit », mais peut-on vraiment le dire maintenant comme croyait le faire Laplace ? Peut-être qu’un autre type d’espèce plus proche de l’ordinateur, dans un processus de sélection, sera aussi amené à de tels choix un jour. Chacun son tour certainement mais aujourd’hui c’est nous. La négation de notre singularité (tout est un ordinateur) je pense peut amener à la perte du désir, de l’amour du beau, bref de toutes ces forces de vies et finalement de notre capacité d’adaptation et d’anticipation.

        La question de savoir si l’on peut dire « l’homme est un ordinateur » n’est pas de savoir si l’un et l’autre partagent des propriétés qui seront comparables dans un futur très lointain sur le plan de l’évolution des espèces, elle est de savoir si nous nions aujourd’hui notre espèce sous prétexte de vouloir prendre du recul et s’extraire toujours plus de notre singularité, nier le « je » sous prétexte qu’il est sans importance au regard de l’évolution des espèces regardée « depuis l’infini », jusqu’à disparaître dans le tout et dans le rien. Pour finir je ne dis pas çà pour jeter une pierre à vos écris ou vos projets d’écriture qui continuent de me fasciner, et je sais que j’aurais bien du temps à lire et comprendre tout çà, je m’en réjouis d’ailleurs 🙂 si je dis tout çà c’est surtout pour partager des questionnements !

        1. Lorsqu’un scientifique développe un nouveau concept, il se heurte rapidement à un problème de langage. Il a deux solutions. Ou bien il crée un mot nouveau comme « entropie », ou bien il choisit un mot du langage courant, au sens évocateur, comme « information », auquel il donne un sens très particulier (grandeur opposée à l’entropie). Dans le premier cas il est accusé de parler un jargon ésotérique. Dans le second cas, il est accusé de déformer le sens des mots. Quelle solution préconisez-vous? Pour une discussion sur cette question, voir l’introduction de mon livre « Thermodynamique de l’évolution » (Parole éd., 2012).

          Lorsqu’Ed Fredkin a dit « l’univers est un ordinateur », il a clairement voulu dire « l’univers a des comportements assimilables à ceux d’un ordinateur ». Quand à l’homme, il est capable de faire de tête des opérations arithmétiques, mais un ordinateur n’est pas capable de faire des enfants. Il me semble que ce sont des évidences.

          1. Il y a des ordinateurs qui créent d’autres ordinateurs, pour l’instant c’est anecdotique et ils ne font que ce qu’on leur demande mais je ne crois pas pouvoir exclure que dans un futur pas si lointain des ordinateurs puissent donner vie à d’autres ordinateurs ou même à tout un tas d’êtres vivants.

            Je pense qu’un scientifique doit autant que possible essayer d’éviter les grandes phrases équivoques et générales. Tout le monde n’est pas dans la tête de ce Ed Fredkin, c’est le coté génial de l’altérité qu’ont parfois du mal à comprendre les gens trop intelligents 🙂 Je connais bon nombre de scientifiques matérialistes qui considèrent comme acquis que « l’homme n’a pas de comportement qu’un ordinateur ne pourrait avoir » (ce qui serait plus proche de « l’univers est un ordinateur » que « l’univers a des comportements assimilables à ceux d’un ordinateur ») et qui se gargarisent de ce genre de citations avec satisfaction.

            Or tout cela ne me semble pas être une évidence justement, c’est une question assez délicate en fait si l’on s’autorise à des spéculations sur ce que sera l’ordinateur dans le futur. Il me semble que c’est la question qui a tourmenté Bergson en son temps dans « l’évolution créatrice », celle aussi discuté par J.P Changeux et P. Ricoeur dans « ce qui nous fait penser ». C’est une question assez philosophique et spéculative, aussi une question de langages, de croyances, …

            1. Il est vrai qu’on assiste aujourd’hui à une véritable hantise que la machine puisse dominer l’homme. Des informaticiens comme Ray Kurzweil en ont une grande responsabilité. Pour une discussion sur ce sujet voir mon billet 59 intitulé « La grande illusion ».

  11. L’entropie ? mais c’est très simple,
    c’est le contraire de l’Espérance.
    Foi et raison ne sont pas incompatibles et l’on sait que la raison raisonne et n’a jamais guéri personne. Confucius, à qui l’empereur demandait que faire en plein désordre répondit: rétablir le sens des mots.

  12. ENTROPIE THERMODYNAMIQUE

    L’Affirmation suivante est-elle correcte ?

     »
    L’entropie ne peut diminuer que dans des systèmes vérifiant trois conditions :

    (1) ils sont limités dans l’espace et le temps ;
    (2) ils reçoivent du travail (et donc de l’énergie) provenant de l’extérieur ;
    (3) leur fonctionnement (transformation d’énergie) est lié à une augmentation accrue d’entropie à l’extérieur.
     »

    ENTROPIE INFORMATIONNELLE

    Vous dites « Ainsi l’entropie d’un système dépend de ce qu’on sait sur le système. »

    –> ne serait-il pas plus explicite de dire que « l’entropie mesure ce que l’on ne sait pas du système » ?

    DÉMON DE MAXWELL

    En quoi un démon qui serait capable de distinguer les molécules rapides d’un gaz de ses molécules lentes, pourrait-il les séparer SANS EFFECTUER DE TRAVAIL MÉCANIQUE ? Comment pourrait-il – sans effectuer aucun travail – (i) collecter cette information et (ii) construire un système permettant de séparer les molécules ?

    1. Classiquement, seules les variations d’entropie sont définies (notre ignorance est infinie!). L’entropie d’un système ne peut diminuer que s’il est traversé par un flux d’énergie. Il y a alors effectivement production d’un flux d’entropie dirigé vers l’extérieur. Divers démons de Maxwell ont été décrits dans la littérature. Ils arrêtent généralement les molécules en faisant glisser une paroi perpendiculairement aux forces de pression. Ces dernières ne travaillent alors pas.

      1. « en faisant glisser une paroi perpendiculairement aux forces de pression.  »

        Comment cela pourrait-il être réalisé sans fournir du travail ?

        1. Le travail mécanique est le produit scalaire du vecteur force par le vecteur déplacement. Lorsque ces deux vecteurs sont perpendiculaires leur produit scalaire est nul.

          1. Mais comment est-il possible – sans travail – de construire un système mettant en application le fait que lorsque ces deux vecteurs sont perpendiculaires leur produit scalaire est nul ?

  13. 8 décembre 2015 à 19 h 26 min, vous dites « Une chute de l’énergie dissipée favorise la sélection K, donc le monothéisme ».

    16 décembre 2015 à 16 h 45 min, vous dites « La croissance économique favorise la sélection r c’est-à-dire l’innovation. Elle a permis le développement du monothéisme (qui était une innovation) »

    N’y a-t-il pas contradiction entre ces deux affirmations ?

    1. Vers la fin de l’âge de bronze, le monothéisme est apparu comme une innovation. Il était alors favorisé par la sélection r. Après la chute de l’empire romain, le monothéisme est devenu la norme. Il a été alors favorisé par la sélection K.

  14. Thom s’est pas mal exprimé à propos de l’entropie et de l’information. Extraits:

    « La théorie de l’information au sens technique du terme est en fait une théorie de la communication.[…] Elle se donne pour but de comparer la morphologie du message reçu avec celle du message émis (effet du bruit sur le signal). »

    « La signification propre du message est complètement indifférente à la théorie [de Shannon-Weaver] qui n’a pas à en connaître, et d’ailleurs ne saurait la définir. […] Les deux mots « entrez » et « sortez » ont même longueur, donc même quantité d’information. Qui oserait prétendre qu’ils ont même signification? En dépit de cette lacune fondamentale, la théorie de l’information […] a eu le mérite de préciser les contraintes thermodynamiques qui pèsent sur toute communication. »

    « Le mot information, en pareil cas [information génétique], sert manifestement à dissimuler l’ignorance quasi-totale où nous sommes de préciser ces autres mécanismes [que celui de la synthèse des protéines] prétendument subordonnés, tout en apportant par la connotation d’intentionnalité du mot information une caution implicite au finalisme qui sous-tend toute pensée biologique. En ce sens, l’information, c’est la forme obscure de la causalité. »

    « La relation I = -k log p, où les esprits férus d’axiomatique ne verront qu’une définition (en général de l’information par la probabilité) recèle en fait une relation très profonde de nature topologico-dynamique. C’est une relation qui associe à la rareté , à l’improbabilité de l’instabilité initiale une information qui est une grandeur de nature géométrique, la « complexité » de l’état final. C’est en cela que l’information est liée à une causalité obscure. […] Le problème se pose donc de savoir si l’on peut créer en quelque sorte une thermodynamique de la forme, qui généraliserait à des situations locales, ouvertes, certains des concepts introduits dans la thermodynamique classique. Seul l’avenir dira s’il s’agit là d’une utopie scientifique… »

    « Déterminer les cas où le pouvoir de la forme peut se manifester dans un milieu naturel devrait être l’objet de cette thermodynamique des formes que nous appelons de nos voeux. Oublier les contraintes spatiales, génétiques, physico-chimiques qui doivent être respectées pour qu’une analogie des formes puisse se réaliser, c’est proprement sombrer dans la pensée magique (ou délirante). »

  15. Extensivité de l’entropie

    Il est écrit dans Wiki* que les entropies de Clausius et de Boltzmann sont des grandeurs extensives.
    Toujours d’après Wiki une grandeur extensive est une grandeur additive, la masse par exemple.

    Mais quelques lignes plus bas il est écrit: « l’énergie interne U d’un liquide ordinaire est une grandeur extensive bien qu’elle ne soit pas additive! », suivi d’une démonstration valable uniquement « à la limite thermodynamique », qui renvoie à une additivité limitée « relativement à ses parties indépendantes et sans interactions ».

    La masse, par exemple, est donc une grandeur extensive non additive en général puisqu’il y a en général interaction entre les constituants (énergie de liaison).

    Quid de l’entropie de Boltzmann? La preuve de l’additivité se fait facilement en supposant la non corrélation, l’indépendance, entre les parties. Quid de la difficulté soulevée par Gibbs?

    Qu’est-ce qu’une variable extensive en général, c’est à dire hors des cadres restreints de la limite thermodynamique et de l’indépendance des constituants, cadres dans lesquels il me semble cohérent de la définir comme une variable additive?
    Et dans la foulée qu’est-ce qu’une variable intensive? La température, par exemple, « conjugée à la Legendre », ai-je lu, de l’entropie.

    * https://fr.wikipedia.org/wiki/Extensivit%C3%A9_-_intensivit%C3%A9

  16. Bonjour,

    Il y a un truc qui me dérange sur l’équivalence perte d’information / augmentation d’entropie.

    Considérons le système démon de Maxwell + boîte + paroi + particules

    Je suis d’accord que le démon peut, grâce à l’information qu’il détient sur les particules, faire baisser l’entropie du système.

    Mais supposont qu’il n’ait pas envie de faire quoi que ce soit. Alors l’entropie du système ne va pas baisser, malgrés le fait que le démon ait la même information en tête.

    Il peut donc y avoir 2 entropies différente pour la même information, non?

    Merci

  17. Oui mais s’il n’utilise pas cette information pour trier les particules, l’entropie du système est plus élevée que s’il utilise cette information pour le tri… Donc pour la même information dans la tête du démon, il peut y avoir 2 entropies différentes pour le systéme dans sons ensemble, non?

    1. Exact. Contrairement à l’énergie, l’information n’est pas une grandeur conservative. La plupart du temps elle se réplique, d’où les cascades de dissipation d’énergie. Mais elle ne réplique pas toujours. D’où le caractère imprévisible des processus d’auto-organisation.

  18. Bonjour, avez vous tenté d’intégrer dans les structures dissipatives le principe de gravité entropique issu des trous noirs? (Ou plutôt l’inverse) Si oui (ce que je pense sans l’avoir trouvé),dans quel billet? (Bravo et grand merci pour votre ouvrage Thermodynamique de l’évolution : limpide )

Répondre à fran Annuler la réponse

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.