Du Big Bang au Cerveau

Du Big Bang au Cerveau

1-2 Ordre et Liberté, philosophie.

 

1-2 Ordre et Liberté

 

 

Mon commentaire.

 

Le but de ce texte est de montrer qu'actuellement l'ensemble de l'évolution de l'Univers est quasiment compris et expliqué corectement par un minimun de principes trés simples qui font appel au bon sens. Cette compréhention s'explique naturellement par un développement plutôt philosofique comme ci dessous et sans aucune démonstration scientifique ce qui me permet de présumer que que nous sommes prés de tout démontrer scientifiquement sans s'en rendre compte ce que j'essaie de faire en démontrant tout celà en toute conscience ettrés simplement par la physique et ses développements mathématiques.

 

Mon problème c'est qu'on ne sait pas mesurer la liberté qu'on a !   Et, on sait tous que la liberté des autre n'est pas ma liberté !   Je vois pas alors de quoi on parle car il n'y a rien à mesurer tout est dans la pensée de chacun et personne ne sait comment dire ? quoi ?? et porquoi ???

 

 

Remarque essentielle: Le mot Liberté, qui m'est trés cher et essentiel mais que par contre j'aurais beaucoup de difficultés à définir, ce qui est un inconvéniant certain en science. De ne pas être définitiable et mesurable comme l'ordre et sa structuration qui elles peuvent être mesurable par la quantité d'énergie necessaire à leur création création et surtout le minimum  d'Entropie dépensé pour celà et pour sa mise en ordre intélectuelle et matérielle mesurable par l'énergie dépensée et qui nous permet d'en mesurer l'éficassité.

 

Priogine: (prix Nobel de chimie) essaya de montrer comment il pourait y avoir apparition d'ordre dans certaines conditions très particulières.
Je n'insisterais pas sur cette théorie qui, de l'aveu même de son auteur, fait intervenir des probabilités trop faibles pour expliquer la vie. Son principal mérite aura été d'essayer d'unifier le monde physique avec le monde du vivant.



 

 

02- Ordre et Liberté

v2.21

 

Claude ABAC"Le second principe de la thermodynamique est la première loi de toute notre science"

Albert Einstein, A mon père, qui a toujours voulu lutter contre l'idée de lutte.

 

Table des Matières

Table des Matières                                                   5

Introduction                                                              7

Qu’est-ce que l’entropie ?                                       9

Importance philosophique                                     10

ard ne fait pas avancer les choses                        12

La chaleur, et non l'entropie, mesure le désordre 13

L'entropie mesure la liberté et l'information          15

La thermodynamique statistique                            15

Probabilités, information et liberté                         15

Information = ignorance                                          17

L'entropie d'un élément en tant que système.       18

Le second principe                                                  18

La théorie de l'information                                       19

                 Conséquences physiques de l'entropie 19

Émergence 19

Complexité 20

Adaptation au milieu 20

Conclusion 20

Le monde depuis le big-bang jusqu'à nos jours 21

Du big-bang à la pensée scientifique 21

Au début, il y eut le big-bang. 21

Apparition de la vie sur Terre 22

Les premiers hommes 26

Les civilisations 26

La science 27

Une vérité capable d'unir les hommes 27

La science moderne 28

La fin du 20ème siècle 33

Agitation et désordre 33

La lutte pour la vie 33

La sélection naturelle 33

Le but de la vie 34

La recherche scientifique 34

C'est comme ça 34

Conséquences 36

Conséquences scientifiques 36

Conséquences philosophiques 36

La fin du monde 3Le langage 37

Conséquences religieuses 37

Le bien et le mal 37

Des idées dépassées 37

Conséquences théologiques 38

L'alpha et l'oméga 38

Conséquences sociales 38

Développement personnel 39

Conséquences spirituelles 39

Conclusion 41

 

Introduction

 

 

 

Une opinion répandue est que la liberté conduit au désordre, qu'ordre et liberté sont incompatibles. Si chacun est libre de penser ce qu'il veut, il est regrettable que les défenseurs de cette idée s'appuient pour cela sur des arguments pseudo-scientifiques, fondés sur une mauvaise compréhension de la physique.
Leur argumentation peut, dans ses grandes lignes, se résumer ainsi: un principe fondamental de la physique est que le désordre augmente. Donc, si nous voulons manifester de l'ordre – et cela est l'essence de la vie – il faut lutter contre la croissance naturelle du désordre. Sont justifiées les forces de l'ordre, et la répression de la liberté.
Le principe physique invoqué est le second principe de la thermodynamique, qui exprime qu'il existe des phénomènes irréversibles, et le traduit mathématiquement par le fait qu'une certaine propriété, quantifiable, augmente toujours. Cette quantité a pour nom scientifique l'entropie, et a été assimilée depuis le 19ème siècle au désordre.

 

Les partisans de la liberté sont d'accord avec leurs adversaires pour dire que le désordre augmente toujours. Afin de justifier leur position, ils ont adopté différentes approches, dont aucune n'est totalement satisfaisante. En voici un survol rapide:
1/ L'approche anti-scientifique.
C'est l'approche de la plupart des mouvements religieux ou spirituels. Puisque la vie manifeste de l'ordre, il doit y avoir une source d'entropie négative, une exception au second principe de la thermodynamique. Différents noms sont donnés à cette source: Dieu, force de vie, énergie spirituelle, etc.
Le problème est qu'aucune expérience n'invalide le second principe, même en présence de vie. Un être vivant respecte autant les lois de la physique que le reste de l'univers.
2/ L'approche biologique.
La plupart des biologistes actuels considèrent que le second principe ne s'applique pas à un être vivant, car celui-ci est un système ouvert, qui échange matière et énergie avec l'extérieur.
Cela pose plusieurs problèmes: il est clair que la nourriture est digérée, que l'air sert à la combustion à l'intérieur du corps, et que tous ces phénomènes sont irréversibles. Un corps humain n'est pas une machine à refouler l'entropie dans l'univers extérieur. De plus, le point important n'est pas que le système soit ouvert ou fermé, mais qu'il soit à l'équilibre ou non; et un être vivant est une structure globalement à l'équilibre.
cette vision est cependant la plus 'scientifique' à la fin du 20ème siècle.
3/ L'approche de Prigogine.
Ilya Prigogine essaya de montrer comment il pouvait y avoir apparition d'ordre dans certaines conditions très particulières.
Je n'insisterais pas sur cette théorie qui, de l'aveu même de son auteur, fait intervenir des probabilités trop faibles pour expliquer la vie. Son principal mérite aura été d'essayer d'unifier le monde physique avec le monde du vivant.

 

L'objet de la première partie de cet essai est de montrer que l'entropie ne mesure pas du tout le désordre, mais la liberté et l'information. Cela rend caduques les argumentations précédentes, et permet de mettre d'accord les deux camps, car ordre et liberté peuvent alors aller de pair.
Nous n'avons pas pour but une quelconque transformation sociale, mais seulement de clarifier ce que signifie le second principe. Il se trouve qu'à la lumière de cette nouvelle signification (qui n'est pas si nouvelle, en fait, mais peu répandue), on peut résoudre un très ancien conflit entre les hommes, et que cette conséquence est sans doute ce qui motivera le plus de gens à étudier une science jusqu'ici réputée difficile.

 

Ayant établi ce qu'est l'entropie, nous en verrons des applications dans des domaines autres que le monde matériel. Le second principe est universel et il peut être appliqué à de nombreux systèmes, allant des particules atomiques aux galaxies. Pourquoi ne s'appliquerait-il pas au monde du vivant? Sans prétendre à l'exhaustivité, nous montrerons que des faits majeurs de l'évolution du vivant s'expliquent naturellement par l'accroissement de l'entropie, c'est-à-dire de la liberté et de l'information possédée par les êtres des différentes espèces.
Nous appliquerons ensuite le second principe à l'évolution de la pensée humaine, et montrerons comment la liberté de pensée, ainsi que l'information des éléments de l'humanité que nous sommes n'a cessé d'augmenter depuis la préhistoire. Nous y verrons également ce que signifie la lutte, et les rapports entre lutte, désordre et liberté d'un point de vue thermodynamique.
Tout cela sera décrit dans la deuxième partie, qui montre comment le monde est régi par le second principe à toutes les échelles de temps et d'espace, depuis le big-bang jusqu'à nos jours.

 

Une troisième partie présentera différentes conséquences du second principe dans des domaines aussi importants que la philosophie ou la spiritualité. A vrai dire, la nouvelle conception de ce que mesure l'entropie a des conséquences dans pratiquement tous les domaines. N'étant pas expert en tout, nous nous contenterons de donner quelques idées directrices qui, nous l'espérons, seront source d'inspiration pour d'autres personnes plus compétentes.

 

Qu’est-ce que l’entropie ?

 

 

Introduction

La thermodynamique au sein de la physique

Parmi toutes les théories physiques, la thermodynamique joue un rôle particulier.

 

En effet, les autres théories décrivent toutes une forme d’énergie: gravitationnelle, cinétique, électromagnétique, nucléaire, …
La thermodynamique s’occupe elle des échanges d’énergie: comment on passe d’une forme d’énergie à une autre.

 

C'est cette position transversale qui fait qu'elle s'applique aussi bien à la mécanique quantique qu'à la chimie ou l'astrophysique.

 

Le premier principe de la thermodynamique

Le premier principe est que l’énergie est constante.

 

Voici un exemple:
Un objet de masse m, situé à la hauteur h, possède une énergie gravitationnelle mgh (g est une constante). S’il va à la vitesse v, il possède en plus une énergie cinétique ½ mv².
Lorsqu’on lâche cet objet de la hauteur h, il tombe, sa hauteur diminue et sa vitesse augmente. En appliquant le premier principe, en disant que la somme de ses deux énergies est constante, on peut calculer sa position à tout instant.
Dans cet exemple, l’énergie gravitationnelle de l’objet a été convertie en énergie cinétique.
Si notre objet est une balle qui rebondit parfaitement, il va remonter et là encore, la somme de ses deux énergies sera constante. Arrivé à la hauteur h de départ, sa vitesse sera donc nulle et il tombera de nouveau. Ainsi le mouvement se répétera et il rebondira éternellement.

 

En pratique, la balle ne rebondit pas parfaitement, elle ira de moins en moins haut et son mouvement finira par s’arrêter.
Où est donc passée son énergie?
Elle est passée en chaleur, à chaque fois que la balle touche le sol. Au moment où la balle rebondit, cela réchauffe la balle et le sol.
Cette chaleur est de l’énergie, mais bien vite elle est répartie dans le sol et l'air alentour, plus froids.
Lorsque deux corps à des températures différentes sont en contact, leurs températures s’égalisent.

 

Si on mélange de la glace et de l’eau bouillante, on obtient de l’eau tiède. On n’a jamais vu de l’eau tiède devenir spontanément en partie de la glace et en partie de l’eau bouillante.
Du point de vue du premier principe, cependant, rien ne s’y oppose.

 

Le second principe et l’irréversibilité du temps

Si le premier principe est essentiel, c’est le second principe de la thermodynamique qui a fait, et fera encore longtemps couler le plus d’encre.
Albert Einstein en disait que c’est "la première loi de toute notre science".

 

Le second principe énonce qu’il existe une quantité physique, mesurable, appelée entropie, qui a la propriété d’augmenter toujours.

 

Comme cette quantité augmente toujours, il est impossible de revenir en arrière. Le second principe traduit mathématiquement cette constatation que des phénomènes physiques sont irréversibles.
L’entropie est la seule quantité physique qui augmente toujours. Ainsi, à chaque fois que se produit un phénomène irréversible, on peut être sur que l’entropie a augmenté.

 

Quelques exemples :
Lorsqu'on se verse un verre d'eau, l'eau ne rebondit pas au fond du verre pour en ressortir. C'est l'entropie qui fait qu'elle reste au fond du verre.
Si on mélange de la glace et de l’eau bouillante, on obtient de l’eau tiède.
Lorsqu’on verse du lait dans du café, le lait va peu à peu se mélanger au café. On ne verra plus jamais le lait et le café séparés.
Si on enlève la paroi qui séparait deux gaz, ils vont se mélanger.
Si on ouvre un flacon contenant un gaz, il va s’échapper.
Lorsqu’on frotte deux morceaux de bois, ils chauffent, puis finissent par s’enflammer.
Lorsqu’on fait un feu, le bois devient braises, puis cendres.

 

Importance philosophique

Le fait que le temps soit fondamentalement irréversible est riche de répercussions philosophiques.
Il est impossible de revenir en arrière. Il est impossible que l’univers soit un jour tel qu’il a déjà été, car son entropie devrait pour cela diminuer, et cela n’arrive jamais.
Le principe d’entropie rend caduques toutes les philosophies fondées sur l’idée d’un retour au paradis originel, ou d’un temps cyclique. Elle rend impossible le mythe de l’éternel retour.

 

Comprendre ce que mesure l’entropie est d’une importance cruciale, car c’est la seule quantité qui augmente toujours, c’est l’essence du temps qui passe et qui ne reviendra plus.

 

L'objet du présent essai est de développer le point de vue sur l'entropie fourni par la physique moderne, et de rappeler que l'entropie mesure la liberté, alors que c'est la chaleur, et non l'entropie, qui mesure le désordre.
Comme nous le verrons, cela a de nombreuses conséquences.

 

 

Quelques faits

L'entropie conduit à l'équilibre

 

Tout système fermé finit par atteindre un état d'équilibre, pour lequel l'entropie du système est maximale.
Si on enlève la paroi qui séparait deux gaz, ils vont se mélanger. Ils finissent par former un mélange homogène.
Deux corps en contact finissent par être à la même température.

 

Un système, une fois arrivé à l'équilibre, apparaît stable de l'extérieur. Non pas que chaque molécule du système soit elle-même dans un état stable, mais le système présente des propriétés constantes.
Si on enlève la paroi qui séparait deux gaz, ils se mélangent, et finissent par former un mélange homogène. La température, la pression, sont les mêmes en tout point du mélange. Chacune des molécules du mélange a une plus grande liberté de mouvement, et se déplace maintenant dans tout l'espace occupé précédemment par l'un ou l'autre gaz.

 

En fait, tout ce qui apparaît stable dans le temps est un système à l'équilibre thermodynamique.
Cela est vrai des objets fabriqués par l'homme, et également des différentes entités qui composent notre univers.
Un objet est un système à l'équilibre thermodynamique. S'il n'interagit pas avec l'extérieur, il restera éternellement à l'équilibre, il ne 'vieillira' pas. Bien sur, tout finit par interagir avec l'extérieur, et les objets finissent par s'user, ou casser.
Un neutron est un système thermodynamique à l'équilibre, dont les 'molécules' sont les particules élémentaires de la mécanique quantique. Il existe également de telles particules élémentaires, séparées. C'est l'entropie, en conjonction avec les différentes formes d'énergie, qui fait que des systèmes de particules élémentaires finissent par atteindre un état d'équilibre qu'on appelle neutron. Un neutron est un système de particules élémentaires dont l'entropie est maximale. Comme c'est un équilibre, il apparaît stable pour un observateur extérieur, et possède certaines propriétés, différentes de celles des particules élémentaires qui le composent. Comme nous le verrons, cet équilibre, stable vu de l'extérieur, est dynamique du point de vue des particules élémentaires, qui changent d'état.
Un atome est un équilibre thermodynamique entre protons, neutrons et électrons. Ses électrons passent d'un niveau d'énergie à un autre, mais l'atome apparaît stable vu de l'extérieur. Protons, neutrons et électrons existent également séparés. C'est l'entropie qui fait que certains s'assemblent pour atteindre l'équilibre et former un atome.
De même une molécule comme la molécule d'eau, H20, est constituée d'atomes et constitue un système à l'équilibre.
Ce processus se continue avec les macro-molécules, chaînes de molécules qui sont à l'équilibre.

 

Tout système stable dans le temps est à l'équilibre, et son entropie est donc maximale. Sans l'entropie, les particules élémentaires qui forment l'univers seraient restées séparées, il n'y aurait eu ni neutrons, ni atomes, ni molécules, ni vie. Sans l'entropie, l'univers serait resté ce qu'il était au début, un magma de particules élémentaires.
C'est l'entropie qui a fait apparaître des systèmes stables dans le temps.

 

Ces systèmes à l'équilibre nous apparaissent comme des unités. On a longtemps cru que les atomes étaient ce qu'il y avait de plus petits, et cela n'empêchait pas d'en découvrir les lois. De même, on peut étudier le comportement d'un gaz sans savoir qu'une molécule est en fait constituée d'atomes.

 

L'entropie fait tendre tout système vers l'équilibre. Une fois à l'équilibre, un système est stable dans le temps, il apparaît comme une unité possédant certaines propriétés, différentes des propriétés de ses constituants.

 

Rien ne dure, sauf l'univers

Tout système finit par interagir avec l'extérieur. Cette interaction va créer un déséquilibre à la frontière du système, et il va quitter l'état d'équilibre.
Les molécules finissent par se casser en atomes séparés, les atomes finissent par redevenir des particules séparées, parce que molécules et atomes sont en contact avec le reste de l'univers. Des molécules vont finir par se heurter et se briser; des neutrons vont se désintégrer en particules élémentaires.
Il en est de même des objets. Parce qu'ils sont oxydés au contact de l'air, érodés par la pluie, en contact avec l'extérieur, tous les objets finissent par s'user.

 

Bien sur, ces interactions avec l'extérieur sont irréversibles, et donc l'entropie augmente là encore. Mais ce n'est pas vraiment l'entropie qui est la cause de la dégradation. C'est le fait qu'il y a un extérieur qui finit toujours par interagir avec le système considéré.

 

L'entropie fait que des éléments séparés forment des systèmes à l'équilibre, stables dans le temps.
Le fait que ces systèmes interagissent avec le reste de l'univers fait qu'ils ne durent pas éternellement.
Seul l'univers, parce qu'il ne possède pas d'extérieur, pourra durer éternellement une fois à l'équilibre.

 

Il n'existe pas de source d'entropie négative

Est-il possible que, quelque part dans l'univers, l'entropie diminue? La réponse est non.
Il y a moins d'une chance sur des milliards de milliards qu'un tel phénomène se soit produit ne serait-ce qu'une fois depuis que l'univers existe.
Prenons un exemple: une bouteille d'un litre de gaz contient environ 1023 molécules (un 1 suivi de 23 zéros!). Un million de molécules représente une quantité infime de ce gaz. Et pourtant la probabilité que ces molécules choisissent toutes d'être dans le haut de la bouteille (mettons les 10% du haut) est de 1 sur 101 million (un 1 suivi de 1 million de zéros!!). C'est un nombre plus qu'astronomique. Il y a environ 1080 atomes dans l'univers, un nombre ridiculement petit en comparaison.
Toute théorie basée sur l'hypothèse d'une source d'entropie négative est condamnée à l'échec.

 

J'aimerais être clair sur ce point. Les chances pour qu'un phénomène aussi infime que cette très petite accumulation de molécules ait eu lieu une fois quelque part dans l'univers depuis qu'il existe sont quasiment nulles. Il est plus probable que Dieu soit effectivement un vieillard avec une barbe blanche ou que le monde soit la Matrice d'un jeu informatique. Si vous persistez à penser que c'est peut-être, malgré tout, ça qui explique, par exemple, la vie, n'en voulez pas aux gens qui vont dans des sectes. Il est plus probable que ce soit leur gourou qui ait raison.

 

Le hasard ne fait pas avancer les choses

Le hasard n'explique pas l'univers. Le hasard ne fait pas évoluer les choses. Un jour, un homme a écrit la théorie de la relativité. Cela peut-il être un simple fruit du hasard? La réponse est non.
Un milliard d'ordinateur qui génèrerait chacun un nouveau texte 1 milliard de fois par seconde, ne génèreraient pas la théorie de la relativité avant des milliards de fois l'age de l'univers (en faisant tenir toute cette théorie sur seulement une demi-page, 1000 caractères! Plus il faut de pages, plus il faut de temps en moyenne). On retombe là encore sur des possibilités théoriques aux probabilités tellement faibles qu'on pourrait aussi bien croire n'importe quoi.

 

Durant tout ce processus, l'entropie n'augmente pas. La raison en est que tout ce processus est réversible. Chaque ordinateur aurait tout aussi bien pu générer ses textes dans l'ordre inverse. Une suite de nombres au hasard, lues à l'envers, est une suite de nombres au hasard.
Comme ce processus est réversible, l'entropie reste constante.

 

Si le hasard n'explique pas l'apparition de la théorie de la relativité, il n'explique pas non plus des merveilles physiques comme les flocons de neige.
Le hasard ne fait pas 'avancer les choses'. C'est l'entropie qui explique les flocons de neige. C'est l'entropie qui fait 'avancer les choses'.

 

Entropie, hasard et sélection

L'entropie n'est pas la combinaison du hasard et d'une sélection qui éliminerait les éléments dont l'entropie est la plus faible. Car le hasard suivi d'une sélection ne peut rien produire de plus que le hasard.
Ce n'est pas en éliminant certains textes parmi les milliards de textes produits par les ordinateurs de notre exemple qu'on fera apparaître la théorie de la relativité. Il faudrait orienter la production des textes dans une certaine direction. Mais ça, c'est ce que fait l'entropie, pas le hasard suivi d'une sélection.

 

La chaleur, et non l'entropie, mesure le désordre

Depuis le 19ème siècle, on assimile la chaleur au désordre. La chaleur est de la température pour une certaine quantité de matière. Pour être précis, on dit que la chaleur est de l'énergie désordonnée, et que la température mesure l'agitation moléculaire.
La température mesure (le carré de) la vitesse des molécules d'un gaz qui ne sert à rien d'autre qu'à faire du sur place. Les molécules d'un gaz se déplacent lentement dans le récipient qui le contient, mais en s'agitant à toute vitesse. La température mesure cette agitation, tout ce mouvement inutile autour d'une position fixe.
La froideur crée de l'ordre: les corps très froids ont des structures très ordonnées, très régulières. A température très basse, les atomes sont calmes.

 

L' idée que l'entropie mesure le désordre vient également de la thermodynamique classique, née au 19ème siècle. En thermodynamique classique, l'unité de l'entropie est de l'énergie divisée par de la température, ce qui n'était pas très parlant, et empêchait de voir clairement sa nature. Dans la mesure où un moteur thermique ne fournissait plus de travail à l'équilibre des températures, semblable en cela à des ouvriers en grève, l'entropie fut assimilée au désordre (social).
Depuis, la thermodynamique statistique, dans la première moitié du 20ème siècle, a été une reformulation à la fois plus élégante et plus parlante de la thermodynamique. Elle a conduit à assimiler l'entropie à l'ignorance qu'on a d'un système, ou à la liberté que possèdent les éléments du système.

 

Les deux points de vue, classique – le désordre - et statistique – ignorance ou liberté -, cohabitent à la fin du 20ème siècle, dans la mesure où:
- désordre et ignorance sonnent bien ensemble (les deux sont péjoratifs)
- on est habitué à l'idée que la liberté conduit au désordre.

 

Alors, que penser? Est-ce l'entropie, ou la chaleur, qui mesure le désordre?
Ou bien alors les deux vont-ils ensemble?

 

Entropie et chaleur ne varient pas ensemble

L'entropie n'est pas spécialement liée à la chaleur. Par exemple, lorsqu'on libère un gaz, il prend du volume, sa température diminue et son entropie augmente. C'est pour cela qu'un vaporisateur rafraîchit. Le fait que l'entropie augmente est dû au caractère irréversible du processus: jamais on ne verra le gaz rentrer spontanément dans le récipient d'où il est sorti.
Un autre exemple, plus fondamental: à l'échelle de l'univers, depuis le big-bang, l'entropie n'a cessé d'augmenter, c'est une loi de la nature, et la température n'a cessé de baisser, car l'univers est en expansion (comme lorsqu'on libère un gaz).

 

Les exemples tendant à prouver que l'entropie mesure le désordre et pour lesquels la température augmente, ne font que prouver que la chaleur mesure bien le désordre.
L'exemple le plus courant est le frottement. Le frottement crée du désordre parce que la température des objets en contact augmente, et donc leur chaleur. Ce processus est irréversible, parce que la chaleur se répartit alentour.
Le frottement montre que, sans l'entropie, le monde serait extrêmement désordonné aux points de contact.

 

S'il est naturel d'assimiler la chaleur au désordre (et la froideur à l'ordre), cela n'est pas le cas pour l'entropie.
Un mélange homogène n'est pas désordonné, il est uniforme.
L'univers physique n'est pas désordonné. Au contraire, les hommes ont toujours été fascinés par l'ordre de l'univers. Pourtant son entropie ne cesse d'augmenter depuis le big-bang. C'est sa froideur qui le rend ordonné.
Le désordre est une conséquence du frottement, qui fait augmenter la température, l'agitation, et donc la chaleur de l'objet frotté.

 

Les raisons pour lesquelles l'entropie a longtemps été assimilée au désordre sont les suivantes:
1/ Les objets s'usent.
Comme nous l'avons vu, ce n'est pas vraiment l'entropie qui provoque cette usure, mais plutôt le fait que tout objet est en interaction avec l'extérieur.
En revanche, c'est l'entropie qui fait qu'il y a des objets, qu'il y a des systèmes qui conservent une certaine stabilité dans le temps.
2/ Tout mélange devient homogène.
Voir le désordre dans un mélange homogène n'est pas très naturel. Un mélange homogène est uniforme, le désordre n'est pas spécialement uniforme.
Dans un mélange homogène, chaque particule a une liberté de mouvement maximale, elle peut aller partout. L'ordre ou le désordre résultant dépendent de la température du mélange.
3/ Toute énergie finit par se transformer en énergie calorifique, en différence de température, et cette différence, à cause de l'entropie, tend à s'annuler.
C'est ce phénomène qui fait qu'un moteur thermique ne peut totalement convertir son énergie calorifique en une autre. La source chaude et la source froide vont peu à peu égaliser leurs températures, et il n'y aura plus d'énergie calorifique utilisable.
La chaleur mesurant le désordre, on peut voir le phénomène ainsi: un système chaud, désordonné, mis au contact d'un système froid, ordonné, possède une certaine énergie utilisable. Ordre et désordre, mis en contact, peuvent fournir de l'énergie. Dans le même temps, le système désordonné devient de plus en plus ordonné, tandis que le système ordonné devient de plus en plus désordonné. Le désordre moyen reste constant.
L'entropie augmente, mais pas le désordre. S'il est vrai que le système ne peut pas fournir d'énergie utile à l'équilibre, cela ne le rend pas inutilisable pour autant: en contact, par exemple, avec une source très froide, il pourra fournir la même énergie calorifique qu'au départ.

 

Ce phénomène d'égalisation des températures, d'uniformisation, a conduit à l'idée de la mort thermique de l'univers: dans un lointain futur, lorsque l'univers sera à l'équilibre ou presque, la température de l'univers sera uniforme, il n'y aura plus là qu'un mélange homogène, sans vie.
S'il est vrai qu'à l'équilibre, la température de l'univers sera uniforme, cela n'est la 'mort' que pour un être qui utiliserait l'univers, en étant à l'extérieur de l'univers. Le point de vue qui nous intéresse ici, nous êtres vivants au sein de cet univers, est le point de vue des particules du système.
Par exemple, lorsqu'on ôte la paroi qui sépare deux gaz, du point de vue des molécules, la liberté de mouvement augmente. A l'équilibre, chaque molécule est libre d'aller dans n'importe laquelle des deux parties.
Que veut dire que l'entropie est maximale à l'équilibre des températures, du point de vue des éléments des deux systèmes concernés?
Si l'entropie ne mesure pas le désordre, alors que mesure-t-elle?
La thermodynamique statistique nous apporte une réponse.

 

L'entropie mesure la liberté et l'information ?

La thermodynamique statistique

 

La thermodynamique statistique est née au début du 20ème siècle. Elle permet de retrouver tous les résultats de la thermodynamique classique, mais avec une approche probabiliste.

 

L'univers n'est pas déterministe. Au niveau le plus bas, il est constitué de particules élémentaires possédant un certain nombre d'états possibles. Ces particules changent d'état 'au hasard', mais ce hasard n'est pas total. Par exemple, une particule élémentaire possédant deux états A et B peut passer deux fois plus de temps dans l'état B que dans l'état A.
De même, les électrons d'un atome peuvent changer de niveau d'énergie 'au hasard', mais chaque niveau d'énergie ne sera accédé qu'avec une certaine fréquence.

 

La thermodynamique statistique étudie les systèmes dont les éléments peuvent changer d'état suivant certaines probabilités, et permet d'adopter non seulement le point de vue de quelqu'un d'extérieur au système, mais également celui des éléments du système.
Elle décrit ce qu'est l'entropie pour les éléments du système, que ce soient les molécules d'un gaz, les particules élémentaires d'un neutron, ou les systèmes solaires d'une galaxie.

 

Probabilités, information et liberté

Probabilités

Considérons une particule élémentaire qui ne peut prendre que deux états A et B. Dire que l'état A à la probabilité p revient à dire que la particule passe une fraction p du temps dans l'état A. Si, par exemple, p=1/3, cela veut dire que la particule passe 1/3 de son temps dans l'état A, elle est dans l'état A une fois sur trois.
Dans ce cas, elle passe donc 2/3 de son temps dans l'état B. La probabilité pour que la particule soit dans l'état B est de 2/3, elle est dans l'état B deux fois sur trois.

 

Plus généralement, la probabilité pour une particule d'être dans un état donné est un nombre entre 0 et 1. Elle vaut 0 si la particule n'est jamais dans cet état, 1 si elle est toujours dans cet état. La somme des probabilités pour tous les états possibles est égale à 1.
Dans l'exemple précédent, 1/3 + 2/3 = 1.

 

Information

La notion d'information repose sur deux idées:
1/ un événement rare apporte plus d'information qu'un événement fréquent.
Savoir que Jean est parti à pied ce matin n'est pas très informant s'il part tous les matins à pied. Ca l'est plus s'il prend habituellement sa voiture.
2/ Les informations fournies par deux évènements indépendants s'ajoutent.
Je cherche à trouver un nombre à deux chiffres, choisi en secret par un ami. Si je connais le 1er chiffre, cela m'apporte une certaine information. Si je connais le 2ème , cela m'apporte également de l'information. La somme de ces deux informations me permet de trouver le nombre secret.
100 = 10 * 10, mais:
L'information que m'apporte la connaissance d'un choix parmi 100 = l'information que m'apporte la connaissance d'un choix parmi 10 + l'information que m'apporte la connaissance d'un choix parmi 10.

 

Lorsqu'un élément passe dans un état de probabilité p, cela lui apporte l'information log(1/p).
1/ La quantité 1/p mesure la rareté d'un événement. C'est un nombre supérieur ou égal à 1. Un événement qui arrive 1 fois sur 3 a une rareté de 3. Un événement qui n'arrive presque jamais a une rareté très grande. Un événement qui arrive toujours a une rareté de 1.
2/ Le logarithme (noté log) d'un nombre est sa longueur, le nombre de chiffres qu'il faut pour l'écrire (moins un). Ainsi le logarithme de 1000, log(1000), est égal à 3. Le logarithme de 1 million (un 1 suivi de 6 zéros) est égal à 6. Le logarithme d'un nombre entre 1000 et 10000 est un nombre entre 3 et 4, car log(1000) = 3 et log(10000) = 4.
Le logarithme du produit de deux nombres est la somme de leurs logarithmes. Par exemple, mille fois 1 million fait un milliard, un 1 suivi de 9 zéros. log(1 milliard) = 9 = log(1000) + log(1 million) = 3 + 6.
C'est pour ces deux raisons que l'information est définie par log(1/p).

 

Prenons un exemple. Dans un gaz, chaque particule possède une position et une vitesse. Connaître son état – sa position et sa vitesse -, c'est connaître sa position + connaître sa vitesse. Mais si la molécule occupe telle position une fois sur 2, et possède telle vitesse une fois sur 10, elle aura à la fois cette position et cette vitesse en moyenne une fois sur 20.

 

L'unité de l'entropie, ou de l'information, est le bit (binary digit). 1 bit correspond à une information de type Vrai/Faux, ou Oui/Non.

 

L’entropie est l’information reçue par un élément du système, en moyenne. Si on appelle pi la probabilité pour un élément d’être dans l’état i (pour i allant de 1 à n, le nombre d’états possibles), on trouve la célèbre formule :

Entropie = somme de tous les pi log(1/pi) , pour i allant de 1 à n.

Ou encore (car log(1/p) = -log(p)):

Entropie = somme de tous les -pi log(pi) , pour i allant de 1 à n.

 

1 bit d'entropie, ce n'est rien du tout, à notre échelle. L'unité de l'entropie en unités standards, c'est-à-dire 1 Joule/Kelvin, correspond à environ 1023 bits, une quantité d'information largement supérieure aux plus grandes mémoires informatiques existant aujourd'hui. C'est, en gros, l'information que possèdent les molécules d'un litre de gaz.

 

Liberté

On peut également considérer qu'une particule élémentaire, pour passer dans un état de probabilité p, manifeste une certaine liberté.
Comme pour l'information, un événement plus rare manifeste une liberté plus grande. Celui qui choisit de partir à pied ce matin là, alors qu'il prend habituellement sa voiture, manifeste une certaine liberté.
Comme pour l'information, la liberté est additive.
Choisir un nombre entier inférieur à 100 – un choix parmi 100 – , c'est choisir le chiffre des unités et choisir le chiffre des dizaines – deux fois un choix parmi 10 –. Les libertés s'ajoutent quand les raretés se multiplient.

 

La liberté est l'information, et vaut donc log(1/p).
L'unité de la liberté est le bit. un bit est la liberté de faire un choix parmi deux.

 

Information et liberté sont deux points de vue doublement complémentaires (!).
- Pour atteindre tel état de probabilité p, un élément d'un système manifeste une certaine liberté log(1/p).
Une fois atteint cet état de probabilité p, cela lui apporte une certaine information log(1/p).
Une autre manière de le dire: être plus libre conduit à faire des choix plus rares. Faire l'expérience de quelque chose de rare, cela apporte plus d'information.
- Ayant atteint un état de probabilité p, un élément d'un système dispose d'une certaine information log(1/p).
Cette information lui permet de manifester une liberté log(1/p).
Une autre manière de le dire: Disposer de plus d'information rend plus libre, permet de faire des choix plus rares.

 

Pour reprendre l'exemple du mélange de deux gaz, au départ, une molécule du premier gaz a une probabilité nulle d'aller dans l'autre compartiment. Puis la paroi est retirée, et le jeu des probabilités changent sans cesse, jusqu'à l'équilibre. A l'équilibre, le système est stable, le mélange est homogène, et la liberté de mouvement de chaque particule est maximale. Chacune peut être également dans un compartiment ou dans l'autre.

 

L'entropie mesure l'information, ou encore la liberté, des éléments d'un système.
Le second principe énonce que l'information, ou la liberté est maximale à l'équilibre.

 

Information = ignorance

Poursuivons l'exemple du mélange de deux gaz. Que veut dire que l'information est maximale à l'équilibre?
D'un point de vue extérieur, c'est plutôt l'ignorance qui est maximale. Un observateur extérieur voit un mélange homogène, et ne peut pas dire dans quel compartiment se trouve une molécule donnée.
Mais une molécule donnée possède cette information. Elle 'sait' où elle se trouve.
Imaginons, pour simplifier encore, qu'on lâche une molécule verte dans un récipient de gaz rouge. Si on sait dans un premier temps qu'elle ne peut pas être très éloignée du point d'entrée, assez vite on ne peut plus dire où elle se trouve; c'est l'équilibre. Notre ignorance de sa position est totale, mais il est possible de la connaître en faisant une expérience (par exemple, on replace la paroi et on 'filtre' chaque compartiment). Cette expérience va nous renseigner sur sa position, et donc nous apporter une certaine information, l'information que possède cette molécule verte du fait qu'elle occupe cette position.

 

On emploie ici les mots observation et expérience dans un sens précis. Lorsqu'on observe un système, on en connaît les propriétés macroscopiques, qu'il a en tant qu'unité. S'il est à l'équilibre, notre ignorance des propriétés des éléments qui le composent est maximale.
On peut connaître les propriétés d'un élément donné d'un système en faisant une expérience. Cette expérience nous fournit une certaine information sur les propriétés de cet élément, l'expérience nous communique l'information qu'il possède en tant qu'élément du système. Si le système est à l'équilibre, chaque élément possède une information maximale.

 

L'ignorance est l'information. Enoncée ainsi, cette phrase peut surprendre, mais elle est vraie si on utilise ces mots dans un sens précis. L'ignorance est possédée par un observateur extérieur. L'information est possédée par un élément du système.
Plus l'information possédée par un élément est grande, plus il fait des choix rares, plus sa liberté augmente. Il est plus simple de voir le lien entre liberté et ignorance. Si les éléments d'un système sont libres, un observateur extérieur ne peut pas savoir dans quel état ils se trouvent.
A l'équilibre, les molécules d'un mélange de deux gaz sont libres d'aller partout, et notre ignorance de leurs positions est maximale.

 

Les éléments d'un système possèdent de plus en plus d'information. Cette information est mesurable, son unité est le bit (binary digit). Pour mesurer cette information, il faut faire une expérience. Assimiler l'entropie à l'information est pertinent lorsqu'on se place du point de vue des éléments d'un système. L'assimiler à l'ignorance est pertinent lorsqu'on se place du point de vue d'un observateur extérieur.

L'entropie d'un élément en tant que système.

Lorsqu'on parle de l'entropie de quelque chose, par exemple l'entropie d'une molécule de gaz, il faut toujours préciser si on en parle en tant qu'élément ou en tant que système; si on considère cette molécule de gaz comme élément du gaz ou comme système d'atomes à l'équilibre.
Si on est en train d'observer l'expansion d'un gaz, l'entropie d'une molécule, en tant qu'élément du système qui est le gaz, ne cesse d'augmenter, sa liberté de mouvement augmente sans cesse. Mais l'entropie de cette même molécule, en tant que système d'atomes en équilibre, est constante, puisque la molécule est stable dans le temps.
Les éléments d'un système, du fait même qu'on en parle en tant qu'éléments, ont une certaine stabilité dans le temps. Ils sont à l'équilibre, en tant que systèmes, et leur entropie est donc constante. Notre ignorance de leur état interne est maximum. Mais le système lui-même peut ne pas avoir atteint l'équilibre, et l'entropie de ses éléments, en tant qu'éléments, leur liberté donc, augmente.

 

Il n'est pas nécessaire de connaître le fonctionnement interne des éléments d'un système pour l'étudier. Ces éléments sont dans certains états, avec certaines probabilités, peu importe le mécanisme physique sous-jacent.
Par exemple, un gaz contient des molécules possédant des propriétés statistiques, qui se manifestent par la température, la pression, … Il n'est pas nécessaire de savoir que les molécules rebondissent les unes contre les autres pour étudier un tel système. Certainement, tout finit par être explicable, mais cette explication n'apporte rien à l'étude thermodynamique d'un système gazeux.
Le raisonnement thermodynamique a pour principe de ne pas faire de 'psychologie' des éléments du système, et de se contenter de les voir comme ayant certains états avec certaines fréquences.

Le second principe

Le second principe de la thermodynamique énonce que l'entropie augmente toujours, pour être maximale à l'équilibre.

 

Du point de vue d'un observateur extérieur, il énonce que l'ignorance d'un système augmente, pour être maximale à l'équilibre.
Du point de vue des éléments du système, il énonce que leur information et leur liberté augmente, pour être maximale à l'équilibre.

Le second principe de la thermodynamique classique énonce que l'entropie varie plus à température basse.
La liberté augmente plus dans le calme.

 

 

La théorie de l'information

La théorie de l'information est une application des concepts clés de la thermodynamique - entropie et chaleur – à des textes. Fondamentalement, un texte est une suite finie de lettres, prises dans un alphabet. On peut toujours se ramener au cas où l'alphabet est composé de deux 'lettres', 0 et 1. Un texte est alors une suite de 0 et de 1.
L'entropie d'un texte peut être calculée à partir de la fréquence des 0 et des 1. Elle est maximale lorsque les 0 et les 1 apparaissent équitablement. Elle est minimale, et vaut 0, lorsque le texte ne contient que des 0 (ou que des 1).

 

Cela a conduit une fois de plus à assimiler l'entropie au désordre, puisque un texte 'au hasard' possède une forte entropie.
L'entropie mesure l'information. Un fichier HTML (une page web) contient une certaine information. Ce fichier peut être compressé, et dans le fichier compressé, les 0 et les 1 apparaissent équitablement (si ce n'était pas le cas, il pourrait être compressé plus encore). Dans un fichier compressé, l'entropie est maximale. L'information est codée sans redondance. Si cela a l'apparence du hasard, c'est parce que les fichiers possédant une entropie maximale sont plus nombreux que ceux d'entropie moindre.

 

Le désordre, qui représente la chaleur en thermodynamique, s'appelle ici le bruit. Lorsqu'un texte va d'un endroit à un autre, il se peut qu'il soit modifié. Cela est du en pratique à l'imperfection des canaux de transmissions physiques, elle-même due à l'interaction avec le milieu extérieur. En pratique, le bruit produit de petites modification du signal autour d'une valeur moyenne. Il est fonction de ces écarts comme la température est fonction de l'écart de vitesse des molécules par rapport à leur vitesse moyenne. Le bruit fait que des lettres changent dans le texte.
Pour ne pas être victime du bruit, le texte doit posséder une certaine redondance, et donc une plus faible entropie. Ainsi une erreur sur un seul bit d'un fichier compressé peut le rendre illisible, alors que cela sera sans conséquence sur un fichier muni d'une forme de redondance.

 

Moins il y a de bruit, plus l'entropie peut être élevée. L'information circule plus vite dans le calme.

 

Conséquences physiques de l'entropie

Emergence

Une propriété remarquable des systèmes à l'équilibre est que, étant stables dans le temps, ils apparaissent comme des unités possédant certaines propriétés.
Les particules élémentaires possèdent certaines propriétés. Par l'entropie, elles forment des systèmes en équilibre, comme les neutrons. Un neutron possède certaines propriétés physiques, différentes, qui ont été découvertes bien avant qu'on ne connaisse l'existence des particules élémentaires.
De même, on a longtemps crû que les atomes étaient indivisibles (d'où leur nom), et cela n'a pas empêché d'en étudier les propriétés. Ces propriétés sont émergentes, au sens où ce ne sont pas les propriétés des composantes. En fait, un électron change sans cesse de niveau d'énergie, et comme tous les électrons font cela, le système apparaît comme stable, comme un atome.

 

Pression et température sont des propriétés émergentes, qui n'ont pas de sens pour une seule molécule de gaz, même si on peut donner une explication moléculaire du phénomène.

 

 

Complexité

Les particules élémentaires forment des équilibres appelés protons et neutrons.
Ces particules forment des équilibres appelés atomes.
Les atomes forment des molécules, les molécules des amas de molécules.
Les acides aminés, des amas de molécules, constituent les protéines.

 

Comme le principe d'entropie s'applique à toutes les échelles, il en résulte des emboîtements de plus en plus complexes de systèmes à l'équilibre.

 

Le point clé est que l'entropie est la cause de l'équilibre, de l'existence de systèmes apparaissant comme des unités.
Ce point acquis, on peut donc avoir des systèmes de systèmes, puis des systèmes de systèmes de systèmes, etc.
Avec le temps sont apparus des systèmes de plus en plus complexes.

 

 

Adaptation au milieu

Un système à l'équilibre ne le reste pas éternellement. Cela est heureux, car sinon la liberté de ses éléments n'augmenterait plus.
C'est son milieu, son environnement, son extérieur, qui fait qu'un système ne dure pas.

 

Deux cas extrêmes peuvent se produire:
1/ Le milieu déplace l'équilibre, sans faire perdre au système son unité.
C'est ce qui arrive lorsque j'appuie le doigt sur un ballon gonflable (et gonflé). Sa forme change, et les molécules se répartissent de nouveau équitablement dans la nouvelle forme.
Cela permet à un système d'augmenter son entropie sans perdre son unité.
Nous dirons dans ce cas que le système s'est adapté à son environnement.
2/ Le milieu rompt l'équilibre.
C'est ce qui arrive lorsque je fais éclater un ballon gonflable avec une pointe d'épingle.
C'est également ce qui arrive lorsqu'une particule percute un atome et le fait exploser en ses composantes.
Le système n'existe plus en tant que tel.
Nous dirons dans ce cas que le système a disparu parce qu'il n'a pas su s'adapter.
Dans les systèmes complexes, fortement imbriqués, il arrive souvent que chacune des composantes se disperse elle aussi en ses propres composantes, et ainsi de suite.

 

Conclusion

L'entropie est une quantité physique qui augmente toujours avec le temps. Elle mesure la liberté, l'information des éléments du système considéré. L'entropie ne mesure pas du tout le désordre; c'est la chaleur qui mesure le désordre.
C'est l'entropie qui fait qu'il existe des systèmes stables dans le temps, qui apparaissent donc comme des unités. Elle a pour conséquences dans le monde physique la diversité, la complexité et l'émergence de nouvelles propriétés.

 



20/04/2021
0 Poster un commentaire