cover

© 2014, Hugues Genvrin

Edition : BoD - Books on Demand GmbH

12/14 rond-point des Champs Elysées, 75008 Paris

Imprimé par Books on Demand GmbH, Norderstedt, Allemagne

ISBN : 9782322027903

Dépôt légal : Janvier 2014

Table des matières

  1. I Théorie
  1. 1 L’entropie
    1. 1.1 Préambule sur l’histoire des techniques
      1. 1.1.1 Un instrument : le thermomètre
      2. 1.1.2 La première révolution thermodynamique
      3. 1.1.3 La deuxième révolution thermodynamique
    2. 1.2 Contexte scientifique de la découverte de l’entropie
      1. 1.2.1 Le socle Aristotélicien
      2. 1.2.2 La pentecôte de l’esprit
      3. 1.2.3 La chaleur
      4. 1.2.4 La thermodynamique à partir de 1824 jusqu’en 1865
      5. 1.2.5 Concepts de base de la thermodynamique [23]
    3. 1.3 Systèmes entropiques
      1. 1.3.1 De l’approche contemporaine à une décomposition de l’entropie
      2. 1.3.2 L’énergie
    4. 1.4 Les Entropies
      1. 1.4.1 L’œuvre de Sadi Carnot
      2. 1.4.2 Le théorème de Sadi Carnot
      3. 1.4.3 Caractéristiques d’une fonction d’état d’entropie
      4. 1.4.4 Entropie d’échange, de chemin, de composition et structurelle
      5. 1.4.5 Réexamen de l’entropie de Boltzmann, avec intégration d’une contrainte supplémentaire
      6. 1.4.6 Entropies calculée, physique et potentielle
      7. 1.4.7 Entropie et phases
    5. 1.5 La température à partir de l’entropie
  1. 2 Aspects formalisés des infrastructures théoriques
    1. 2.1 Considérations premières
      1. 2.1.1 Aspects logiques
      2. 2.1.2 Base algébrique étendue : structures fondamentales
    2. 2.2 Infra-mathématique
      1. 2.2.1 Développements immédiats
      2. 2.2.2 Usage des probabilités au niveau infra
      3. 2.2.3 Les complexions fonctionnelles
    3. 2.3 Infra-algèbre
      1. 2.3.1 L’entropie canonique
      2. 2.3.2 Autour de l’entropie canonique
      3. 2.3.3 Contingence entropique
      4. 2.3.4 La cyclicité
      5. 2.3.5 De la corrélation à la co-relation
  1. 3 Réduction des théories physiques abordées
    1. 3.1 Jonction conceptuelle
      1. 3.1.1 L’approche systémique
      2. 3.1.2 Des complexions
      3. 3.1.3 Le poids de configuration statistique
    2. 3.2 Liaison des résultats sur l’entropie
      1. 3.2.1 L’entropie statistique
      2. 3.2.2 Les entropies de mélange, de chemin et de structure
    3. 3.3 Éléments théoriques de la réduction
  1. II Applications
  1. 4 Les arkhéctoniques
    1. 4.1 Critique de quelques aspects métaphysiques
      1. 4.1.1 De l’aléa
      2. 4.1.2 Des causes
      3. 4.1.3 Analysis situs
    2. 4.2 Des axiomatiques aux théories arkhéctoniques
  1. 5 Distance et probabilités
    1. 5.1 Les approches
    2. 5.2 Une approche conventionnelle
      1. 5.2.1 Probabilité sur un ensemble E
      2. 5.2.2 Construction de la fonction de probabilités
    3. 5.3 Conséquences du nouveau concept de distance
  1. 6 Les systèmes entropiques
    1. 6.1 Arkhéctonique des systèmes entropiques
      1. 6.1.1 Du monde algébrique au monde réel
      2. 6.1.2 De la quantification algébrique à l’expression d’une causalité
      3. 6.1.3 Dimension capabiliste
      4. 6.1.4 Un exemple de système capabiliste : l’individu
      5. 6.1.5 Propriétés du calcul entropique
      6. 6.1.6 Typologie des systèmes entropiques
    2. 6.2 La vérité entropique
      1. 6.2.1 Du clair-obscur
      2. 6.2.2 Philosophie de la vérité
      3. 6.2.3 La vérité expérimentale
    3. 6.3 Logique et entropie
      1. 6.3.1 Vers une représentation systémique
      2. 6.3.2 Analyse de l’antinomie du menteur
    4. 6.4 Philosophie du langage
      1. 6.4.1 Relations des langages à l’entropie
      2. 6.4.2 Langage formel
      3. 6.4.3 Les projections arkhéctoniques : réduction et Extension
    5. 6.5 Conséquences en épistémologie
      1. 6.5.1 Approche horizontale des axiomatiques
      2. 6.5.2 Arkhéctoniques entropiques en biologie
      3. 6.5.3 Philosophie de l’esprit
    6. 6.6 Infra-mathématique et mathesis universalis
  1. 7 Les systèmes complexes entropiques à opérateurs centraux humains
    1. 7.1 Approche horizontale des systèmes complexes
      1. 7.1.1 Positionnement
      2. 7.1.2 Spécificité des systèmes biologiques
      3. 7.1.3 L’utilité
      4. 7.1.4 Calculabilité de la fonction d’utilité et de valeurs
      5. 7.1.5 Un système à rationalité limitée
    2. 7.2 Maximisation de l’utilité
      1. 7.2.1 Appréciation de l’utilité
      2. 7.2.2 Conséquences au niveau probabiliste

Préface

Le travail présenté a été réalisé dans une période qui s’est écoulée depuis l’année 2000. Il a pour thème central l’entropie 1. On trouvera dans ce qui suit une approche historique, puis théorique qui m’ont permis d’aboutir à la notion d’entropie algébrique, qui se présente comme une généralisation du concept thermodynamique.

J’ai pu en déduire des résultats de croissance entropique, ainsi que la mise en évidence de la possibilité de réduire l’entropie par des mécanismes de composition. Ces résultats remettent en cause l’approche de la mécanique classique sur la hiérarchie des principes, et sur leur nature épistémologique.

J’ai proposé en particulier une notion d’énergie algébrique qui est seconde par rapport à l’entropie, et trouvé un théorème qui énonce que l’énergie d’un système fermé ne peut aucunement ne pas être constante, tandis que la thermodynamique l’énonce en tant que premier principe non démontrable.

D’un point de vue philosophique, j’ai réalisé une approche systémique qui s’écarte des principes de la métaphysique d’Aristote dans ses fondements mêmes. Je suis arrivé à une détermination des pratiques et des théories relativement indépendantes de leur contenu à ce stade.

Cette systémique repose sur une infra-mathématique, elle est donc commune à tout contenu. J’ai pu ainsi redéfinir une notion aussi importante que la vérité, critiquer certaines formes de vérités expérimentales, proposer une solution au paradoxe d’Épiménide en logique.

J’ai également abordé le domaine de la philosophie du langage pour définir les réductions et extensions relatives aux projections axiomatiques. Cela m’a conduit à une illustration fondamentale concernant la notion de distance, où l’infini supporte un chargement sémantique. Ceci remet en cause le point de vue subjectif de Hilbert quant à la nature de la droite réelle, et confirme la profondeur des résultats que j’ai découverts dans un précédent travail sur l’infini achevé du continu.

Dans la sphère biologique, j’ai reformulé en regard du système développé la théorie de l’évolution de Darwin. J’ai rédigé un programme d’applications relativement à la philosophie de l’esprit, en particulier en ce qui concerne temps intérieur, la mémoire, ainsi que la notion de refoulement. Je pense que l’étendue des applications est très large, que cette systémique permet de comprendre le monde sous un nouveau jour.

Hugues GENVRIN

 

1. Nous allons définir le concept d’entropie qui peut apparaître à première vue complexe et divers suivant les domaines d’utilisation, on peut ici rappeler la définition du dictionnaire : « Grandeur thermodynamique exprimant le degré de désordre de la matière ».

Introduction

“Une théorie est d’autant plus influente qu’elle donne plus de simplicité à ses prémisses, qu’elle associe un grand nombre de types d’objets distincts, et que son domaine d’application est étendu. C’est de là que découle l’impression profonde qu’exerça sur moi la thermodynamique classique. C’est la seule théorie physique d’une portée universelle dont je sois convaincu que, dans le domaine d’application défini par ses concepts fondamentaux, elle ne sera jamais détrônée”.

Albert Einstein

La systématique et l’herméneutique sont des concepts qui ont émergé au temps de la réforme Luthérienne [69], qui s’amorce avec les thèses de Wittemberg en 1517, mais dont la traduction du nouveau testament par Luther en 1522 marque un acte fondateur. Ritschl opposa l’approche systémique à une élaboration de type encyclopédique des dogmes. On retrouvera avec Galilée dans « Les deux systèmes du monde »(1622), puis Spinoza dans « L’éthique » (1677), ou dans l’œuvre de Leibnitz, des modèles de pensées systémiques. Si le XX° siècle a vu apparaître des systèmes politiques dogmatiques, totalitaires, cela apporta la preuve qu’un système pouvait s’enfermer dans une même logique, que ce que les fondateurs de la systémique pensèrent combattre. Ainsi la flexion des termes, des énoncés, s’opposent alors aux dogmes qui sont inflexibles, le relationnel permettant d’en saisir l’amplitude. Aussi les mathématiques, la pensée structurelle offrent les meilleurs moyens pour appréhender une théorie systémique.

Le sujet de ce livre sera l’entropie, liée à une large classe de systèmes quelles que soient leur nature. On remarquera que l’origine de ce mot remonte à Leibnitz, qui introduisit le terme de complexions en philosophie. Voici donc la principale raison du titre que nous avons choisi, l’apport majeur de la notion d’entropie, nous le verrons plus en détail, se situant dans l’échelle logarithmique qu’elle assigne aux nombres de complexions. L’usage du pluriel pourrait surprendre le lecteur, mais c’est bien dans une perspective particulière et minimaliste 2 que nous engage Boltzmann en prenant en compte le nombre de complexions maximal pour définir l’entropie statistique.

Pour commencer nous allons suivre une approche historique, sachant que la première science qui établit sur des bases solides le paradigme d’entropie fut la thermodynamique, aussi nous nous proposons d’étudier la notion d’entropie en partant de l’étude de la chaleur jusqu’à la période pendant laquelle s’est fondée la mécanique statistique. Dans un deuxième temps nous partirons d’une base purement mathématique pour retrouver la possibilité de formuler les termes et les principes de la physique décrite.

En fin de compte on aboutira à une infrastructure théorique s’appliquant à des ensembles d’énoncés en langage naturel ou en langage objet, permettant de définir une pratique ou une théorie. Nous présenterons l’exemple du concept de distance et déclinerons une version qui relèvera du domaine de l’infrastructure théorique, nous verrons alors l’étendue de la notion de chargement sémantique imputable aux projections axiomatiques. Cela nous servira à réviser la typologie d’une approche systémique pour se concentrer sur la notion générale et concrète de système entropique, ainsi que ses conséquences dans divers domaines philosophiques. Un dernier chapitre sera consacré à l’étude des systèmes complexes entropiques à opérateurs centraux humains.

Bordeaux, le 9 Janvier 2014.

 

2. On utilisera le terme minimaliste comme ce qui s’applique dans un cadre clairement défini et uniquement dans celui-ci, autrement dit le domaine d’application n’est pas général.

Première partie

Théorie

Chapitre 1

L’entropie

“Die Energie der Welt is konstant. Die Entropie der Welt strebt einem Maximum zu”. 3

Rudolph Clausius (1873)

Ce chapitre aura pour fil conducteur la notion de température, bien qu’aujourd’hui on puisse en avoir une idée claire et distincte en tant qu’intensité de la chaleur, elle n’en reste pas moins depuis ces origines une représentation renvoyant à la chaleur. Si l’on doit à Black et aux thermodynamiciens la mise en place conceptuelle actuelle, l’archéologie du savoir nous fait remonter sans conteste à la période Aristotélicienne. Le XX° siècle fut marqué par une extension du domaine d’application de l’entropie, nous nous proposerons de revenir sur le théorème fondateur de Sadi Carnot, avant de présenter les approches formelles de Clausius et Boltzmann. Enfin, nous nous permettrons de proposer une décomposition de l’entropie.

1.1 Préambule sur l’histoire des techniques

Il est des révolutions scientifiques qui se mettent en marche en deux temps, ce mécanisme est incarné par la dialectique de l’invention d’une technique et la découverte scientifique qui l’explique fondamentalement, qu’on pourrait également appeler le couple matériel et spirituel, ou encore praxis et logos que rend idéalement l’image d’un balancier. Lorsqu’on étudie la révolution thermodynamique, cela prend tout son sens. On distinguera plus exactement deux révolutions : tout d’abord la première liée à l’invention de la machine à vapeur, et la seconde qui va créer les bases scientifiques de la compréhension, de l’approfondissement du phénomène. Entre ces deux mondes, des hommes vont essayer de comprendre, de transfigurer cet inconnu, d’inventer des mots, qu’ils soient ingénieurs, professeurs d’université, scientifiques amateurs ou même philosophes, voire artistes... dans ce qu’on peut communément décrire comme un « Zeitgeist » 4. Nous élargirons le concept de théorie à celui de dispositif suivant la définition de Bachelard : « un dispositif, c’est théorie matérialisée ». Nous allons tout d’abord présenter l’invention d’un instrument qui s’est réalisé sur plusieurs siècles avant de devenir un standard. On peut préciser que sur cette période de mise au point, cet instrument mesurait plus globalement un état de la chaleur du corps qu’on identifiait à la chaleur réelle, et non pas l’intensité de la chaleur comme on le définira après l’expérience de Black.

FIGURE 1.1 – Pluie, vitesse et vent - W.Turner (1844). [147, Wikipédia]

1.1.1 Un instrument : le thermomètre

Définition 1 (Définition à date). Le thermomètre est un instrument qui va rendre possible la quantification de l’intensité de la chaleur d’un corps par une mesure de l’élévation ou de la baisse du niveau d’une colonne de mercure, graduée. Le thermomètre possède une extrémité en forme d’embout qui permet le contact avec le corps dont on veut prendre la mesure, le transfert de chaleur se faisant sur le principe de l’équilibre thermique.

Cette définition comprend huit mots ou couple de mots indiqués en caractères gras qui sont résolument « modernes », bien que sa compréhension ne pose pas de véritables soucis aujourd’hui, il a fallu beaucoup de temps, d’expériences de laboratoire, de controverses et de « batailles »pour faire émerger ce qu’on définira comme le premier paradigme de la thermodynamique. Si cette aventure commence à partir de l’antiquité, on mettra en évidence des points d’inflexion qui vont faire naître en particulier la civilisation contemporaine.

Le principe de la dilatation de l’air ou de sa contraction était connu depuis l’Antiquité, malgré tous les instruments de mesure n’étaient pas hermétiquement clos. En 1643-1644, Toricelli fit remarquer qu’il y avait là des biais à tenter de mesurer un indicateur relatif à la chaleur d’un corps, en prise directe avec l’atmosphère. En fait, il évoquait là l’influence de la pression atmosphérique. Le passage à l’utilisation d’un liquide dans un élément en verre hermétiquement clos, qu’on retrouvera tout de même chez les scientifiques florentins, dont Galilée (1602-1609) marquera une avancée de l’instrumentation. En fait, on allait successivement remplacer l’air par de l’eau, puis de l’esprit de vin, et enfin du mercure. Le problème majeur des thermomètres florentins fut qu’ils ne possédaient pas de normalisation, les mesures restant utilisateur-dépendantes.

C’est Amontons qui en 1702 tentera de créer un outil qui puisse reproduire les résultats, comparer la chaleur dans les corps, par différents utilisateurs, en différents lieux et moments. S’il utilisa encore l’air dans une colonne de verre coudée, pour effectuer les mesures, il reste néanmoins l’inventeur du thermomètre, qui étymologiquement renvoie à mesurer la chaleur.

FIGURE 1.2 – Le thermomètre de de Galilée (1602). [62, Wikipédia]

Les travaux de Réaumur ainsi que ceux de Farenheit le transformèrent en instrument uniforme. Tout d’abord par Réaumur qui plaça une échelle divisée en 80 parties entre les points de fusion et d’ébullition de l’eau, et Farenheit par le remplacement de l’esprit de vin utilisé par Réaumur, par le mercure. Celsius en 1741 portera deux point fixes à 0°C et 100°C. En 1745, Linné inversera les graduations de Celsius pour que le 0°C indique la température de fusion de la glace et le 100°C la température d’ébullition de l’eau. Nous avons alors un instrument qu’on peut dire similaire à celui que nous pouvons utiliser de nos jours.

1.1.2 La première révolution thermodynamique

“Il n’est rien qui contribue plus au progrès de la connaissance que la découverte d’un nouvel instrument.”

Davy

A cette époque, on appelle heuristique 5 un processus intellectuel qui permet de comprendre quelque chose, donc un phénomène scientifique, sans nécessairement l’expliquer de fond en comble de manière rationnelle. Cela s’intègre dans une démarche pragmatique largement utile dans l’univers technique et industriel. Lorsque Einstein écrira ses premiers travaux relatifs à l’effet photo-électrique, il n’hésitera pas à intituler son texte : « Un point de vue heuristique concernant la conception et la transformation de la lumière » (1905). Mentionnons tout de même que s’il pouvait alors se placer comme un physicien-technicien, il fut aussi à l’aise plus tard dans les généralisations conceptuelles de grandes envergures comme le démontrèrent ses travaux sur la relativité générale. Pour revenir à notre sujet, on va s’intéresser plus particulièrement à une heuristique formalisée dans la création d’une machine : le condenseur.

Ici, c’est véritablement le cas où l’invention d’une technique évolue de manière concomitante avec l’explication des faits. Replaçons nous dans la problématique originelle du XVIIIº siècle : la houille était utilisée comme source d’énergie fossile, or l’exploitation des mines à charbon nécessitait de pomper beaucoup d’eau qui provenait directement de la nappe phréatique, ou bien était exhaurée par des fissures dans les sous-sols, et empêchait un travail d’extraction correct de la part des ouvriers et techniciens.

FIGURE 1.3 – La machine de Newcomen (1712). [76, Wikipédia]

Certes, quand Watt déposa son brevet en 1769 : « Un nouveau procédé de diminution de la consommation des machines à feu en vapeur et combustible » [132], qui détermina l’avantage de son procédé de condensation, il existait déjà les machines de Newcomen (1724). Une des grandes réalisations de ce dernier fut sans doute la réalisation étanche de l’ensemble cylindre-piston, à laquelle Hook ne croyait pas. Mais comme on le dit judicieusement, ces machines fonctionnaient avec le feu, et non à vapeur. D’ailleurs, Watt et Boulton qui exploitèrent industriellement le brevet sur le condenseur à partir de 1775 avaient bien saisi l’énorme avantage en termes de productivité et d’économie. La machine de Boulton & Watt Corp. consommera en matières moins des deux-tiers de la machine de Newcomen pour obtenir un résultat identique. Ils adoptèrent une forme particulière de crédit, toujours en vogue aujourd’hui : le leasing [132]. C’est à dire que les acheteurs de leur machine à vapeur allaient payer des redevances annuelles correspondant dans ce cas au gain de productivité par rapport à la machine de Newcomen, ce qu’on peut définir en termes économiques comme une redevance basée sur le gain marginal. En 1800, ils auront livré plus de 500 machines à vapeurs, la société entière se sera structurée autour de l’industrie.

Si nous revenons à l’aspect technique, précisons que Watt était facteur d’instruments scientifiques [40], c’est à dire qu’il fabriquait des instruments pour le compte des professeurs de l’université de Glasgow, entre autres pour les professeurs Anderson et Black. Ce dernier qui était également médecin et chimiste, fut l’un des plus grands théoriciens de la chaleur. L’explication première de la supériorité du système de Watt, il allait l’expliquer en découvrant en 1763 la notion de chaleur latente, qui concerne les transitions d’état de la matière, s’appliquant à fortiori à la transition eau-vapeur. Mais à cette date, la machine de Newcomen était bien réelle tandis celle de Watt n’existait pas encore.

En 1763, Watt travaillait sur un prototype en modèle réduit de la machine de Newcomen, et s’aperçut qu’avec l’effet d’échelle la chaleur produite s’épuisait à réchauffer le cylindre. Watt pensa dans un premier temps que la quantité d’eau injectée pour condenser le cylindre était trop importante. Après ses calculs pour déterminer le volume d’eau adéquat, il s’aperçut que la théorie des mélanges ne fonctionnait pas lorsqu’une partie de l’eau était encore à l’état gazeux. Il découvrit [41] le principe de Black sur la chaleur latente de vaporisation, sans toutefois l’interpréter. Cependant après avoir corrigé le volume d’eau correct, la machine démontra une baisse de puissance. On eut pu penser que l’eau restait trop proche de son point d’ébullition [42]. On savait alors que les températures constantes de fusion et d’ébullition de l’eau étaient relatives à une pression atmosphérique donnée. Pour remédier à cette baisse de puissance, il modifia la machine originelle en ajoutant un cylindre où sera condensée la vapeur du cylindre moteur. Avec ce montage il inventa alors un nouvel instrument : le condenseur. Les causes de la dynamique du piston dans le cylindre n’étaient plus celles de la machine de Newcomen. On passait à une machine à piston actionnée par de la vapeur sous pression, d’où le nom de machine à vapeur.

FIGURE 1.4 – La machine de Watt (1769). [77, Wikipédia]

Voici les propos de Watt rapportés dans la biographie que Carnegie lui consacra, sur la découverte de Black [4] : « Being struck with this remarkable fact (effect of latent heat), and not understanding the reason of it, I mentioned it to my friend, Dr. Black, who then explained to me his doctrine of latent heat, which he had taught some time before this period (1764) ; but having myself been occupied with the pursuits of business, if I had heard of it I had not attended to it, when I thus stumbled upon one of the material facts by which that beautiful theory is supported » 6.

Définition 2 (La chaleur latente - Prigogine). Aux températures de changements de phases : de fusion ou d’ébullition, la chaleur fournie à un corps ne produit pas d’élévation de température, elle a pour effet la conversion d’une phase à l’autre.

Voilà un point d’inflexion de cette grande aventure, mais nous restons encore très loin d’une explication complète des phénomènes thermodynamiques. Les découvertes liées à la technique principale se multiplièrent : on inventa la fraiseuse, les alésages devinrent un travail de plus en plus précis, le système bielle-manivelle vinrent remplacer le système de balancier, la double détente du piston supplanta le simple cylindre... Le milieu scientifique restait très intéressé par cette invention aux multiples facettes à explorer. En particulier Sadi Carnot, dont le père Lazare Carnot : homme politique, général, scientifique de premier plan (tant en physique qu’en mathématique), fut l’un des plus grands hommes de la nation. Sadi Carnot théorisa en 1824 dans « La puissance motrice des machines à feu », ce que la technique démontrait par les faits. A savoir que les éléments des anciens : l’air, le feu, l’eau, la terre étaient mêlés pour produire dans des proportions jusque-là jamais égalées, mais avec une limite intrinsèque liée à la différence des températures des sources de chaleurs liées aux substances motrices. Sadi Carnot n’établit pas une démonstration de la dégradation de l’énergie, il en souleva l’idée comme allait le reconnaître plus tard Clausius. En effet, la conversion de la chaleur en énergie mécanique n’est pas totale, cette dégradation implique un rendement maximal qui ne pourra jamais être de 100%, de ce phénomène naîtra le concept d’entropie.

L’équivalence de la notion de chaleur et de travail fut une idée soulevée par Von Mayer en 1841 [34]. Toutefois c’est en 1847, au terme de quatre années d’expériences, alors qu’il travaillait dans la brasserie familiale, que Joule découvrit l’équivalent mécanique de la chaleur. Une avancée qui permit d’associer, de convertir les unités caloriques en unités de travail mécaniques : 1 cal = 4.184 J. Malgré tout, si l’on pouvait associer la même unité aux dépenses caloriques et aux travaux mécaniques, depuis les différentes sciences ont toujours travaillé soit avec l’une soit avec l’autre, ce qui témoigne d’une relative indépendance pratique des concepts. Cette indépendance étant en partie due à sa non convertibilité avec un rendement unitaire de la chaleur en travail.

La science allait alors redécouvrir et inventer des mots, telle l’énergie, terme utilisé par Thomson en 1850 qui supplanta petit à petit la quantité de mouvement. A vrai dire l’étymologie renvoyait au mot d’origine grec « energeia », mais ne prenait pas le sens actuel. Il fut introduit en physique par Young en 1807, dans un sens toujours décalé de son sens actuel [35], mais le concept contemporain de l’énergie se manifestait déjà dans la décomposition de l’équation de Johannes Bernouilli [35].

FIGURE 1.5 – Dispositif expérimental de J.Joule (1845). [75, Wikipédia]

On reprendra au même moment la terminologie Aristotélicienne pour distinguer ce qui est en mouvement et ce qui est en acte, pour distinguer une énergie cinétique et une énergie potentielle, ce sera l’œuvre de Rankine en 1853. En 1850 soit un peu moins de 90 ans après la découverte de Watt, Clausius découvrit le concept d’entropie mais sans mentionner ce mot qu’il inventera presque quinze années plus tard, mais qui marquera l’explication de l’impossibilité de réaliser un mouvement perpétuel. La notion entropique est alors reliée à la dégradation de l’énergie entre deux états macroscopique ordonnés d’un même système. L’énergie dite non dégradée (ou de « bonne qualité ») étant celle susceptible de produire un travail mécanique. Cette dernière notion de travail fut éclaircie par les travaux de Lazare Carnot, Poncelet et Coriolis [34].

Au terme de cette ébauche, les principaux énoncés relatifs à l’entropie furent consignés sous forme de lois : ce qu’on appelle aujourd’hui la seconde loi est posée par Clausius, elle stipula que l’entropie croît, et qu’elle tend vers un maximum. Curieusement, c’est presque quinze ans après qu’on établira le premier principe : l’énergie totale d’un système fermé se conserve.

1.1.3 La deuxième révolution thermodynamique

Cette révolution s’amorça au début des années 1870, elle fut menée par Boltzmann, qui détermina une explication statistique de l’entropie. Sans-doute allait-il bien plus loin que de clore les fondements de la thermodynamique. En fait il découvrit une nouvelle science qu’on appellera mécanique statistique puis physique statistique. Bien souvent les révolutions tirées par la science peuvent se heurter non pas à la « technè » qui est en général exploitée par la classe dominante, mais par le milieu intellectuel où les dominants peuvent imposer un cadre de pensée, en référence aux cas de Galilée, et Bruno en particulier. Les découvertes de Boltzmann aboutirent à une nouvelle expression de l’entropie, qui pouvait désormais se quantifier par l’usage des probabilités, alors que l’entropie de Clausius était davantage une expression qualitative, quoi qu’elle aurait être calculée mais moins finement que celle de Boltzmann. Au-delà sa célèbre constante qui exprime une conversion de la température en énergie (J/K), ses découvertes permirent à Planck de procéder à la détermination de la courbe de densité du rayonnement du corps noir, qui marqua alors le début de la mécanique quantique, dont les successeurs étaient et demeurent pareillement aujourd’hui les héritiers de Boltzmann. D’un point de vue philosophique Boltzmann inaugura un changement de perspective entre le macro et le micro, tandis que l’homme était souvent envisagé comme un micro-acteur dans un macrounivers, il mit en lumière l’autre infini qu’avait laissé entrevoir Pascal, consentant de considérer un état macroscopique à dimension humaine comme un macro-univers constitué de micro-états atomiques.

1.2 Contexte scientifique de la découverte de l’entropie

Nous allons voir que les concepts qui prennent part au corpus de la thermodynamique s’étendent sur une période qu’on fera remonter jusqu’à Aristote, elles vont se répandre en philosophie, balbutier dans des domaines scientifiques émergents (on pense à l’invention du thermomètre par exemple), avant une éclosion et un épanouissement synergique sur une période qui va s’écouler entre le milieu de XVIIº siècle et le début du XX° siècle. Il va de soi que cette dynamique du paradigme de la thermodynamique n’est pas encore achevée si on l’inclut dans un projet qu’on désignera par la systémique. Le sera-t-elle un jour? Sans-doute l’achèvement d’un corpus ne se réalise que lorsqu’on démontre que celui-ci est obsolète, voir faux, comme ce fut le cas de l’illustre science Newtonienne que la relativité d’Einstein est venue saborder dans l’espace propre à la relativité. En définitive, ce n’est pas jouer sur le sens des mots que de dire que toute pensée sera un jour achevée lorsqu’une nouvelle idée, plus puissante, viendra la surpasser.

1.2.1 Le socle Aristotélicien

« La Métaphysique » d’Aristote est un ouvrage qui a été écrit après « La physique », l’auteur y définit la métaphysique comme la philosophie première, la base de toutes les sciences. Le but est ici d’exposer des idées en rapport avec notre sujet d’étude, on verra combien les esprits ont pu et peuvent encore se nourrir de la trame conceptuelle développée par le Stagirite. Nous allons donc présenter les notions d’ontologie (à laquelle la métaphysique ne peut se réduire bien entendu), de catégories, de causalité, la logique, et nous permettrons d’avoir un regard sur ce qui en mesure d’être en rapport avec l’aléa, bien qu’Aristote ne mentionne jamais ce terme dans cet écrit.

A Principe

La notion de principe est fondamentale chez Aristote, « Principe se dit d’abord du point de départ du mouvement de la chose, tel est, par exemple le principe de la ligne et de la route, auquel répond un autre principe à l’extrême opposé » [9]. On retrouvera cette terminologie à la base de la thermodynamique, les principaux acteurs revendiquant cet héritage, en cela elle s’opposera à la philosophie naturelle de Newton qui cherchait à se rapprocher davantage d’Euclide, pour fair un modèle physique calqué sur la méthode mathématiques.

B L’ontologie

L’auteur définit l’ontologie comme « la science qui étudie l’être en tant qu’être, et les attributs qui lui appartiennent essentiellement. Elle ne se confond avec aucune des sciences dites particulières, car aucune de ces autres sciences ne considère en général l’être en tant qu’être, mais décomposent une certaine partie de l’être, c’est seulement de ces parties qu’elles étudient l’attribut ». La déclinaison des différents types d’être repose sur la notion de prédicat qui permet mettre en relation de correspondance un groupe d’éléments. Le prédicat permettant de faire la liaison entre le genre et les espèces 7. Il présente une exception en définissant la substance comme « toutes ces choses sont appelées substance parce qu’elles ne sont pas des prédicats d’un sujet ; mais parce que, au contraire, les autres choses sont prédicats d’elles » [10]. La substance sera définie comme la première catégorie de l’être.

C Les catégories

La présentation est plus riche que dans « L’Organon », Aristote nous offre ici une classification plus détaillée, on retrouve donc les catégories « la substance, la quantité, la qualité, la relation, le lieu, le temps, la position, la possession, l’action, la passion » [22].

D Les causes

Selon l’étude des causes premières, il aboutit à en distinguer quatre :

  1. 1. la cause formelle,
  2. 2. la cause matérielle,
  3. 3. la cause efficiente,
  4. 4. la cause finale.

La cause formelle est identifiée à la quiddité : « Tout ce qu’elle peut pas ne pas être » [11]. La causalité implique donc la prise en compte d’une potentialité en rapport avec le monde, néanmoins y sont exclues les causes accidentelles. La cause matérielle va correspondre au genre ou à la substance de l’être, on remarquera l’exemple de l’argent [12] qui est la cause première de la coupe. La cause efficiente sera le moteur d’une dynamique, d’où partira le mouvement.

E En acte, potentiel, et accident

La réalité de la notion de possible devient l’émergence d’une potentialité. Aristote distingue la puissance de l’acte, qu’il considère comme pouvant coexister. En cela il s’oppose à l’école de Mégare : « Quelque chose peut avoir la puissance d’être et cependant n’être pas, avoir la puissance de n’être et être » [13]. Il rajoute : « Une chose est possible, si son passage à l’acte dont elle dit avoir la puissance, n’entraîne aucune impossibilité » [14]. On voit se dessiner un large périmètre de la potentialité, simplement restreint par l’exclusion de l’accident en tant que cause isolée.

F L’état

« État, en un sens, est comme un acte de ce qui est "eu" » [15]. La notion d’état est aussi sujette au devenir : « De même, en effet qu’il existe toujours un intermédiaire entre l’être et le non être, de même il y a aussi ce qui devient entre ce qui est et ce qui n’est pas » [16]. On voit poindre ici l’idée d’une dynamique de l’être, qui s’expliquerait bien entendu par l’activation d’une cause efficiente. Aristote aborde d’un point de vue qualitatif des concepts de l’aléa, il définit la partie et le tout [17], puis des éléments de combinatoire qui émergeront plus tard dans les sciences en tant que concepts quantitatifs, par exemple « disposition : s’entend de l’arrangement de ce qui possède des parties, selon le lieu, la puissance ou la forme » ; il ajoute « un état peut se dire d’un dispositif », plus large encore il définit la notion de similitude : « Semblables, se dit de choses affectées, sur tous les rapports, de même attributs, de celles qui sont affectées de plus de ressemblances que de différences » [18]. Comment ne pas étendre cette perspective, tout d’abord à une relation entre un état macroscopique et des états microscopiques, l’être se déclinant par des dispositions microscopiques, bien évidemment on retrouvera chez Boltzmann une utilisation de tous ces concepts. D’autre part, la deuxième citation laisse envisager une mise en place d’une notion de classe, la singularité s’appuyant sur une extension de similitudes entre des choses, par des attributs propres.

G Logique

Pour le Stagirite, les « prémisses, sont les principes de démonstrations » [16]. Sa logique s’appuie sur le fameux principe de contradiction, qu’il énonce dans le livre Γ, que nous appelons aujourd’hui principe de non contradiction (PNC) : « Il est impossible que le même attribut appartienne et n’appartienne pas en même temps, au même sujet et sous le même rapport,.. » [19]. Sans doute cette fraction de phrase est trop souvent rapportée comme une entité complète. Le reliquat qui est circonstanciel nous précise « ..., sans préjudice de toutes les autres déterminations qui peuvent être ajoutées, pour parer aux difficultés logiques. » [19]. En fait, ce principe est adopté par Aristote sous l’autel d’un autre à peine divulguée : la cohérence. Pourtant présumer que le PNC non validé impliquerait dans tous les systèmes une incohérence serait de l’ordre du préjugé. Il y aurait beaucoup à redire sur cet énoncé, nous y reviendrons dans un chapitre ultérieur, il affirme en outre le principe du tiers exclu (PTE) : « Mais il n’est pas possible non plus qu’il y ait aucun intermédiaire entre des énoncés contradictoires, il faut nécessairement ou affirmer, ou nier un seul prédicat, quel qu’il soit, d’un seul sujet » [20]. Pour l’instant nous nous bornons à prendre en compte l’expression du PNC de manière formelle.

Dans ce passage, Aristote insiste sur le rôle du philosophe dans la détermination des axiomes, toutefois l’histoire des sciences montrera que les principes en physiques sont aussi énoncés par des physiciens et non strictement des philosophes, on retiendra seulement la nécessité de principes premiers en physique.

1.2.2 La pentecôte de l’esprit

Nous paraphrasons dans ce titre la qualification attribuée par Mari-tain aux faits que nous allons décrire, qu’il avait dénommés « La pente-côte de la raison ».

Le dix novembre 1619, alors qu’il résidait en Bavière, dans les environs de la ville d’Ulm, à Neuburg très exactement, Descartes passa toute la journée dans une maison d’hôte. Il allait vivre ce jour-là une révélation, nous relatons ici le fameux épisode du poêle. A cette époque, on peut préciser que les poêles de faïence allemands n’étaient pas logés dans les chambres des hôtes, mais localisés dans une pièce à part, un système de tuyauteries permettant d’alimenter en chaleur les différentes pièces de la maison. Le philosophe se retrouva ainsi dans sa chambre close, isolé, toute la journée durant, la chaleur arrivant en abondance. Selon les termes de Baillet [1] « l’enthousiasme le gagne ». Il faut préciser qu’au sens étymologique : l’enthousiasme provient d’entheos, qui renvoie à l’image des dieux ou du mystique qui viendraient s’infuser dans l’âme de l’individu. La description allégorique que Descartes en fera évoque le phénomène physique, il « sent le feu lui prendre le cerveau » [1]. Sous le coup de sentiments d’exaltation, Descartes fera cette nuit-là plusieurs rêves, dont le troisième où il lui reviendra à l’esprit un poème d’Ausone, dont il s’exclamera le titre au réveil : « Quod vitae sectabor iter ? » 8.

Analogie entre le monde extérieur et le monde intérieur, Descartes saisit une loi encore cachée de la nature, dans la plus pure tradition sensualiste qui en fait aujourd’hui dans la description de l’expérience vécue un véritable oxymore cartésien. Voilà donc un nouveau point d’inflexion de l’aventure de cette science qui n’est encore qu’un horizon lointain.

1.2.3 La chaleur

Une chose se produit, puis elle peut circuler, être stockée, avant d’être consommée. Sans doute le grand oubli de la philosophie Marxiste fut la circulation, qui peut tant influencer l’économie ou la société. L’histoire des sciences a été marquée par les questions sur l’éther, la chaleur, les atomes,... si le feu fut domestiqué il y a 350 000 ans, le concept de chaleur a suscité de multiples théories, depuis la phlogistique qui supposait que les corps émettaient de la chaleur, au calorique qui présumait que la chaleur était un fluide. C’est dans le cadre du calorique que Sadi Carnot allait développer sa théorie qui reliera production, consommation de chaleur et dynamique.

L’étude de la diffusion de la chaleur fut l’œuvre de Fourier. En 1822, il modélisa le mouvement de la chaleur, « en partant pour hypothèses que la chaleur se propage entre molécules voisines et que la vitesse de diffusion est proportionnelle à la différence de température, il déduit que la quantité de chaleur véhiculée par unité de surface et de temps (soit la densité surfacique du flux de chaleur) est proportionnelle au gradient de température » [134].

1.2.4 La thermodynamique à partir de 1824 jusqu’en 1865

Si en 1865 les grands concepts fondateurs étaient scellés, tandis que les lois de la thermodynamique attendaient une formulation, nous allons présenter les trois évènements les plus importants d’un point de vue de l’histoire des sciences qu’on identifie à trois concepts découlant de la machine de Watt :

  1. 1. Concept qualitatif de la Chaleur : La chaleur latente de transition (résolu par Black 1762).
  1. 2. Concept de classe d’équivalence : L’équivalent mécanique de la chaleur (résolu par Joule 1847).
  1. 3. Concept de modulation : Il y a impossibilité d’avoir un rendement de 100% qui est du à un effet entropique (résolu par Sadi Carnot en parti en 1824 et Clausius en 1872).

1.2.5 Concepts de base de la thermodynamique [23]

La matière se caractérise par des états qu’on appelle phases, pour lesquels elle apparaît uniforme d’un point de vue physico-chimique. On peut distinguer les états solides, liquides, gazeux, où des corps peuvent avoir plusieurs phases dans un état donné. La transition de phase est le passage d’une phase à une autre sous des conditions de pression et température données. Le diagramme des phases d’un corps permettant de se représenter les différents états de la matière en fonction des paramètres : pression, volume et température, voici ci-dessous celui de l’eau.

FIGURE 1.6 – Diagramme des phases de l’eau. [101, Wikipédia]

A De la distinction entre la chaleur et la température

Dans l’esprit cartésien, la chaleur restait du domaine des qualia 9, ce biais perceptif dans cette appréciation allait durer longtemps, même après l’expérience de Black. L’acceptation du nouveau paradigme de la chaleur par Black fut très long, il suffit, nous dit Prigogine, de toucher un morceau d’une table en bois et d’un morceau d’acier posé sur cette table pour penser qu’ils possèdent des températures différentes. Replaçons l’expérience dans son contexte historique, le jugement perceptif et en particulier le toucher permettait un mode en prise directe sur le monde. Au XVIIIº, certains savants pensant même que l’expérience visuelle n’avait pour but que de simuler le tactile [78].

L’invention du thermomètre allait donc permettre la quantification d’un indicateur de la chaleur d’un corps. On posait alors implicitement et sans le savoir l’axiome de l’équilibre thermique, à savoir que si deux corps sont en contact, à l’équilibre thermique ils auront emmagasiné (par échange) la même quantité de chaleur. Ainsi lorsqu’on met en contact un thermomètre et un corps dont on veut mesurer l’intensité de la chaleur, la colonne de mercure du thermomètre s’élevant jusqu’à un certain niveau permettra de quantifier la température du corps par rapport à un étalon. En 1762, dans son laboratoire de l’université de Glasgow, Black réalisa une expérience qui allait autoriser la distinction des notions de chaleur et de température [105]. Il plongea une livre de glace à 0°C, qui est la température de fusion de ce corps, dans 80 litres d’eau à 1ºC. Après un certain temps, le bloc de glace ayant fondu, l’eau se refroidit et quand il apparut au bout d’un moment un volume de 81 litres d’eau, la température indiqua 0°C. La perte de 1°C des 80 litres d’eau aura permis au bloc de glace d’absorber une quantité de chaleur de 80 unités, autorisant sa fonte en eau. Après avoir observé que pour la vaporisation de l’eau, le phénomène s’accompagnait d’une absorption de chaleur importante sans que la température ne monta, Black réitéra des expériences analogues sur d’autres corps et démontra l’existence d’un phénomène identique, il définit alors la chaleur latente, pour expliquer ce processus. Il en conclut qu’en communiquant de la chaleur à un corps :

  1. 1. On augmente la température du corps si le corps n’est pas dans une transition de phase,
  1. 2. Si le corps se trouve dans une transition de phase, il y aura un dégagement ou une absorption de chaleur, sans modification de la température.

En outre, il découvrit que les caractéristiques liant la quantité de chaleur échangée à la température étaient des fonctions signées par un corps donné, il en déduisit le concept de chaleur spécifique.

Définition 3. La chaleur spécifique d’un corps est la capacité calorifique d’un corps défini par le rapport : à fournir au corps considéré, pour sa température augmente d’une unité.

Il distingua de surcroît la chaleur spécifique à volume constant cv et la chaleur spécifique à pression constante cp. L’immense apport de Black à la science fut sans doute de scinder les concepts de température et chaleur. On passa d’une qualité identifiée par une quantité, à deux quantités se référant à une qualité. Si aujourd’hui la distinction des concepts de température et de quantité de chaleur est devenue assez claire dans les esprits, on peut remarquer que l’adoption de la définition de la quantité de chaleur par le système international des mesures reste relativement récente. Par ailleurs d’un point de vue épistémologique, il nous semble critiquable de la définition d’une chose à partir de son intensité. La température pouvant être perçue comme une intensité de la chaleur.

Définition 4 (Variables d’états). L’état d’un système thermodynamique est caractérisé par des variables appelées variables d’états qui sont reliés entre elles pour définir l’équation d’état du système : p=f(T,V,n).

p fait référence à la pression, V désigne le volume, T la température et n la quantité de matière (en moles).

Définition 5 (Calorie). La calorie est l’unité de la chaleur, elle permet d’élever la température de 1°C d’un gramme d’eau, entre 14.5ºC et 15.5ºC.

B Les concepts d’énergie

C’est en 1850 que Thomson introduisit le mot énergie, mais déjà en 1847 à l’époque de l’expérience de Joule, la communauté scientifique pensait pouvoir unifier les dimensions du travail et de la chaleur. En 1853, Rankine proposera alors de distinguer deux types d’énergie. Se référant en cela à la distinction Aristotélicienne entre l’energeia (l’énergie en acte) et la dynamis (en puissance). On peut remarquer que les mécaniciens Lagrange et Hamilton avaient aussi anticipé cette distinction qualitative, mais rapportée alors à la quantité en mouvement. Sans-doute le travail de Lagrange a pu aider les thermodynamiciens à s’inspirer de cette dichotomie. Ce sera en 1867 que Thomson et Tait poseront le principe de conservation de l’énergie dans un ouvrage qui allait devenir une référence : « Treatise on natural philosophy ». La conservation de l’énergie dans un système isolé devenait le premier principe de la thermodynamique, bien qu’il ne fut formulé définitivement qu’une quinzaine d’années après le principe de Clausius. Mentionnons, qu’on retrouve une expression de ce principe dans un mémoire de Helmholtz écrit en 1847 : « Sur la conservation de la force », mais exprimée avec la notion de force.

B.1 L’énergie cinétique L’énergie cinétique est celle qui se rapporte à la grandeur en mouvement, on est dans le schéma direct où la cause finale est imposée par la cause efficiente qui procure le mouvement, elle peut se relier aisément à la notion de quantité de mouvement qui est bien connue. Le concept central de la physique jusqu’en 1840 étant celui de force, on utilisa longtemps la notion de force vive : « vis viva » pour la distinguer de l’autre catégorie de force.

B.2 L’énergie potentielle Rankine attribuera l’origine de cette forme d’énergie nouvelle à Lazare Carnot, qui mettra sur la scène des concepts physiques la notion de « force vive virtuelle ». Aussi Rankine posera la définition suivante « l’énergie potentielle est la faculté que recèlent des agencements à produire un travail ». On retrouve là une définition qui pointe vers l’inconnu ou tout au moins ce qui est en sommeil et non pas une définition synonyme ou un alias vers ce qui existe déjà. On peut donc dire qu’il met en lumière l’invisible présence dans un acte qui se révélera extrêmement fructueux. En 1855, Helmoltz proposera une définition plus acceptable par rapport à notre terminologie : « L’énergie d’un système matériel au repos, qui peut permettre d’entrer en mouvement se nomme énergie potentielle ».

C La thermodynamique au siècle de l’énergie

Le XX° siècle est souvent considéré comme le siècle de la maîtrise de l’énergie, que ce soit dans la production, le transport, ou la consommation. L’exploitation de l’énergie nucléaire est apparue comme une des plus grandes conquêtes de l’homme, bien qu’elle fut aussi très meurtrière.

Gaz Formule Volume (%) Masse(%)
Diazote N2 78,08 75,53
Oxygène O2 20,95 23,14
Argon Ar 0,93 1,28
Dioxyde de Carbone CO2 0,31 0,047
Gaz rares N/A 0,01 0,01

FIGURE 1.7 – La composition de l’air au niveau de la mer [24].

C.1 La matière aujourd’hui A l’aube du siècle dernier : Planck découvrit la courbe de densité du rayonnement d’un corps noir (1901), Einstein publia ses expériences sur les grains de lumières (1905), et Jean Perrin apporta la preuve de l’existence des molécules (1906). Tout au long du XX° siècle on assista à une domestication progressive de l’infiniment petit. Aujourd’hui, on peut affirmer que 1 cm3 d’air est composé de 10192