Articles

Dieu Et La Science

Mystique matérialiste et indéterminisme métaphysique (2/3)

Print Friendly

Frédéric Villaret, docteur en sciences. Spécialité : ingénierie écologique des écosystèmes artificiels

♦ La Modernité à l’origine de la mondialisation actuelle repose, entre autres, sur une Mystique matérialiste animant sa composante noosphérique. Cette Mystique matérialiste est alimentée par la science moderne née il y a cinq siècles. Or, l’indéterminisme métaphysique s’imposant dans cette science moderne au cours du XXe siècle fragilise cette mystique matérialiste. Cette Modernité, dont le Mondialisme cosmopolite est une des conséquences, va-t-elle alors s’effondrer, elle aussi, laissant la place à d’autres perspectives politiques ?

Cet exposé philosophique est présenté ci-après sous la forme de trois volets successifs.


2/3

IV/VIII – La Mystique matérialiste en très bref…

Comprendre la mystique matérialiste animant la Modernité aujourd’hui impose de saisir dans quel contexte elle s’est imposée. La réponse est limpide : elle prolonge une posture religieuse marquant pour les préhistoriens la naissance de l’Homme. Explication :

  • Du Dieu unique à la science moderne

Le fait religieux est pour les préhistoriens une des marques du passage de l’état naturel absolu à l’état humain. Rites funéraires, iconographie, holocauste et toutes pratiques sans conséquences utilitaires concrètes ont comme vocation de bénéficier de la protection de forces surnaturelles auxquelles les pratiquants croient et se soumettent. Un balayage rapide de ces époques montre que celles-ci s’organisent dans quatre espaces éligibles à une représentation graphique en deux dimensions. Leur positionnement s’opère alors à partir de deux axes : le premier associe des approches matérialistes et immatérialistes ; le second, le monothéisme et le polythéisme.

Ainsi, le panthéon grec était par nature polythéiste immatériel. La religion des Saxons centrée sur le frêne Irminsul était un monothéisme matérialiste. Il fut abattu en 772 par Charlemagne imposant le christianisme à la Saxe païenne. D’autres croyances s’organisaient dans un polythéisme matérialiste fondé sur des éléments naturels (arbre, rivière, montagne, etc.) ou des artefacts (statues, emblèmes, etc.). Tout cela avait comme vocation de soutenir l’action des croyants mais aussi de leur proposer quelques solutions mystiques fournissant un éclairage sur le Cosmos. C’est dans ce contexte qu’apparaît le monothéisme immatériel cristallisé par un Dieu unique porté par la Bible et dont le succès éliminera toutes les antiques approches.

La philosophie naît simultanément avec le monothéisme immatériel. Mais alors que ce dernier invoque un principe extérieur pour donner du sens au Réel, perçu ou non, la philosophie refuse les béquilles fournies par la religion pour développer une approche autonome. De là naîtra la science dont Laplace dira qu’elle n’a pas besoin de l’hypothèse Dieu.

Tout cela a vocation à soutenir individuellement et collectivement nos pratiques sociales et cognitives. Comme le résumait le célèbre philosophe Pierre Thuillier, la Science sert à la fois à fabriquer des fusées et à répondre aux grandes questions métaphysiques. Karl Popper, lui, établissait que le fondement de toute connaissance scientifique était sa réfutabilité, et que ce qui n’était pas réfutable n’était pas scientifique. Or, la religion en se référant à des présupposés irréfutables car fondés sur la croyance, ne peut avoir le statut de connaissance. Traquer la profession de foi est donc l’essence de la posture scientifique fondée sur la Raison en opposition à une posture religieuse élaborée sur la Foi. Mais comme nous le verrons plus loin, cette dichotomie connue est maintenant plus que fragilisée.

Les spécialistes nous enseignent ainsi que cette science est devenue moderne en rompant avec l’approche aristotélicienne dominant le « Moyen Age ». Son espace de prédilection est le monde cosmique visible. La physique mathématique d’essence mécaniste va participer à l’élaboration du paradigme cognitif dominant notre monde moderne. Comme déjà évoqué, il repose sur les composantes suivantes : déterminisme, causalité, non-contradiction, espace absolu, temps chronologique, etc. En résumé, le monde est ordonné. Cet ordre est l’expression de la perfection voulue par un Dieu, lui aussi parfait. La vocation de toutes les idéologies d’essence biblique est donc de créer ce monde parfait sur terre, du judaïsme à l’islam, du capitalisme au socialisme. Du passé, donc, faisons table rase.

Préciser les fondements de cette mystique matérialiste imposerait d’écrire un ou plusieurs gros livres étayés par une multitude de références. Pas le temps… Peut-être plus tard… Mais, compte tenu de l’évidence de cette posture animant la majorité de nos contemporains, il est facile d’en résumer l’esprit en quelques lignes, surtout que l’idée est toute simple. La mystique matérialiste est alors envisagée comme le socle ontologique animant notre temps et reposant sur un réductionnisme matérialiste animant et animé par le paradigme classique. Le Réel y est alors conçu comme un ensemble d’entités objectives matérielles ou immatérielles en relation les unes aux autres. Une des caractéristiques de la Modernité, accusée d’être à l’origine de la crise écologique, est de développer et d’entretenir cette mystique matérialiste, répondant tout à la fois à nos aspirations ontologiques et fournissant les instruments via la techno-science permettant d’artificialiser les écosystèmes et donc de survivre, hier, de polluer, aujourd’hui. Relevons, pour conforter cette évidence, que l’équivalent de la population du Danemark a aujourd’hui dans le monde un statut de chercheur professionnel. Ils ont remplacé les moines des monastères d’antan…

Bon, c’est un peu court, certes, mais l’idée est là. On n’a pas besoin de plus pour aller plus loin. Si l’occasion se présente, on développera sur le thème de la mystique matérialiste. Force est d’admettre maintenant qu’elle est en fin de vie. L’indéterminisme métaphysique la tue.

V/VIII – La fragilisation du paradigme classique

Après un XIXe siècle résolument scientiste, la Science du XXe siècle a généré un indéterminisme métaphysique fragilisant ses ambitions ontologiques. Explication :

De nombreuses illustrations de la montée de l’indéterminisme métaphysique dans les sciences sont accessibles dans la littérature. Présentement, on se concentrera sur la dynamique des trois corps, le principe d’incertitude en physique quantique aboutissant à une controverse célèbre autour du paradoxe EPR [Einstein, Podolsky, Rosen], pour finir par l’effet paradoxal de l’entropie en thermodynamique.

  • Les trois corps

L’ambition ultime de la science est de prévoir. La référence ultime de cette posture est la Mécanique dont l’objet d’étude initial fut le mouvement des orbes (2). Ainsi, une des problématiques de la physique mathématique d’essence mécaniste fut l’intégration des systèmes planétaires à trois corps et plus. En effet, la science avait réussi à prévoir la dynamique des systèmes à deux corps – non soumis à des frottements –, puis a achoppé à faire de même pour les systèmes à n+2 composantes.

Alors qu’il était une des figures majeures de la pensée scientifique de son temps, allant même jusqu’à masquer des résultats contrevenant aux dogmes de la science classique (l’épistémologue Gerald Holton l’envisage comme le fondateur de la relativité restreinte, le jeune Einstein n’ayant pas eu les pudeurs de son aîné), Henri Poincaré fut un des premiers savants à identifier une ignorance consubstantielle à une réalité, en démontrant – pour résumer – que le problème de l’intégration des systèmes dynamiques à trois corps n’a pas de solution. Les équations de la Mécanique appliquée à trois corps conduisent à une équation différentielle impossible à résoudre. Pour les exégètes de son œuvre, il met fin ainsi au mythe d’un univers déterministe. Depuis, on sait que les planètes changent d’orbites.

Simultanément, les physiciens mesurèrent la portée des nouvelles approches imposées par l’étude de l’infiniment petit à l’origine de la physique quantique. Le paroxysme de cette démarche est atteint avec le principe d’incertitude de Heisenberg établissant qu « Il est impossible de connaître simultanément la position exacte et la vitesse exacte d’une particule ». Albert Einstein, alors âgé de 56 ans, s’opposa à cette conception incomplète de la réalité à travers ce qui est devenu depuis le « paradoxe EPR ».

  • Le paradoxe EPR (Einstein, Podolsky, Rosen)

En 1935, Albert Einstein, Boris Podolsky et Nathan Rosen publient un article présentant ce qu’on nomme désormais le « paradoxe EPR » contestant l’incomplétude de la vision quantique portée par Niels Bohr au motif qu’un mécanisme quelconque assurant le fonctionnement de l’Univers existe vraiment indépendamment de l’incertitude et de l’imprévisibilité admises au niveau quantique. Il existerait donc une réalité objective, même au niveau des particules élémentaires dont la quantité de mouvement et la position sont potentiellement définissables, même quand elles ne sont pas observables.

Ce faisant, ces auteurs prolongeaient l’espérance inscrite dans le paradigme laplacien postulant que l’ignorance n’est que le constat d’une impossibilité et non une variable ontologique. Ainsi, cette citation célèbre est-elle associée à Laplace : « Si nous attribuons les phénomènes inexpliqués au hasard, ce n’est que par des lacunes de notre connaissance. » Depuis, ces controverses ont suscité des milliers de pages opposant d’un côté les tenants du paradigme classique aux « réservés »…

Ainsi, Bernard d’Espagnat, récemment parti vers d’autres cieux, a contribué à éclaircir les enjeux théoriques des expériences d’Alain Aspect sur le paradoxe EPR en concluant que des phénomènes réels existent indépendamment de notre capacité à les observer ou non. De Laplace à d’Espagnat, le postulat fondateur est toujours le même : le monde existe indépendamment de l’esprit humain. Or, s’il existe, il est connaissable, et donc prévisible. Toutefois, les succès de la mécanique quantique ont engendré un indéterminisme métaphysique contrevenant aux postulats fondamentaux du paradigme classique porté par les auteurs précités.

Branche, hélas, marginale de la Physique, la Thermodynamique va s’insérer dans ces controverses en démontrant la dimension paradoxale de l’entropie avec comme conclusion philosophique que le prix à payer pour garantir le Devenir est une incertitude irréductible sur l’Etre.

VI/VIII – Structure dissipative et rôle paradoxal de l’entropie

Pourquoi écrire à nouveau sur l’entropie alors que Polémia a déjà évoqué dans de nombreux articles cette variable d’état de la thermodynamique pour nourrir la réflexion métapolitique ? Notre réponse est que l’entropie impose de s’interroger sur le désordre dans la dynamique écosystémique, alors que la physique classique ne le reconnaît pas en tant que tel. Chaque paradigme cognitif supporte alors un paradigme politique spécifique. Explication :

  • Sur la signification du traitement des appoggiatures dans le style baroque

Dans l’esprit classique, le désordre est une incongruité, masquant l’ordre immanent à la Physis, alors même qu’il est désormais envisagé comme une composante irréductible. Ainsi, le chaos est consubstantiel et nécessaire à l’Etre.

Pour préciser ce point et montrer que la posture classique est récente – un peu plus de deux siècles –, une référence au solfège nous permettra d’entrevoir l’essence de l’esprit classique. Il s’agit du traitement des appoggiatures. Ainsi, en musique dite classique, donc de la fin du Baroque avec la mort de Bach (1685-1750) jusqu’au Romantisme du début du XIXe siècle comme Chopin, la petite note, l’appoggiature, est externalisée de la note, donc en dehors du temps d’apparition de celle-ci. Si la petite note est associée à une « noire », par exemple, elle sera jouée avant le temps de cette noire. Au contraire, dans la musique baroque, la petite note est intégrée au temps de la note à laquelle elle est associée. Ainsi, la même figure – petite note/noire – sera jouée différemment dans un texte baroque ou dans un texte classique.

Que signifie cette différence pour saisir l’esprit animant l’esprit baroque, d’un côté, et classique, de l’autre ?

Simplement que pour un esprit baroque l’anomalie est intégrée à la structure alors que pour un « classique » elle est séparée de cette structure. Laplace, né quand Bach décédait, publie pendant l’époque classique. Le désordre, l’incongruité, le chaos, etc., n’y sont pas envisagés de la même manière qu’auparavant.

La Thermodynamique est la discipline s’étant particulièrement intéressée à ceci alors que la Mécanique l’ignorait. L’histoire de la Thermodynamique aboutit à la notion d’entropie après avoir qualifié cette « réalité » de calorique, de chaleur, avec comme point d’orgue le Second principe de la Thermodynamique établissant que l’entropie ne peut que croître. L’entropie, concept un peu abscons, a été assimilée au désordre dans des propos plus accessibles ; donc le désordre ne peut que croître. Or, le constat est que la complexification des formes du vivant est incontestable. Le mammifère est plus complexe que le procaryote ; les sociétés d’hominidés sont plus complexes que les sociétés d’autres primates, etc. Les sociétés européennes étaient plus civilisées, donc plus « complexes » car plus artificialisées, que les sociétés primitives d’ailleurs. Nous entendons « complexes » comme une variable d’état caractérisant les systèmes biotiques ou abiotiques.

Les savants eurent à résoudre ce paradoxe car les deux assertions étaient simultanément vraies et démontrées. Comment le Second principe est-il compatible avec le constat de la complexification des manifestations du vivant des procaryotes aux sociétés humaines ultra-artificialisées, donc à haut niveau de complexité ? Ainsi fut distinguée la Thermodynamique d’équilibre – celle enseignée à ce jour – de la Thermodynamique du non-équilibre, assez confidentielle, hélas ! Le recours à la variable entropie permet alors de séparer ces deux espaces. En situation d’équilibre, l’entropie tend vers un maximum conformément au Second principe, mais la production d’entropie, elle, tend vers zéro alors que dans les situations de non-équilibre c’est l’inverse : la production d’entropie augmente (grandeur vectorielle), mais l’entropie du système (grandeur scalaire) diminue. Cela permet alors de le distinguer du Milieu dans lequel il évolue. La Thermodynamique du non-équilibre s’intéresse donc aux situations où l’entropie du système considéré est plus faible que l’entropie du milieu dans lequel il s’inscrit. Il en est ainsi d’un tourbillon, par exemple, ou d’un organisme vivant, que ce soit un individu ou un écosystème. Ilya Prigogine a qualifié ces phénomènes de structures dissipatives. Ces structures se maintiennent en non-équilibre thermodynamique et pérennisent leur existence en dissipant simultanément des flux d’énergie, de matière et d’informations – Erwin Schrödinger les avait qualifiés de flux néguentropiques (1944), Qu’est-ce que la vie ?) – tout en produisant de l’entropie.

Cette dernière, qualifiée d’entropie réversible (dSe) car exportable en dehors du système, est le pendant de l’entropie irréversible (*) (dSi) intégrée au système et dont la croissance, donc irréversible, le conduit à sa fin. Cette distinction est formalisée par l’équation du bilan entropique : dS = dSe + dSi ; dSi ≥ 0.

  • L’équation du bilan entropique au service de la métapolitique

Ces travaux ont permis de construire de nouveaux discours – assez confidentiels encore – pour éclairer des phénomènes socio-politiques qui jusqu’alors se construisaient dans un paradigme classique dont on sait maintenant qu’il fut élaboré à partir de situations d’équilibre thermodynamique. Or, tout ce qui intéresse la politique porte sur des situations de non-équilibre. La conséquence la plus évidente est que tout notre paradigme politique aspire à l’ordre social alors qu’en situation de non-équilibre, c’est une dialectique ordre-désordre qui anime nos pratiques sociales, individuelles ou collectives. Le désordre entropique apparaît alors comme une composante essentielle de la dynamique écosystémique, mais ce désordre a une dimension paradoxale dans la mesure où il conduit à la « mort thermique », c’est-à-dire la mort tout court à l’échelle individuelle ou collective. Paradoxalement, il permet aussi d’explorer des configurations écosystémiques qui ne l’auraient pas été en situation figée. La Thermodynamique explique pourquoi.

Schématiquement les fluctuations thermodynamiques générées par la composante entropique des systèmes dissipatifs participent à l’exploration de l’espace des phases, c’est–à-dire optimisent la configuration et le positionnement du système au regard des modifications du Milieu dans lequel il s’insère par la déstabilisation récurrente de celui-ci. L’entropie a donc un effet paradoxal dans la mesure où elle permet au système de s’adapter tout en le condamnant à sa disparition conformément au Second principe. Comme cette entropie est loin d’être éligible à l’orthodoxie scientifique, ce genre de discours n’a pas encore le statut de scientifique et est encore relégué dans l’espace philosophique. En effet, l’entropie par nature immatérielle ne se définit pas, ne se mesure pas : elle « s’intuitionne » ; ceci depuis deux siècles. On attribue sa formalisation à Sadi Carnot, contemporain de Simon de Laplace. Donc y recourir ne fait pas très sérieux chez nous.

Pour l’anecdote, alors qu’Ilya Prigogine s’était vu refuser un doctorat honoris causa de l’Université Paris 7, il avait obtenu un Prix Nobel pour ses travaux l’année suivante en 1977, notamment pour son théorème de production minimum d’entropie, qualifié aussi de théorème de Prigogine-Glansdorff. Difficile de créer des discours innovants dans un pays ayant tant contribué à forger le paradigme classique. Pourtant Laplace et Carnot coexistèrent.

Mais alors que la vision de Laplace s’était développée sur le fondement de l’étude de systèmes en équilibre thermodynamique, elle s’est étendue aux systèmes en non-équilbre thermodynamique, c’est-à-dire à ceux contrariant temporairement les conséquences du Second principe de la thermodynamique en dissipant des flux néguentropiques et produisant de l’entropie. Or, les écosystèmes et ce qui participe à leur dynamique, sont des systèmes en non-équilibre. Pourtant, ce sont les visions développées pour des systèmes en équilibre que l’on utilise pour en décrypter le fonctionnement ; d’où un paradoxe culminant par exemple dans l’économie. Un auteur comme Georgescu-Roegen (1906-1994), mathématicien de formation, a construit son œuvre sur le constat de ce paradoxe. Et encore, il n’était sans doute pas au courant de tous les apports de la thermodynamique, fondant ses travaux sur la seule thermodynamique d’équilibre l’obligeant à formuler un troisième principe pour lever les incohérences rencontrées en ne recourant qu’aux deux premiers. Pourtant, ses analyses étaient plus que justifiées malgré sa méconnaissance des contributions de l’Ecole de Bruxelles dirigée par Ilya Prigogine.

Ainsi, le parti pris de ces lignes est que demain cette thermodynamique du non-équilibre et notamment l’équation du bilan anthropique seront la référence d’un paradigme écosystémique en devenir, à l’instar de ce qu’aura été la loi de gravitation universelle dans le paradigme classique, ceci dans l’espace macroscopique, c’est-à-dire celui accessible à nos sens : le monde dans lequel on vit… Mais, pour le moment, enseigner une Ecologie nourrie de sociobiologie et de thermodynamique du non-équilibre fragiliserait le paradigme métapolitique dominant, dont la mondialisation cosmopolite est la conséquence ; donc rien n’est fait dans ce sens…

Frédéric Villaret
Mai 2017

A suivre

(*) embedded entropy : difficile à traduire en français…, consubstantiel, peut-être !

Correspondance Polémia – 24/05/2017

Image : Dieu et la science (source : Science et vie)

Frédéric Villaret

Docteur en sciences. Spécialité: ingénierie écologique des écosystèmes artificiels. Chef d'entreprise et enseignant-chercheur indépendant, il se consacre désormais à proposer une interprétation écologique des enjeux politiques contemporains, notamment pour la fondation Polémia.

Les derniers articles par Frédéric Villaret (tout voir)