Tisserand de la compréhension du devenir
Conférencier, expert et auteur

Quanticité.

Pour mettre de l'ordre dans nos idées concernant la physique quantique.

La sphère quantique commence avec l'apparition des premiers "grumeaux" de protomatière et s'achève, pratiquement avec les premiers gros conglomérats d'atomes sous forme moléculaire ou cristalline.

Cette sphère est tellement éloignées des échelles humaines, que son étude est forcément plus phénoménologique qu'ontologique ce qui entache toute observation - toujours très indirecte et très amplifiée - d'une dimension statistique et probabiliste. Nous sommes là hors échelle humaine comme nous le sommes dans le gigascopique au-dessus de l'échelon des galaxies.

 

La sphère quantique n'est forcément ni atomistique (particulaire au sens strict du terme, malgré les abus de langage lorsque l'on parle des "particules" élémentaires qui ne sont ni des particules, ni élémentaires), ni mécanistique, ni assembliste, ni déterministe, ni réductionniste, ni analytique, etc …

La physique quantique étudie un autre monde, étranger à la Matière au sens humain et mésoscopique : elle étudie un autre monde à cheval sur celui de la protomatière (la physique et le "modèle standard" des "particules élémentaires") et celui de la matière élémentaire (la physique et les modèles nucléaires, atomiques et moléculaires).

 

 Au-delà de ce monde quantique nanoscopique, on rentre dans le monde matériel gravifique que nous allons étudier dans le chapitre suivant qui, lui-même, débouche sur le monde hylétique du modèle standard relativiste où s'installent l'astrophysique et la cosmologie, et où, comme dans le monde nanoscopique, ont atteint les limites de l'expérimentabilité humaine : l'empirie s'y affaiblit pour disparaître et la connaissance doit y progresser par d'autres voies que la dialectique classique entre théorie et empirie, entre modélisation et expérimentation.

 

Trop caricaturalement dit, la quanticité réduirait la réalité du Réel à un jeu aveugle de probabilités dont le hasard serait le chef d'orchestre et dont les formalismes mathématiques seraient la clé (la dualité onde-corpuscule qui exprime la confusion entre le domaine topologique et le domaine eidétique).

 

Toutes les théories quantiques émanent d'un constat simple : la structure interne d'un atome, quel qu'il soit, ne possède qu'un nombre limité et discret d'états possibles. Cela implique que les émissions ou absorptions d'énergie composent un spectre discontinu de raies séparées les unes des autres, les autres émissions ou absorptions étant exclues (le plus petit "saut" d'état possible étant le quantum d'action de Planck).

Cela signifie simplement que l'équation d'état global d'un atome à l'équilibre (l'équation de Schrödinger ou l'équation de Dirac, par exemple) ne possède qu'un nombre fini de solutions possibles (comme le trinôme du second degré ne possède que deux solutions à l'exclusion de toute autre).

On en a fait tout une "révolution" conceptuelle et physique, alors qu'il n'y avait franchement pas de quoi fouetter un chat.

 

Rien de plus banal que de prétendre qu'un système complexe ne possède qu'un nombre fini et discret de structures distinctes d'équilibre : cela est vrai pour le protéus, pour tous les atomes, pour toutes les molécules, pour tous les cristaux (toutes les mailles élémentaires ne sont pas compatibles avec la réalité des éléments constitutifs du réseau), etc …

 

Même au plan humain, tous les profils, tous les comportements, toutes les opinions, etc … ne sont ni en spectre continu, ni en nombre infini, ni équiprobable.

Cela signifie donc, qu'entre systèmes complexes, les changements d'état et les échanges, de quelque nature qu'ils soient, se font toujours par "paquets" discrets, par "sauts", etc …

Les évolutions "continues", sans "sauts" quantiques, n'existent que dans le cas des équations linéaires décrivant les systèmes mécaniques rudimentaires ; dès que la non-linéarité, liée à la complexité, s'impose, la quantisation des états d'équilibre s'installe pour de bon.

 

La formalisation quantique repose sur deux piliers historiques :

 

  • Le fait que dans un atome, les nuages électroniques ne peuvent occuper que certains niveaux possibles, tous les autres étant exclus (comme une équation polynomiale a plusieurs solutions possibles, bien définies) et que, pour passer d'un niveau à un autre, il faut absorber ou émettre une quantité bien précise (un quantum) d'énergie.
  • Le fait que la lumière (qui est une onde prématérielle, non soumise aux interactions matérielles) se montre, aux observations de l'humain, tantôt sous forme corpusculaire (le photon), tantôt sous forme ondulatoire.

 

Ces deux faits ont fait l'objet d'une extrapolation (généralisation) abusive à toutes les entités nanoscopiques et ont induit une mathématisation fantasmagorique de toute la physique.

Il ne faudrait pas que la théorie quantique qui est purement phénoménologique, n'engendre que des entités mathématiques à qui l'on peut faire dire n'importe quoi.

Le modèle standard quantique des "particules" a, sans doute, été une parenthèse nécessaire dans l'histoire de la physique, mais il n'implique nullement que l'on ne puisse pas aller beaucoup plus loin du point de vue d'une ontologie physique et cosmologique.

 

Le formalisme quantique a permis de souligner une évidence pourtant négligée jusque là : toute mesure sur un système est une interaction avec lui et en perturbe l'évolution.

Mesurer une caractéristique de quelque chose, a deux conséquences : ce "quelque chose" n'évoluera plus selon sa trajectoire d'état antérieure et cette mesure rendra impossible la mesure d'autres caractéristiques corrélées avec la première (c'est là le fondement des relations d'incertitude ou d'imprédictibilité ou d'indétermination d'Heisenberg : si on mesure précisément la position ou l'énergie, on ne peut plus mesurer la vitesse ou la durée : le produit des erreurs de mesure sur deux caractéristiques complémentaires, est toujours supérieur à une constante, donc si l'on veut une erreur nulle sur une des mesures, l'erreur sur l'autre doit être infinie – encore une fois, cette indétermination n'est pas propre aux systèmes quantiques, mais bien universelle … quoique passant quasi inaperçue pour les systèmes macroscopiques).

 

Mais il faut prendre garde à ne pas tomber dans un piège où bon nombre de quanticiens se sont enlisés : confondre la réalité et sa mesure.

Tant que l'on ne mesure rien, l'état d'une entité est ce qu'il est, parfaitement défini dans l'espace des états même s'il est inconnu. En revanche, l'indétermination apparaît dès que l'on pratique une mesure quelconque du fait de la perturbation impliquée par ladite mesure.

Il n'y a pas d'indétermination en-soi, mais bien pour-soi.

 

Ce que l'on nomme à tort la "mécanique" quantique ou la "théorie" quantique, n'est qu'un formalisme mathématique particulier qui tente de représenter, décrire et modéliser des phénomènes nanoscopiques qui n'entrent pas du tout dans le moule de la mécanique classique dont la cosmologie se résume à calculer des trajectoires et des assemblages de "briques" dans l'espace-temps.

Dès lors que l'approche proprement mécaniciste ne fonctionne plus à ces petites échelles, on a tenté de se rattraper avec des fonctions probabilistes dont l'effet est de masquer l'impéritie de la vision mécaniciste faite d'objets discernables (particules, atomes, molécules, cristaux, etc …), interagissant par des forces à distance ou de contact, dans de l'espace géométrique et du temps linéaire, pour s'y assembler comme on assemble et lie des pierres dans un édifice architectural.

 

Ce que l'on appelle la "théorie quantique", n'est pas une théorie (elle n'explique rien, mais décrit des phénomènes observables) ; elle est un formalisme qui exprime nos inconnaissances à propos des mondes prématériel et protomatériel.

Des concepts et paramètres s'y inventent à foison afin de permettre de prédire et de vérifier des résultats expérimentaux adhoc avec le risque d'une incroyable boucle autoréférente.

En forçant le trait, disons ceci : j'invente un formalisme bourré d'une kyrielle de paramètres artificiels pour prédire les résultats d'une expérimentation conçue en fonction de ce modèle même et dont je veux prouver la pertinence, et ensuite, j'ajuste ma kyrielle de paramètres (dont la plupart ne servent à rien, mais on ne sait jamais) de façon à ce que ce calcul a posteriori colle bien avec les résultats expérimentaux. Et le tour est jouer.

Ce type de théorie, quantique ou pas, n'est donc qu'un formalisme artificiel qui ne prouve qu'une seule chose : l'univers prématériel fonctionne selon une logicité propre qui n'est jamais réductible à la logicité mécaniciste qui a cours dans l'univers matériel qui est issu de lui : les notions de particules, d'ondes, de forces, de positions, de durée, etc … n'y ont aucun sens.

Tout doit y être revisité de fond en comble : la physique théorique, au niveau nanométrique, doit connaître une révolution culturelle d'une ampleur au moins aussi violente et colossale que la physique gigamétrique en a connu une avec la relativité générale.

Un arbre qui pousse, peut-il comprendre quoique ce soit à la géologie des sols qui le nourrissent, s'il reste coincé, dans sa réflexion et dans son étude, au niveau des lois biologiques de la flore ?

Ce que l'on appelle le "modèle standard des particules élémentaires" n'est qu'un vaste stratagème artificiel mathématique d'essence purement (néo)platonicienne, ayant complètement perdu le contact avec la réalité du Réel.

Une manière d'inventer plein de particules et de propriétés pour résoudre des problèmes qui ne se posent pas, et dont la vérification se pose au-delà des limites de l'expérimentable.

 

Quelques réflexions complémentaires sur la quanticité …

 

Toute une panoplie d'interprétation du formalisme quantique (dont la "théorie" des mondes multiples d'Everett) repose sur la confusion notoire entre "état réel" du système concerné et son "état mesuré".

Ce n'est pas l'état réel du système qui est sujet à des probabilités et à de l'incertitude (ou de l'indétermination) au sens de Heisenberg, mais bien la mesure de cet état dans le cadre d 'une expérience humaine qui interfère avec lui et modifie cet état.

Toute mesure perturbe le système mesuré et le fait sortir de sa trajectoire "naturelle" ; c'est un fait. Et plus le système concerné est petit et léger (un électron par rapport à un éléphant), plus cet impact de la "mesure" sera colossal sur son évolution.

 

Par exemple, mesurer la position d'un "objet" peut consister à envoyer vers lui un rayon lumineux dont la réflexion sera captée et interprétée (c'est ce que nos yeux font à longueur de temps) ; l'impact du rayon lumineux sur la vie future de l'éléphant sera négligeable, mais ce même rayon enverra l'électron visé au diable Vauvert avec une vitesse n'ayant plus rien à voir avec sa vitesse avant la mesure.

D'où, pour les "objets" nanoscopiques, le principe d'incertitude ou d'indétermination de Heisenberg qui dit simplement ceci : il existe, pour chaque "objet" des couples de caractéristiques dont la mesure précise conjointe est impossible (par exemple, la position et la vitesse : si l'on mesure précisément la position d'un électron, sa vitesse est tellement perturbée par cette mesure même que l'on ne peut plus rien en dire).

 

On l'a compris, toute cette problématique quantique repose sur la distinction entre "état réel" et "état mesuré".

Et cette problématique prend un autre tour dès lors qu'en bon phénoménologiste, on postule que la notion d'un "état réel" n'existe pas et qu'il n'existe d'état que "mesuré". Autrement dit, ce serait la mesure qui "créerait" la réalité.

 

C'est toute la problématique emblématique du "chat de Schrödinger"^: un chat est enfermé dans une boîte fermée et opaque en compagnie d'une dose de poison. La chat va-t-il, ou pas, manger le poison et mourir ? Avant d'ouvrir la boîte pour faire le constat qui est la "mesure" de l'état réel du chat, celui-ci a, mettons, une chance sur deux d'être vivant (il n'a pas pris le poison) et une chance sur deux d'être mort (il l'a pris). D'où l'introduction de probabilité. Mais dès que l'on ouvre la boîte, on constatera que le chat est soit dans un état "vivant", soit dans état "mort" (c'est la notion quantique de réduction du paquet d'onde) … et la notion de probabilité s'évanouit.

Dans ce cas, la "réalité" a-posteriori triomphe de la "probabilité" a-priori.

 

Hugh Everett va plus loin en refusant le principe de réduction du paquet d'onde : il affirme la persistance, même après mesure, des deux scénarii et, pour cela, il fait l'hypothèse du dédoublement de l'univers entier, le premier (celui découvert par cette "mesure" qu'est l'ouverture de la boîte) où le chat est, disons, mort, et le second où le chat continuerait d'être vivant.

Selon Everett (dont l'approche repose intégralement sur une théorie de la fonction d'onde, dans le sens de l'équation de Schrödinger), "l'univers se trouve ramifié en une superposition d'un nombre prodigieusement grand voire infini de mondes séparés". D'où la dénomination de "théorie" des mondes multiples ou de la multiplicité du monde (Thibault Damour).

 

Dans cette vision, tous les états possibles d'un système coexistent et continueront d'exister pour l'éternité ; mais le fait de faire une mesure à un moment donné, fera que le système et son observateur se placeront dans un de ces multiples mondes possibles, les autres continuant leur vie comme si de rien n'était.

 

On peut relever (et bien d'autres l'on fait avant moi) de nombreux biais cognitifs dans cette "théorie" des mondes multiples outre le fait de la confusion initiale entre "état réel" et "état mesuré", propre à la phénoménologie quantique.

Un de ceux-là vient de l'idée qu'il faut traiter l'univers gigascopique comme un objet quantique et faire concorder son évolution avec l'équation de Schrödinger. Cette idée est absurde puisque la quanticité exprimée par l'équation de Schrödinger n'est qu'un formalisme phénoménologique, applicable seulement dans le domaine nanoscopique de la protomatière et de la matière primitive (protéus, atomes et molécules). Au-delà, ce formalisme artificiel visant à contourner la "non-mesurabilité" des phénomènes infimes, n'a plus de sens. Répétons-le : la quanticité n'existe que là où l'interaction de mesure perturbe complètement et radicalement l'état réel du système mesuré ; là où cette perturbation est négligeable, la quanticité n'existe plus si ce n'est à la marge la plus marginale.

 

Il semble que toute la confusion naisse de la mécompréhension de l'acte de "mesure".

Avant toute "mesure", il y a le système observé dans son état réel et le système observateur dans son état réel. Le processus de "mesure" va impliquer une interaction majeure entre ces deux systèmes qui, tous deux, en verront leur trajectoire "naturelle" originaire (dans l'espace des états) complètement changée :

 

  • le système observé aura été perturbé plus ou moins grandement par la "mesure" (cfr. l'exemple de la "mesure" de la position et de la vitesse de l'électron, comme déjà mentionné)
  • et le système observateur aussi puisqu'il saura désormais des choses, peut-être essentielles, qu'il ne savait pas avant la mesure et qui, peut-être, changeront complètement sa vie.

 

Toute mesure est une interaction entre différentes systèmes ; cette interaction change parfois radicalement la trajectoire de chacun de ces systèmes dans l'espace des états. Cela ne signifie nullement que chacun de ces systèmes ne suive pas une et une seule trajectoire dans cet espace des états, quelles que soient les perturbations, transformations ou bifurcations que ces interactions lui imposent.

 

Pour le dire autrement et succinctement : tout système réel possède une et une seule trajectoire dans l'espace des états, mais cette trajectoire est bien souvent imprévisible du fait des incessantes interactions entre ce système et tout le reste de l'univers qui interfère constamment avec lui.

Et plus ce système est complexe et plus ses interactions avec le reste de l'univers sont complexes, plus cette trajectoire d'état devient notoirement imprévisible, même statistiquement.

La seule certitude est que la trajectoire choisie sera celle qui sera la plus favorable à l'Intention cosmique et qui dissipera, au mieux, le plus grand nombre des tensions que ces interactions imposent au système considéré.

 

*

 

Le vrai problème posé par le formalisme quantique n'est pas tant celui du non-déterminisme exprimé par cette expérience de pensée (un peu loufoque) du "chat de Schrödinger", que celui de la dualité "onde-corpuscule". Un corpuscule est un être topologique, localisable dans l'espace-temps, alors qu'une onde est un être dynamique, non localisable.

Le vrai défi de la quanticité est de dépasser le paradoxe de cette dualité entre le topologique et le dynamique en intégrant le troisième regard : celui de l'eidétique.

La prépondérance circonstancielle d'un comportement corpusculaire ou d'un comportement ondulatoire vise à correspondre, au mieux, aux exigences eidétiques de l'état global du système étudié. Autrement dit, ces deux comportements (en apparence contradictoires) sont des "comment" qui s'adoptent et s'adaptent pour répondre au mieux à un "pour quoi" eidétique exigé par les circonstances.

 

*

 

La réalité du Réel ne serait pas autre chose qu'un jeu aveugle de probabilités dont le hasard serait le chef d'orchestre et dont les formalismes mathématiques seraient la clé (par exemple : la dualité onde-corpuscule qui exprime, selon moi, la confusion entre le domaine topologique des mesures dans l'espace-temps, et le domaine eidétique de la nature profonde des organisations systémiques).

La quanticité des sauts électroniques dans l'atome a été, me semble-t-il, abusivement extrapolée à l'ensemble du monde subatomique.

Je voudrais citer, ici, une remarque de mon ami Paul Matthys, quanticien de haut vol : "Quant à moi je "crois" à l'aléatoire non causal total au niveau des mesures élémentaires, "à la Bohr". Pour moi, c'est d'ailleurs une des raisons pour laquelle je ne "crois" pas que la "causalité" soit un outil universellement applicable et utile.  Je suis persuadé que toute une partie du "Tout" ne peut être ni interprétée ni modélisée sur base de raisonnements de type causal.  Je suis donc, pour cette raison un détracteur du "Démon de Laplace". A noter, que même si nous divergeons sur ce point de vue, immédiatement nous nous accordons sur le point du mythe déterministe ou causaliste".

Le sujet est délicat. Nous nous accordons tous deux sur le fait que le causalisme (déterministe ou probabiliste) n'est approximativement pertinent que pour les systèmes mécanicistes (mésoscopiques[1]), au niveau le plus bas de complexité. Mais cet anti-causalisme doit-il nécessairement prendre la forme que lui a donné le quantisme ? A cet anti-causalisme auquel répond le probabilisme quantique, répond aussi et mieux l'intentionnalisme défendu dans ce travail.

Le rejet du causalisme mécaniciste implique-t-il nécessairement (comme le souhaitait Kant) le rejet d'une ontologie physicaliste au profit d'une pure phénoménologique quantique ? Faut-il nécessairement (comme le suppose le principe d'incertitude ou d'indétermination de Heisenberg) rejeter la notion de "réel" et se cantonner exclusivement dans la notion de "mesure" (ce qui ne serait pas mesurable, n'existerait pas), avec, comme conséquence, un probabilisme généralisé (la précision de toute mesure est forcément entachée d'une certaine probabilité d'exactitude) ?

 

*

 

[1] De taille intermédiaire c'est-à-dire ni gigascopique à l'échelle de l'univers pris comme un tout, ni nanoscopique à l'échelle des systèmes atomiques ou subatomiques.