de l’Univers.
@ Jacques Prévost – Cambrai – France
Lorsque j’avais vingt ans, la science fiction était à l’honneur. J’étais alors tombé sur un récit dont j’ai oublié le titre et l’auteur, non pas l’argument. Il s’agissait d’un astrophysicien qui s’acharnait à découvrir les ultimes secrets de l’univers. Il posa le dernier signe de sa dernière équation et s’apprêta à lancer le calcul quand Dieu apparut avec un large sourire.
« C’est bon! Tu m’as trouvé ! Á ton tour de te cacher!
Je te compte quinze milliard d’années!».
Ainsi, semble se dérouler notre découverte de l’Univers ; comme un jeu de cache-cache indéfiniment renouvelé. Chaque problème résolu débouche sur une énigme nouvelle. Il semble qu’un mystérieux démiurge s’ingénie à démonter chacune des grandes théories expliquant l’origine du Monde, en ouvrant la voie d’une nouvelle hypothèse contradictoire et incompatible avec la précédente. C’est ce que j’appelle le sourire moqueur du « décepteur », cette divinité chaotique de nombreuses cultures, ce « Trickster », tout à la fois bon et mauvais, qui se situerait entre le divin et l’homme.
Lorsque nous portons le gigantesque regard de nos télescopes vers l’infiniment grand, nous découvrons sans cesse de nouvelles structures qui englobent le déjà connu dans un nouvel aspect, toujours plus inaccessible. Et lorsque nous braquons l’œil si démesurément myope de nos microscopes électroniques, sur l’infiniment petit, nous voyons également éclore de nouvelles structures toujours différentes d’aspect et de complexité, qui constituent d’autres organisations imbriquées, tout aussi inaccessibles.
Il en est de même des structures vivantes, supports évolutifs de la pensée. Plus leur étude progresse, et plus leur admirable complexité se révèle. Mais ce n’est pas là l’objet actuel de notre propos. Ce que je propose est une réflexion sur la relation que l’Homme semble vouloir établir entre l’Univers et lui, en tentant d’en comprendre les fondements. Et il tentera de formaliser cette maîtrise en l’enfermant dans des équations ou des théories bien structurées.
Un grand physicien, Stephen W. Hawking, reconnu universellement comme l’un des plus grands cosmologistes actuels, définit régulièrement ce que sont les théories scientifiques, au fil des pages de ses ouvrages. Je veux ici résumer ce qu’il répète inlassablement.
« Nous devons bien comprendre ce qu’est une théorie scientifique. Dans une telle théorie, l’opinion banale voit un modèle représentatif de l’univers, ou celui d’une partie limitée de l’univers, associé à un ensemble de règles mettant en relation des quantités issues à la fois de ce modèle imagé et des observations expérimentales. Cela est une opinion bien naïve. La théorie n’existe que dans notre esprit et ne peut avoir d’autre réalité, quelle qu’en soit la signification. Les théories physiques sont toujours provisoires. Elles ne sont que des hypothèses: Personne ne pourra jamais prouver une théorie physique, parce que personne ne pourra jamais être certain que la prochaine observation, quel qu’en soit le nombre déjà effectué, ne mettra pas cette théorie en échec. ».
Cette affirmation d’Hawking est d’autant plus intéressante, qu’il a remis lui-même en question certaines de ses convictions. Après avoir été un fervent partisan du big-bang, il pense maintenant que l’univers n’a pas de début et même pas de bord.
Lorsque que nous engageons la réflexion sur la nature du monde, nous le faisons à partir des perceptions et du témoignage de nos sens. Cette mise en œuvre des instruments sensoriels est une démarche universelle essentielle à la survie. Ces outils ne sont pas des instruments de connaissance, mais des équipements de survie. Ils ne sont pas braqués vers des objets à connaître, ni adaptés à leur découverte ou à la détermination de leurs caractéristiques mais, tout au contraire, ils sont conformés par les particularités des sujets à protéger, édifiés à partir de leurs modes de vie ou de leurs besoins, et adaptés à leurs facultés. Or, dans notre démarche exploratoire, nous allons détourner ces instruments de leur fonction première, ce qui ne sera pas sans conséquences.
Nous allons utiliser prioritairement la vision. Or, si l’œil est un outil de survie fort efficace, il n’est pas pour autant établi qu’il soit le plus adéquat des instruments de recherche. J’en ‘ai longuement exposé les raisons dans d’autres études et je me bornerai ici à résumer fort brièvement la question.
Dans domaine sécuritaire qui est le sien, l’œil utilise le média le plus rapide qui soit, la lumière. C’est une solution fort efficace, mais les limites posées par les contraintes évolutives, physiques et physiologiques, terrestres sont ici fort importantes. J’en donnerai ici quelques exemples. Dans l’étendue globale considérable des ondes électromagnétiques dont fait partie la lumière dite visible, l’œil humain est sensible aux seules longueurs d’ondes comprises entre 400 nanomètres, (ultraviolet proche), et 750 nanomètres, (infrarouge proche).
La mise en place évolutive, (controversée), de l’œil biologique a été bien évidemment conditionnée très étroitement par les conditions physiques et chimiques de la vie sur terre et par les besoins existentiels des espèces concernées. Comme il est fondamentalement un détecteur du rayonnement du Soleil, dont la température extérieure est d’environ 5800 °C, (couleur jaune pâle), l’œil est adapté aux caractéristiques de cette lumière, corrigées en fonction de la fraction disponible dans l’environnement humain naturel de sa vie terrestre.
Mais ce n’est pas le seul type de problèmes. La fonction de la vision est essentiellement informative. Son objectif fondateur est d’informer une entité interne mystérieuse qui est le «Mental».
L’œil distingue dans l’environnement l’existence de certains indices qu’il détecte en valorisant leurs différences par rapport au décor ambiant. Cette mise en relief porte sur divers facteurs, tels la luminosité, la couleur, la forme, le relief, l’orientation spatiale, le mouvement, la grandeur, la conformité à un modèle, et d’autres paramètres.
Pour améliorer l’efficacité de
la fonction, l’exercice de cette capacité de différenciation est relié à la
mémoire et à l’activité synchrone et coopérante d’autres sens qui apporté
antérieurement des informations convergentes et complémentaires. Il s’agit
donc d’une complémentation mémorielle et artificielle. Les sensations sont donc
des phénomènes psychophysiologiques, engendrés par l’excitation de l’organe
considéré complémentée par des informations mémorisées. Le message émis à
destination du mental quand il est reçu par lui, est appelé percept.
Comprenons bien que le percept est toujours un objet purement mental.
Il ne fait pas de véritable référence à la chose réelle qui a émis le signal initial mais il en signale la présence, en particulier par référence au connu, en modifiant parfois automatiquement le contenu comme en grossissant le soleil ou la lune lorsqu’ils sont bas sur l’horizon). L’objet mental n’est jamais que la représentation interne électrique de l’objet externe observé et, en d’autres termes, il n’en est donc toujours qu’une image.
Il faut absolument comprendre
que ces images sont créées dans notre cerveau. Elles sont intérieures et la réalité extérieure est
différente. La lumière, par exemple,
n’existe pas. Á l’extérieur de nous même, il y a un immense champ d’ondes
électromagnétiques diverses que notre cerveau neurologique transforme en
cette image intérieure de lumière (avec toute la relation symbolique et
mentale correspondante). Nous touchons ici la conséquence majeure de la primauté
donnée à la vision dans l’exploration de l’environnement.
Les objets mentaux sont généralement perçus
sous forme d’images.
Et par images, il faut ici comprendre des représentations reliées aux caractéristiques de la vision dans les contraintes posées par les environnements physiques et écologues de la planète Terre.
Dans le langage courant, on utilise d’ailleurs des termes comme imagination ou imaginaire pour décrire des situations sans lien direct avec la vision, ce qui confirme mon propos.
On pourrait, bien sûr, imaginer, (encore une image!), l’utilisation d’un autre système de représentation mentale de l’environnement. C’est ce que font les grands musiciens en utilisant le canal sonore, encore plus réduit que le canal visuel. Leur univers musical n’est en rien comparable à l’univers mathématique des astrophysiciens. Ils utilisent cependant des mouvements, des espaces, et des objets sonores qui ont, dans leur mental particulier, une réalité objective.
Une première question est posée : Est-il adéquat d’utiliser la vision, (outil de survie), comme un instrument de connaissance d’une part dans les découvertes de l’environnement proche et dans les explorations microcosmiques et macrocosmiques.
Dans la découverte environnementale, le système semble fonctionner de façon satisfaisante, mais nous avons vu que ses possibilités sont très limitées. En conséquence, les connaissances corrélatives le seront aussi.
D’ailleurs, d’autres espèces vivantes ont développé des organes visuels bien plus performants. Les rapaces, par exemple, ont des yeux surdimensionnés, un très large champ visuel, une rétine comptant cinq fois plus de cellules visuelles que la rétine humaine ainsi qu’une double fovéa, une très grande capacité d’accommodation tant en vision de près que de loin, si bien que leur vision est globalement dix fois plus performante que la nôtre, ceci dans le seul domaine de l’exploration de l’environnement proche.
On constate une situation analogue dans la vision des couleurs. Elle est assurée chez l’homme par un système trichromatique d’environ six millions de minuscules photorécepteurs différenciés, les cônes, qui sont stimulés par les lumières bleues, rouges, ou vertes, émettant vers les nerfs optiques des influx composites engendrant la perception d’environ deux millions de couleurs différentes.
Les daltoniens n’ont que deux types de cônes, et confondent donc une partie de ces couleurs. Certains animaux en ont moins mais d’autres plus. Comme les perruches, les pigeons ont cinq sortes de cônes et sont aussi sensibles au flux magnétique terrestre. Les serpents voient dans l’infrarouge, et les abeilles, dans l’ultraviolet, distinguant en plus le sens de polarisation de la lumière.
Comme on le voit, en tant qu’outil de survie, quoique il ne soit pas la meilleure des solutions, l’œil humain demeure relativement satisfaisant, mais comme instrument de recherche, il n’est pas très performant. Nous devrons donc utiliser des artifices techniques pour remédier à ces insuffisances.
Dès lors, lorsque nous dirigerons le regard techniquement perfectionné de nos télescopes vers les étoiles du ciel macrocosmique, nous n’utiliserons plus seulement l’étroite fenêtre de notre œil naturel dans la seule lumière visible, mais nous l’ouvrirons dans toute l’étendue des fréquences électromagnétiques qu’il nous sera possible d’atteindre. Avec le prodigieux regard de nos super télescopes, nous essayons de percer les secrets du mystérieux cosmos et nous rencontrons alors un premier sourire ironique du Trickster moqueur.
Car nous avons maintenant appris qu’il nous ne pouvons pas découvrir l’Univers au présent. La lumière parcourt toujours l’espace avec une vitesse limitée, (la plus élevée possible, vitesse limite). Par conséquent, et quelle que soit la distance qui nous sépare de l’objet observé, aussi proche ou distant soit-il, nous ne pourrons jamais l’observer au présent.
J’ai écrit quelque part :
« l’Homme ne voit que l’extérieur des choses,
l’intérieur est à Dieu. ».
On pourrait tout aussi bien dire que
« l’Homme ne voit que le passé du Monde,
le présent (et l’avenir) sont à Dieu. ».
Si vous le voulez bien, nous allons maintenant examiner les théories du Monde et du Temps que propose la science actuelle. Rappelons ce que disait Stephen W. Hawking. « Une théorie n’existe que dans notre esprit et ne peut avoir d’autre réalité../… Les théories physiques sont toujours provisoires. Elles ne sont que des hypothèses. ». Il ne s’agit absolument pas ici d’exposer une vérité fondamentale concernant la réalité du Monde. Nous allons seulement examiner le contenu ces objets mentaux élaborés par des cerveaux scientifiques pour expliquer leur pensée sur la question.
Vous allez voir qu’ils ont imaginé des hypothèses extrêmement complexes. Vous voudrez pardonner les quelques pages compliquées qui suivent. Elles appelleront des nombres très petits ou très grands. Ils tentent d’exprimer la durée, la température, ou la dimension de l’univers. Pour ceux qui ne sont pas mathématiciens, ils n’ont aucun sens immédiat. J’essaierai donc de leur substituer des images mentales pour leur donner un semblant de signification.
Paradoxalement, c’est le temps très long qui semble être le plus facilement figurable. J’ai longtemps cherché une image qui soit représentative de l’immensité des temps écoulés tout en conservant une figuration suffisamment perceptible et satisfaisante de la durée de la vie humaine. Je crois qu’une surface peut répondre à cet objectif, si l’on convient de donner la valeur d’équivalence d’une année à chaque millimètre carré. C’est un très petit carré, mais il reste assez visible, car il est de la dimension d’une tête d’épingle.
Dans cette figuration, chaque vie humaine couvre un peu moins d’un centimètre carré. C’est l’ongle du petit doigt. Un million d’années correspond alors à un mètre carré, ce que chacun peut se représenter facilement. C’est une grande feuille de papier millimétré où chaque petit carré figure une de ces années qui s’enfuient si rapidement. Mille mètres carrés, la surface d’un très grand jardin, correspondent à un milliard d’années. La durée passée de l’univers, dix, ou quinze, ou vingt milliards d’années, est alors représentée par une surface d’un à deux hectares, soit un carré de plus de cent vingt mètres de coté.
L’ancienneté du système solaire, étoile et planètes, est estimée à quatre milliards d’années et demi, soit un tiers ou un quart de la durée possible de l’univers. La vie semble être présente sur Terre depuis deux ou trois milliards d’années. Dans notre convention de représentation, la vie depuis son obscure origine, couvre deux à trois mille mètres carrés, et l’espèce humaine, un ou deux millions d’années, soit environ deux pas, mille fois moins. Dans cette grande prairie, la vie de chaque génération humaine, comme la nôtre, occupe aussi peu de place qu’une petite pâquerette. Néanmoins elle occupe cette place et reste tout à fait repérable.
J’ai beaucoup cherché mais je n’ai absolument trouvé aucune image qui permette de représenter les distances immenses qui séparent les galaxies les une des autres. La dimension de l’univers observable, en kilomètres, s’écrit avec 24 zéros. (Et notez bien ici qu’il ne s’agit que de la partie observable de l’Univers). Seule la représentation mathématique peut satisfaire ces besoins, mais c’est alors une abstraction qui ne parle pas à l’imagination ordinaire. Krisnamurti posait d’ailleurs la question en pensant qu’on ne pouvait pas y répondre positivement. « Le cerveau humain peut-il comprendre la véritable dimension de l’espace ? ».
Comment ces savants présentent-ils l’histoire universelle ? C’est ce que nous allons voir au prochain chapitre.
2 Les particules sont
éternelles
Il y a 10 ou 15 ou 20 milliards d’années, ou 200 milliards de degrés, ou 4 milliards de parsecs. (Un parsec = environ 3,2616 années-lumière). Tout est ici synonyme.
Donc, là bas, ou bien à cet instant, ou à cette température, un événement fort mystérieux est (peut être) arrivé. Voyez que j’utilise improprement le passé puisque le temps n’existait pas encore. D’autres théoriciens pensent qu’en ce point particulier, (que nous sommes convenus d’appeler origine), une cause initiale a pu soudain se manifester avec une énorme puissance.
Un inconcevable préexistant aurait provoqué l’avènement de l’univers actuel, et nous sommes priés de penser que cet événement a donné simultanément naissance au temps, à l’énergie et à la dimension. Nous nous éloignons encore de ce point originel tout à la fois dans le temps qui coule, dans la température qui baisse, et dans les distances qui croissent. C’est pourquoi on peut indifféremment chiffrer cet éloignement en temps, en degrés, ou en distances. Ces facteurs évoluent de concert et sont équivalents.
On dit aussi que l’entropie s’accroît. L’énorme agitation initiale semble aujourd’hui se calmer et courir vers sa fin. Un facteur important se différencie en sens inverse, comme l’entropie, l’information augmente avec la conscience d’être. L’oméga des fins dernières rejoindrait-il l’alpha des origines ?
C’est l’abbé Lemaître, un astronome et physicien belge, qui semble avoir envisagé le premier une idée révolutionnaire, qui faisait soudainement naître notre univers dans une explosion initiale inconcevablement puissante.
En 1927, il introduisit l’idée d’un univers en expansion, puis proposa, en 1931, une hypothèse de l’atome primitif décrivant un univers provenant d’une singularité initiale. C’est bien plus tard, et initialement par plaisanterie qu’on l’appela « Big Bang » puis que l’on adopta le terme.
Dans le déroulement du processus d’apparition de la matière, (et peut-être devrais-je dire de sa manifestation), les scientifiques distinguent, actuellement, et par consensus, plusieurs périodes nettement différenciées.
La première, fort courte, c’est la première seconde. La deuxième comprend les quelques premières minutes. La troisième, c’est le mystérieux premier million d’années. La quatrième, c’est l’âge stellaire, notre univers actuel. La dernière, c’est l’univers futur et inconnu.
Cette répartition est trop grossière pour décrire correctement l’image que l’on se fait actuellement des débuts de l’univers. Il faut y faire des distinctions bien plus détaillées et plus subtiles. Tout se passe comme si d’immenses vagues existentielles partaient du centre de la manifestation pour parcourir successivement et indéfiniment le cosmos, en élargissant sans cesse leur rayon d’action, d’organisation, de reconstruction et de transformation.
La première de ces vagues est très courte, mais il s’y produit une suite d’événements étonnants et fort complexes.
1 / Pendant un premier temps extrêmement bref, la situation n’a pour nous aucun sens. Nous ne pouvons en faire aucune image compréhensible et nous sommes dans l’incertitude absolue. Puis, après une fraction de seconde, qui s’exprime en chiffre par un zéro suivi de 42 autres zéros après la virgule, les forces fondamentales apparaissent, confondues d’une façon que les physiciens ne peuvent pas encore élucider. Elles commencent ensuite à se différencier avec un changement d’état, dit transition de phase, après chaque apparition.
2 /Après zéro seconde suivi de 33 zéros après la virgule, une première force se caractérise, et se sépare. C’est la gravité, celle qui attire les corps les uns vers les autres et assure la structure de l’univers.
3 /Au 27ème zéro, la température tombe en dessous de cent millions de degrés. La force qui assure la cohésion des noyaux atomiques, se sépare à son tour. L’univers enfle brusquement. Son état initial est bouleversé et les quarks, les éléments fondamentaux de la matière, sont alors formés. Des quantités énormes de matière et d’antimatière apparaissent et s’annihilent mutuellement, se transformant en rayonnement. Mais il subsiste un tout petit excès de matière qui constitue l’univers actuel.
4 / Au 10ème zéro, les deux dernières forces connues se séparent. La force faible qui contrôle la radioactivité à l’intérieur des atomes, divorce de l’électromagnétique qui contrôle les phénomènes magnétiques, électriques, et chimiques. Il y a un brutal changement de phase. Les quarks s’assemblent et fusionnent trois par trois pour former les protons et les neutrons. A ce moment toutes les particules sont formées. Elles semblent pouvoir durer bien plus longtemps que l’univers lui-même.
Après la première seconde, la seconde phase, l’âge nucléaire commence. Une seconde vague existentielle s’élance, dans un univers déjà très différent et beaucoup plus étendu. La température baisse. Protons et neutrons fusionnent pour former seulement un petit nombre de corps élémentaires. Ce sont le deutérium et le tritium. Ils fusionneront ensuite pour donner l’hélium 4, le lithium 7 et le béryllium 7.
Après trois minutes les premières fusions nucléaires s’arrêtent. L’aventure est provisoirement terminée.
La troisième vague démarre. La période radiative, un nouvel âge de l’univers va durer un million d’années au moins. Pendant cette période radiative, l’univers est surtout rempli de photons qui se bousculent frénétiquement sans trouver assez d’espace pour se déplacer. La lumière n’existe pas encore, au sens que nous donnons actuellement à ce mot, car elle ne peut se propager et n’éclaire pas l’espace. L’univers continue à grandir, et lorsque la période se termine, les photons peuvent commencer à circuler dans l’espace, y propageant les rayonnements électromagnétiques. Soudainement l’univers devient transparent.
Les photons, ondes ou particules de lumière, se déplacent à une très grande vitesse, constante dans un milieu donné. Dans le vide, ils parcourent trois cent mille kilomètres par seconde. A cette vitesse (dite limite), les notions de temps et d’espace n’ont plus de sens.
Tous les autres composants de l’univers se déplacent moins vite car ils sont freinés par certaines de leurs propriétés, par exemple par leur inertie ou leur masse. Ces retards par rapport aux photons sont ce que appelons « le temps ». Comme chaque corps se déplace à sa propre vitesse, chaque corps a son propre retard. Il a donc son propre temps. Bien évidemment tous ces écarts sont relatifs les uns par rapport aux autres.
C’est pourquoi on appelle cette
théorie, essentiellement élaborée par Einstein, « Théorie de la relativité
». Après ce premier million d’années, l’univers se transforme à nouveau, et
la matière se concentre.
C’est l’ère stellaire.
Nous y sommes encore aujourd’hui.
La quatrième vague existentielle s’étend en poussant les bornes de l’univers à des distances et vers des limites qui dépassent nos capacités humaines de représentation. (On n’a aucune idée des limites actuelles de l’univers puisque la vitesse de la lumière nous interdit de les atteindre). En son sein, d’autres vagues se forment, plus petites mais combien plus importantes pour nous. D’immenses nuages de gaz et de poussières se rassemblent par l’effet de la gravitation, et forment les protogalaxies. Encore un milliard d’années et les premières étoiles s’allument, (soit seulement mille mètres carrés dans notre convention de représentation). Elles sont souvent énormes et meurent rapidement. La plupart d’entre elles explosent et répandent dans l’espace leur matière maintenant élaborée.
Tous les éléments chimiques que nous connaissons, et d’autres éléments encore inconnus, existent depuis cette époque. Ils ont été fabriqués dans les creusets alchimiques et flamboyants de tous ces astres disparus, et ont été dispersés par leurs explosions finales pour donner ensuite naissance à de nouvelles étoiles. Les étoiles sont groupées en galaxies qui en rassemblent chacune plusieurs centaines de milliards, et il y a au moins cent milliards de galaxies dans l’univers connu.
Une autre théorie dit qu’il est tout à fait possible que d’innombrables autres univers (inaccessibles) existent à coté du nôtre, et qu’ils soient régis par des lois physiques complètement différentes de celles que nous connaissons. Actuellement, cette hypothèse ne peut être éclaircie.
C’est alors qu’eut lieu la formation du système solaire et de notre planète et de toutes les autres. Les cendres des anciennes étoiles se rassemblent par l’effet de la gravité, et constituent des nuages de poussières et de gaz, puis des grains et des cailloux, puis des rochers et enfin des astres.
Notre Terre se serait formée progressivement, par agrégation de ces éléments. Une période de huit cents millions d’années commence, pendant laquelle des composés chimiques de plus en plus complexes vont s’élaborer dans un monde agité de gigantesques convulsions. Des bolides cosmiques s’y abattent chaque jour, provoquant de terribles catastrophes et transformant la surface. C’est encore une théorie. En fait, il faut bien admettre que nous ne savons pratiquement rien des trois premiers quarts de l’histoire de la Terre.
La vie a pu apparaître pendant cette période, peut-être assez rapidement, mais dans des formes extrêmement simples. Les premiers organismes multicellulaires et les premiers végétaux commencent à se répandre deux ou trois milliards d’années plus tard, c’est-à-dire il y a environ un milliard d’années en amont de notre actuel examen.
Nos derniers mille mètres carrés de jardin sont entamés. Encore quatre cents petits mètres carrés et voici les premiers animaux à squelette externe. Leur apparition se situerait à quatre ou cinq cents millions d’années avant nos jours. Les terres émergées qui ne formaient qu’un seul vaste continent, la Pangée, commencent à se morceler en grandes plaques qui partent à la dérive. Leurs collisions font dresser les montagnes et les volcans. Les premiers poissons sont là, à quatre cent cinquante millions d’années, suivis des premiers reptiles à trois cents millions d’années. Maintenant notre pré carré a la dimension d’un jardin de curé.
Les premiers dinosaures et les premiers mammifères partent à la conquête du monde voici deux cents millions d’années.
L’océan Atlantique Nord commence à s’ouvrir. Il y a soixante millions d’années, presque hier, une extraordinaire catastrophe a fait disparaître les dinosaures et la plupart des espèces qui vivaient à leur époque. A ce moment l’Amérique du Sud se sépare de l’Afrique. Les reptiles laissent la place aux mammifères. L’herbe couvre les terres émergées.
Á trente millions d’années, trente de nos mètres carrés de pelouse, les primates commencent à évoluer. Dans notre plate-bande, au bout du bras, un curieux animal se prépare à devenir une personne. Cet animal qui va bientôt lever son regard vers le ciel est notre ancêtre.
Quant à notre bon vieux Soleil, il est situé sur le bord de la galaxie, dans une région où les étoiles ne sont pas très nombreuses. Lorsque nous regardons le ciel nocturne, nous n’en distinguons qu’environ cinq mille à l’oeil nu. Si le hasard nous avait placés plus prés du coeur de la galaxie, c’est un million d’étoiles qui brilleraient au ciel. Les notions de nuit et de jour n’auraient plus beaucoup de sens, et la science et la métaphysique auraient peut-être pris un tout autre chemin. Je tenterai, plus loin, de décrire les idées des scientifiques concernant l’apparition et le développement de la vie terrestre, et plus particulièrement de l’intelligence humaine. Terminons-en d’abord avec ce diable d’univers qui n’en finit pas d’aller vers sa fin.
Certains imaginent un renversement du temps et un retour aux sources, mais d’autres y voient un avenir sombre et glacé. L’univers mort pourrait continuer à s’accroître indéfiniment pendant l’éternité. D’autres pensent qu’il va s’effondrer au centre d’un immense trou noir, puis rebondir d’une façon cyclique en créant un nouvel univers. Cela n’est pas pour demain. L’immensité actuelle de l’espace et du temps suffit amplement à poser à notre intelligence des défis redoutables.
L’affirmation d’Hawkins sur l’impermanence des théories scientifiques est d’autant plus intéressante, qu’il a remis lui-même en question certaines de ses convictions. Après avoir été un fervent partisan du big-bang, il pense maintenant que l’univers n’a pas probablement pas de début ni même de bord. Le prétendu big-bang ne serait probablement qu’un point singulier comme le pôle terrestre.
Certaines lois élémentaires
cessent de s’appliquer sans que cela implique un changement radical d’état. Par
exemple, au pôle, le jour dure six mois, la boussole s’affole, les points
cardinaux n’ont plus de signification. Ce pôle est simplement un point singulier, mais cela n’est pas perceptible
sur le terrain. Sur le plan métaphysique, il convient de mesurer ce qu’implique
une semblable théorie, qui professe un univers sans limites, sans cause, et
sans début ni fin.
Au non-commencement était
l’univers indéfini.
D’autres théories pourraient être évoquées pour ouvrir d’autres perspectives. Évoquons d’abord la grande rivale de la théorie de la relativité générale, la mécanique quantique. La théorie quantique s’intéresse aux plus petits composants du monde, et pas aux galaxies. Dans l’étude du microcosme, elle calcule en millionièmes de microns, alors que la théorie de la relativité générale décrit l’univers à grande échelle.
Les deux théories sont, semble-t-il, incompatibles. Elles ne peuvent pas être justes en même temps. Elles ne donnent donc pas une image complète de l’univers réel, d’où la recherche acharnée d’une théorie globalisante, qui en ferait la synthèse. Celle-ci n’a pas été réalisée jusqu’à présent. La théorie de la mécanique quantique ne décrit plus le monde en termes de particules ou d’ondes car il y a une dualité entre ces deux représentations, et on utilisera donc l’une ou l’autre figure selon le besoin mathématique du moment.
Il faut également parler ici des théories qui concernent la structure fractale de l’univers, et il faut expliquer ce que l’on entend par la notion de fractale. J’utiliserai l’exemple banal de la longueur de la ligne de côte qui sépare la terre et la mer. On définit communément une longueur comme une grandeur à une seule dimension, parcourue dans un seul sens. Vous savez que l’on passe à la surface en y ajoutant une seconde dimension qui est la largeur. De même un volume est caractérisé par trois dimensions.
Lorsque l’on veut mesurer la longueur d’une côte maritime avec une seule dimension, on se trouve confronté à une impossibilité pratique. Quoique l’on ait affaire à un élément naturel structuré et organisé, sa longueur change selon l’échelle à laquelle se fait l’examen. Plus on augmente la précision, plus la longueur s’accroît. Plus on tient compte des détails, telles les baies, puis les criques, puis les anfractuosités, le contour des galets et des grains de sable, plus la mesure s’altère et devient imprécise et mouvante. On peut cependant mathématiquement l’exprimer en disant que sa valeur tend vers un nombre de dimensions plus grand que UN, puisqu’on n’obtient pas une véritable mesure de longueur, mais moins grand que DEUX, puisqu’il ne s’agit pas d’une surface. Il s’agit donc d’un nombre fractionnaire de dimensions, d’où l’appellation de « fractale ».
On découvrirait aujourd’hui que l’univers serait à la fois chaotique et fractal. L’apparent désordre cosmique serait probablement organisé à tous les niveaux. Cette organisation semblerait composées de structures analogues à différentes échelles, successivement emboîtées les unes dans les autres comme des poupées russes. Comme les côtes de nos océans, un univers fractal est fini, mais ses limites connaissables semblent à jamais hors de portée. On pourrait parler des lois hasardeuses du chaos, mais ce ne sont que des mots humains dépourvus de sens réel. Ni le hasard ni le chaos ne suivent des lois évidentes de causalité. Ils engendrent des structures conformes aux natures propres du hasard et du chaos, lesquelles ne sont pas de l’ordre ordinaire de notre nature.
C’est notre seule petite raison humaine qui présuppose l’existence d’un cadre référentiel préalable. De la même façon, la structuration hypothétique du réel sur un mode fractal ne permet aucunement de présupposer l’existence d’un principe ou d’un modèle de référence qui resterait à découvrir pour expliquer les mystères du monde. L’océan n’attend pas la référence d’une formule pour occuper la ligne mouvante des côtes fractales du continent. C’est bien au contraire le contour fractal qui émerge par lui-même de la rencontre mouvante, hasardeuse et chaotique de la terre et de l’eau.
Lorsque l’on forme une image mentale de cet univers, sa topologie, c’est-à-dire la façon dont sa forme est établie, est rarement prise en compte. Elle est intégrée comme une donnée vague sans réelle importance. Comment représenter ce modèle général qui aboutit à la forme particulière, actuellement observée ? Pour l’intelligence humaine, il existe peu de types généraux de formes topologiques. On distingue généralement le plan, le cylindre, la sphère, le tore, et la forme gauche (genre selle de cheval). On a d’abord conçu l’univers comme un plan, puis comme la surface d’une hyper sphère grandissant au fur et à mesure de l’écoulement du temps.
Dans cette conception de surface sphérique, la lumière d’une galaxie lointaine peut seulement nous atteindre par deux chemins. Le premier, le trajet court, est vu de face. Le second, le trajet long; fait tout le tour de l’univers, et il est vu de dos. Aucun rayon lumineux n’aurait eu le temps de faire cet immense second parcours depuis le début d’un univers hyper sphérique. Mais d’autres topologies sont possibles parmi lesquelles la forme torique. Un tore peut être défini comme un cylindre dont les deux extrémités ont été mises en connexion. Si l’univers a la forme d’un tore, la lumière d’une galaxie lointaine peut nous parvenir par deux chemins directs, l’un de face, l’autre de dos. Cette lumière peut également nous arriver après avoir parcouru plusieurs fois la longueur du tore. Chaque galaxie serait alors visible plusieurs fois dans le ciel, et comme la lumière a une vitesse donnée, elle met un temps certain à nous parvenir. Nous en aurons des images à des âges différents, donc avec des aspects différents.
L’univers serait alors beaucoup moins grand et beaucoup moins peuplé de galaxies que dans la conception hyper sphérique traditionnelle. Il a également été imaginé que l’univers pourrait être en connexion multiple, avec de nombreux autres chemins possibles. Ce ne sont que des théories, des images du Monde réel, des objets mentaux issus de cerveaux humains.
En conclusion, aussi troublant
cela soit-il, il nous faut admettre une formulation très humble et modeste.
La véritable nature de l’univers
nous échappe totalement.
De toutes ces théories physiques exposées, voulez-vous seulement retenir qu’à l’origine une mystérieuse et inconcevable énergie s’est manifestée par l’émergence d’un inconcevable chaos. Cet état s’est structuré selon sa nature. De cette organisation un nouveau chaos émerge encore maintenant, dont les propriétés particulières ne sont pas liées de façon causale à l’ancien état.
Je veux dire par là que les caractéristiques de l’ancien état expliquent actuellement certains caractères de l’état présent, mais ne les impliquaient pas de façon obligatoire dans le déroulement du passé. Par exemple, les réactions de transmutation atomiques qui se produisent dans le Soleil provoquent des émissions de photons, mais elles n’impliquaient pas obligatoirement la production des yeux par les organismes vivants.
Il s’agit d’émergences successives, consécutives l’une à l’autre, et explicables l’une par l’autre d’aval en amont. Mais elles ne coulent aucunement de façon causale de l’amont vers l’aval. Le présent s’explique par le passé, mais le passé ne crée pas le futur. Avec ses caractéristiques propres et toujours nouvelles et avec toutes ses potentialités de manifestation, c’est ici et dans l’instant actuel que le futur inconnu émerge du présent.
3 L’expérience de la double fente
Maintenant, ici même, le futur émerge de l’éternel présent, et l’exploration de l’univers microcosmique réserve ici aussi bien des surprises. Pour palier nos déficiences visuelles, nous utilisons des microscopes, des instruments qui augmentent le pouvoir séparateur de notre œil en grossissant l’image. Avec le prodigieux regard de ces super microscopes, nous avons essayé de percer les mystérieux secrets des plus ultimes constituants de la matière, et nous avons là aussi rencontré le sourire ironique du démiurge moqueur.
Pour explorer ce monde microcosmique, nous avons inventé des outils extrêmement puissants qui élargissent l’étroite fenêtre ouverte par notre œil naturel dans la seule lumière visible. La qualité d’un microscope, sa résolution, désigne sa capacité à séparer des détails voisins. Dans un microscope optique, cette résolution est limitée par la diffraction de la lumière qui est un phénomène lié à sa nature ondulatoire. Du fait de la diffraction, l’image d’un point est une tache (tache d’Airy). Les images de deux points distincts voisins deviennent alors deux taches et les petits détails ne sont plus résolus.
On a tourné la difficulté de plusieurs façons, en particulier en diminuant la longueur d’onde de la lumière utilisée. Si l’on reste dans le domaine visible, il n’est pas possible de descendre en dessous de 400 nm. La limite de résolution d’un microscope photonique classique est d’environ 0,2 μm (grossissant 2000 fois). Le microscope électronique atteint une limite 1000 fois plus petite. C’est pourquoi nous avons abandonné le seul usage des photons en adoptant d’autres particules. Le microscope électronique utilise des faisceaux d’électrons au lieu des rayons électromagnétiques comme la lumière. En utilisant des longueurs d’ondes associées bien plus petites, cet appareil obtient des grossissements bien plus élevés (jusqu’à 5 millions de fois). Les deux types de microscopes ont cependant une limite, celle qui est imposée par la longueur d’onde du rayonnement utilisé.
Mais, à partir de la découverte des propriétés ondulatoires des particules, l’exploration de l’univers microcosmique s’est également engagée sur d’autres voies. Pour donner une idée du changement introduit par les recherches induites par ces idées nouvelles, considérons l’exemple désormais très classique des interférences de particules (électrons ou photons).
En relativité générale, on considérait logiquement qu’un phénomène est imputable soit à une onde soit à une particule, (soit l’un, soit l’autre). Lorsque l’on envoie un jet de particules, par exemple des photons, simultanément dans les deux fentes d’un interféromètre, on constate l’apparition d’interférences qui démontrent la présence d’ondes. Quand on jette une pierre dans un étang, on engendre des ondes simples. Si on en jette deux en même temps, les ondes, en se rencontrant, se renforcent ou s’affaiblissent en formant ce qu’il est convenu d’appeler « franges d’interférence ».
Appliquée à la lumière, cette célèbre expérience est connue sous le nom de « Double slit experiment », (expérience de la double fente).
Elle a permis de mettre en évidence la nature ondulatoire de la lumière et a révélé accessoirement deux inexplicables paradoxes concernant la nature profonde de la réalité, et fut réalisée pour la première fois par Thomas Young en 1801. Elle utilise une source de lumière monochromatique et un écran devant lequel on interpose un masque percé de deux fentes étroites. On observe alors, sur l’écran des franges alternativement sombres et claires qui montrent que des ondes interfèrent entre elles.
L’expérience d’Young a été perfectionnée afin d’émettre un seul « quantum » à la fois, car, on peut aujourd’hui avec un matériel très sophistiqué (scintillateur photomultiplicateur), émettre des photons ou des électrons un par un, et les détecter de même, derrière les fentes de Young. Leurs traces forment progressivement les franges d’interférences, ce qui est impossible pour des trajectoires de corpuscules.
En mécanique ondulatoire, forme initiale de la mécanique quantique, l’image de la particule expliquait parfaitement l’effet photoélectrique qui est la base même du concept des quantas.
L’image de l’onde considérait accessoirement les particules comme des ondes réelles, matérielles, en due conformité physique avec la théorie de « dualité onde-corpuscule » proposée par Louis de Broglie. La mécanique quantique leur substitue mathématiquement d’hypothétiques « ondes immatérielles de probabilité » pour expliquer que le photon peut passer simultanément par deux trous à la fois, ce qu’une particule ne pourrait faire.
En envoyant une seule particule dans l’expérience de Young, on s’attendait à voir disparaître les interférences. Ce n’est pas ce qui se produit. La figure d’interférence se reconstruit progressivement. Il est illogique d’obtenir une interférence avec un seul photon. Du point de vue de la logique intuitive, un tel phénomène est impossible. Une seule particule doit passer soit par une fente soit par l’autre. L’apparition de la figure d’interférence indique qu’elle est passée par les deux fentes en même temps.
Cela démontre qu’un photon est à la fois une particule et une onde de lumière, laquelle est capable de passer par deux trous en même temps en réalisant l’effet impossible d’interférer avec elle même. On a, par ailleurs, réalisé l’expérience avec des « quantas » matériels, électrons, neutrons, atomes, ou même molécules, lesquels ont, de façon fort étonnante, également provoqué des interférences montrant que ces quantas matériels présentaient aussi un comportement ondulatoire, en dépit que l’on puisse aussi démontrer un comportement particulaire associé.
Richard Feyman, un théoricien américain prix Nobel, l’un des physiciens actuels des plus influents pour ses travaux sur l’électrodynamique quantique et les quarks, pense que ce photon unique passe non seulement par deux chemins mais simultanément par tous les chemins possibles dans l’univers entier, et même par le passé (!), (intégrale des chemins de Feyman,). La trajectoire directe allant du projecteur à l’écran est simplement la plus probable.
Ce phénomène, incompréhensible pour notre logique banale, s’exprime dans une formulation mathématique absconse, établie selon les principes de la mécanique quantique. Celle-ci ne décrit pas un état unique, bien défini, pour une observation donnée. Elle le remplace par la description d’un certain nombre d’états possibles, mais différents, associés chacun à une probabilité locale et momentanée d’existence, d’où l’appellation de « théorie probabiliste ». L’hypothèse a longtemps révolté Einstein qui a exprimé son refus dans une formule lapidaire.
Le « Trickster », ce mystérieux démiurge doit beaucoup s’amuser de nos étonnements. Il a bien d’autres fantaisies en réserve. En voici une autre encore plus mystérieuse. Dans l’expérience de Young, si l’on place des détecteurs près de chaque fente, et qu’on émet des photons, chaque détecteur signale les photons qui sont passé par sa fente, (et non pas par l’autre).
On constate que les franges d’interférences n’apparaissent pas. Ils étaient donc bien dans l’état corpusculaire. Mais, dès qu’on enlève les détecteurs, les bandes d’interférence réapparaissent et le phénomène se reproduit. Il semblerait donc que la lumière change de nature selon le type d’expérience menée pour l’étudier.
Si on ne l’observe pas, elle se comporte comme une onde, mais elle devient particule quand on l’observe. Cela pourrait signifier que la manière dont se comporte la réalité est modifiée par la seule observation.
La question alors posée est la suivante : Pour quelle raison l’observation modifie-t-elle la nature de la lumière ? Et le mystère s’est approfondi quand on a élargi l’expérience aux particules de matière, aux électrons par exemple. On a obtenu le même résultat. On a été encore plus loin en utilisant des atomes entiers puis des molécules. Les résultats sont restés identiques, à savoir des ondes quand on n’observait pas, des particules quant on observait. L’observation détermine donc en partie le réel. On réalise que le « Trickster » s’amuse ici encore plus si l’on comprend que c’est bien l’observateur qui décide, préalablement et en conscience, du type d’expérience qu’il va mener.
Il semblerait que la conscience
crée en partie la réalité.
Dans le cadre cité de l’étude des corpuscules, l’observateur n’a donc pas un rôle neutre et on constate que l’appareil de mesure influence le résultat. Nous savons bien ce qu’est la particule, à la source, lorsqu’elle est créée, et nous savons ce qu’elle est, à l’arrivée, quand elle est enregistrée par les détecteurs. Mais nous n’avons aucune idée de ce qui se passe entre temps. Nous ne savons pas décrire cela dans notre langage habituel.
Un autre phénomène étonne
énormément dans la mécanique quantique. Lorsque deux particules obéissant aux
lois quantiques interagissent à un moment à un autre, une corrélation
s’établit entre elles et perdure même lorsque les particules s’éloignent. Ces
particules partagent alors de l’information au sujet de leurs états, quelle
que soit la distance qui les sépare.
C’est ce que l’on nomme
« l’intrication quantique ».
L’intrication fait partie des nombreuses bizarreries de la mécanique quantique : quand deux particules sont dites intriquées on ne peut plus ensuite modifier l’état de l’une de ces deux particules sans modifier l’autre. Ce phénomène a été reproduit avec des particules fort différentes, et les scientifiques ont même réussi à unir non pas deux mais trois photons.
Dans cet étrange état de corrélation, on peut donc voir deux particules élémentaires se lier de façon inextricable au point qu’un changement induit sur l’une d’entre elles entraîne une modification équivalente sur l’autre, et ce, instantanément, quelle que soit la distance qui les sépare. Les deux particules se comportent alors comme un tout, cette « corrélation » différant de tout ce que connaît la physique classique.
Cette intrication quantique d’objets implique l’inséparabilité des objets concernés. Il est impossible de décrire chacun d’eux par une fonction d’onde séparée. Un groupe d’objets intriqués doit être considéré comme un système unique, décrit par un état global qui ne peut pas être décomposé en états distincts. Un tel concept est facilement acceptable quand on décrit des électrons en orbite autour d’un même noyau atomique, car on ne peut imaginer comment les distinguer. Cela devient beaucoup moins évident lorsque cela concerne des objets si éloignés l’un de l’autre qu’aucun signal physique (se propageant en principe à une vitesse limitée par celle de la lumière), n’est sensé pouvoir les atteindre.
Ce phénomène a d’ailleurs des implications tellement bizarres dans le domaine qu’Einstein lui-même le décrivait comme une « action fantôme à distance ».
Dans le monde, des choses que l’on a du mal à appréhender se manifestent. Ainsi, les particules sont aussi des ondes et vice-versa. Par ailleurs, les objets (par exemple des électrons), n’existent pas tant qu’on ne les « regarde » pas (c’est-à-dire tant qu’on n’effectue pas de mesure les concernant).
L’intrication entre particules a été régulièrement observée en laboratoire. La question reste cependant de savoir si celle-ci peut être obtenue dans l’environnement macroscopique, au-delà du royaume microcosmique des particules élémentaires.
Concernant ce phénomène du quantum qui passerait par les deux fentes à la fois en interférant avec lui-même, il y eut une conversation très connue dans le milieu de la physique.
Un jour, Einstein demanda à son ami Niels Bohr :
« Croyez-vous vraiment que la Lune n’est pas là quand personne ne regarde ? ».
Bohr répondit : « Pouvez-vous prouver le contraire ? ».
Et Einstein ne le pouvait pas.
Einstein est surtout connu par ses théories sur la relativité (restreinte et générale). Elles procurent une description cohérente des lois de l’univers. La Relativité Restreinte établit la loi fondamentale de l’équivalence masse énergie, mais voyons seulement ici son second postulat qui indique que « La vitesse de la lumière dans le vide est la même dans tous les référentiels inertiels » (ceci signifiant ceux dans lesquels un objet isolé se déplace en ligne droite à vitesse constante).
Ce propos est extrêmement important parce qu’il implique que la vitesse de la lumière est une limite qu’il est absolument impossible de dépasser. Cette proposition de 1905 limite l’étude des phénomènes aux référentiels inertiels et l’on ne peut l’étendre aux référentiels accélérés. Elle ne s’applique qu’aux phénomènes de vitesses constantes.
Einstein s’est ensuite attaché à compléter sa théorie pour pouvoir décrire tous les phénomènes, accélérés ou pas. Sa théorie de Relativité Générale de 1916 en est une extension. C’est une vision relativiste de la gravitation dans laquelle les postulats restent vrais dans tous les référentiels. Les corps n’y subissent aucune force gravitationnelle, ne faisant que suivre les chemins (géodésiques) d’un espace temps courbe. Ici encore, la vitesse de la lumière reste la vitesse ultime.
L’intrication quantique implique pourtant que l’information des états des particules intriquées ne respecte pas cette limite. Albert Einstein pensait que ce phénomène prouve que la mécanique quantique est incomplète. Pour le démontrer, il mit au point en 1935, avec deux collègues, Boris Podolsky et Nathan Rosen, une expérience théorique troublante qu’il soumit à Bohr, et qui menaça les bases de la théorie quantique pendant quelques temps. Elle fut appelée le paradoxe EPR d’après les initiales des auteurs, (EPR pour Einstein-Podolsky-Rosen). Les trois physiciens avaient imaginé cette expérience pour démontrer qu’une particule pouvait exister sans être observée.
Retenons que les particules subatomiques, (les électrons ou les photons) possèdent trois propriétés fondamentales, la masse, la charge et le spin.
La caractéristique évidente est la masse. Les physiciens nucléaires l’expriment en MeV/c² en référence à la célèbre formule d’Einstein E=mc². La masse est principalement reliée à la gravitation. La charge électrique régit surtout les interactions avec les champs électromagnétiques. La charge et la masse sont les seules caractéristiques concrètes des particules. Le spin, (moment cinétique intrinsèque), apparaît là comme une caractéristique fort abstraite.
Avec la découverte de nouvelles particules, on a maintenant introduit de nouvelles notions caractéristiques : La saveur des quarks qui les sépare en trois familles, la couleur qui permet comme le spin, d’expliquer un triplement du nombre d’états possibles pour les quark, et les nombres leptoniques et baryoniques qui permettent entre autres de préciser les désintégrations possibles.
Revenons sur ce spin qui n’a pas de concept équivalent dans notre entendement courant. On peut l’imaginer comme le « sens de rotation » d’une particule, sans que cela soit tout à fait exact. Retenons simplement que, pour un électron, le spin ne peut prendre que deux valeurs possibles, qu’on appelle « up » et « down ».
C’est sur le concept abstrait de ce spin immatériel que repose l’élaboration du paradoxe EPR Le raisonnement (simplifié) qui en est à la base est le suivant : Imaginons deux particules, par exemple un électron et un positron (son anti-particule), de même masses, mais de charges opposées) et intriquons-les de telle façon que la somme de leurs spins s’annule (mathématiquement, up+down=0). Puis imaginons qu’ils s’éloignent à très grande distance. Après intrication, on sait que les spins des deux particules sont, en principe, opposés. Mais avant d’observer le système, il est impossible de savoir dans quel état il sera !
Pourtant, si l’on mesure l’état de la première particule, et qu’on tombe sur un spin « up », on saura immédiatement que l’autre particule sera dans l’état de spin « down ».
Mais si les deux particules sont très éloignées, comment la seconde particule a-t-elle été informée immédiatement que la première est passée dans l’état de spin « up », quand on sait que l’information ne peut pas aller plus vite que la vitesse de la lumière ? Á partir de là, un vif débat opposa fort longtemps Einstein, partisan d’un univers déterministe et Niels Bohr, l’un des pères de la physique quantique.
Pour Einstein, l’état des deux particules est déterminé avant la mesure et n’est que révélé par la mesure. Pour Bohr, l’état est indéterminé avant la mesure et c’est la mesure du spin du premier qui entraîne instantanément le changement de spin de l’autre.
Les scientifiques évitèrent prudemment de s’engager dans le débat. De nombreux physiciens pensaient cependant que Bohr avait raison dans ce qui fut appelé « l’interprétation de Copenhague » puisque les expériences confirmaient ses dires, et ils décidèrent donc d’en ignorer les conséquences métaphysiques.
Et, en 1960, le physicien John Bell apporta enfin ce qui est aujourd’hui considéré comme l’une des plus grandes contributions à la mécanique quantique. Il remplaça la pure expérience de pensée EPR par une expérience physique réelle qui intriquait deux photons à l’aide de polariseurs.
Réalisée à plusieurs reprises,
l’expérience confirma en 1982 la vision de Bohr, et Bell pu formuler ses célèbres
inégalités faisant que ce long débat, purement intellectuel à l’origine, finit
par avoir des conséquences bien vérifiables expérimentalement. Einstein avait
tort.
Si la vitesse de la lumière est effectivement une limite indépassable, on a forcément du admettre, par conséquent, que deux particules intriquées agissent comme un seul système, impliquant la non localité de celui-ci.
Cette notion est essentielle, car elle établit qu’il n’y a donc pas de relation de cause à effet entre la mesure de la première particule et l’état de la deuxième.
Cela semble complètement absurde et à la limite de la métaphysique. Les plus grands spécialistes de la mécanique quantique ont débattu pour déterminer comment interpréter la théorie (utile et efficace). La question qui interpelle le plus est celle de la transition de notre monde classique, macroscopique, au monde quantique, microscopique.
Á quel moment doit-on passer de la représentation classique au nouveau monde décrit par la réalité quantique ?
Une théorie nouvelle ne triomphe jamais.
Ce sont ses adversaires qui finissent par mourir. »
(Max Planck)
La notion de non localité des particules induite par la théorie quantique est essentielle, car elle différentie les propriétés de notre monde macroscopique, classique et accessible aux sens, de celles du monde microscopique, quantique, essentiellement accessible aux calculs.
Sans
remonter jusqu’à l’Antiquité et les conceptions de Démocrite, rappelons que
le modèle d’atome proposé par Niels Bohr en 1913
ne décrivait plus celui-ci comme
un objet entier, indécomposable. Dans le modèle
de Bohr, l’atome se compose d’un noyau central autour duquel tournent des
électrons dont les rayons orbitaux ne peuvent prendre que des valeurs fort
précises.
Dans ce modèle, la taille de l’atome est de l’ordre du
dixième de millionième de millimètre. (10-10). Ce volume est défini comme celui dans
lequel on peut trouver le noyau et les électrons de cet atome. Le noyau atomique est très compact, cent mille à un million
de fois plus petit que l’atome lui-même (10-15). Il est
constitué de protons et de neutrons et porte une charge électrique positive.
C’est la partie qui représente au moins 99,95 % de la masse de l’atome.
Les électrons sont ponctuels. On les considère comme des points géométriques de rayon quasi nul, (plus petit que 10-18). Ils portent une charge électrique négative. Le nombre d’électrons possible sur chaque orbite a été ultérieurement défini par le calcul. Le modèle de Bohr, qui décompose l’atome en deux parties, un noyau et un nuage d’électrons, est plus précis que le modèle classique, dit « des sphères dures », dans lequel la surface de la sphère figurant l’atome équivalait à l’orbite des électrons extérieurs.
Cependant,
le modèle de Bohr ne permet pas d’expliquer l’ensemble des observations des
physiciens. La mécanique ondulatoire propose un
nouveau modèle dans lequel les électrons ne sont plus des billes localisées
en orbite, mais des nuages de
probabilité de présence dans cette
zone.
Mais qui peut dire ce que
signifient effectivement ces mots : « Nuage ou Onde de probabilité » ?
Avec un noyau aussi petit et des électrons ponctuels qui gravitent dans un espace atomique un million de milliard de fois plus grand, on peut considérer qu’un atome est spatialement vide. De plus, les particules (les quarks) qui forment en théorie, les protons et les neutrons, sont comme l’électron, des particules ponctuelles, (sans volume). Un atome, constitué entièrement de particules sans volume est donc, géométriquement, entièrement vide ! En théorie, bien sûr, car il n’est pas possible de le prouver !
Je lisais récemment un article
traitant de la taille des particules. En mécanique quantique, la dimension de
l’électron, disait l’auteur, n’a pas de signification ni de fondement. Elle dépend de la place qui lui
est donnée. Un électron de conduction dans du cuivre ou de l’aluminium est à
peu près aussi grand que le cristal, voire que le morceau de métal entier. Un
électron oscillant dans une molécule de colorant est aussi long que la molécule
elle-même. Dans le cas général, on peut même considérer que chaque électron
d’un atome pourrait paraître aussi grand que cet atome lui-même.
Cette nouvelle vision de l’électron peut sembler révolutionnaire. C’est que la représentation
que l’on s’en faisait autrefois, (une petite bille en orbite circulaire
autour du noyau), était conditionnée par l’observation des formes du monde
macroscopique, abusivement transposées dans le monde microscopique.
Or, ce que l’on en connaît réellement ne repose que sur
ses manifestations physiques indirectes. (Courant électrique, par exemple).
Les physiciens modélisent maintenant l’électron par une « fonction
d’onde » dont le carré de la « norme représente la densité de probabilité
de présence ». Pour représenter fidèlement les propriétés (rebutantes)
de l’électron, on ne dispose en fait que des fonctions mathématiques abstraites
et compliquées.
Hors d’un atome, l’électron peut encore être représenté par un paquet d’ondes, éventuellement considéré comme une petite bille, (dans certaines limites cependant), qui pourrait occasionnellement s’étirer. Au contraire, l’électron d’un atome conservera la structure de la fonction d’onde associée à l’orbite qu’il occupe (tant qu’il demeure dans son atome). La mécanique quantique postule, non pas la conservation de la forme (encore mystérieuse) de l’électron, mais l’intégrale de sa probabilité de présence.
Dans le modèle de Schrödinger, les nuages correspondant aux différents électrons s’interpénètrent et il n’est pas question de se donner une représentation individuelle des électrons chacun sur son orbite, comme cela était le cas dans le modèle de Bohr. Les électrons sont des particules identiques indiscernables. On peut même considérer que chaque électron de l’atome est à la fois sur chaque orbitale occupée (correspondant à une configuration électronique donnée).
Et,
puisque géométriquement, tous ces différents électrons se recouvrent les uns
les autres, on doit logiquement en conclure que notre géométrie macroscopique
est définitivement inadaptée et incompétente à l’échelle de l’atome, et de
toute particule élémentaire.
Ainsi, la dure matière, à laquelle nous sommes confrontés chaque jour, serait, à l’échelle microcosmique, constituée d’atomes emplis de vide (!), centrés sur des noyaux fait de sous-particules sans volume (!), et contenant des nuages probabilistes (!) d’électrons indiscernables (!) et non localisables (!).
On voit
bien que le malicieux démiurge
s’amuse toujours à nos dépens.
Avant la révolution de la pensée introduite par la théorie quantique, les scientifiques pensaient que ces contenus atomiques, électrons, protons et neutrons, étaient les constituants ultimes de la matière. On pensait alors qu’ils étaient indivisibles et on les appela donc «particules élémentaires ».
Mais la recherche s’intéressait aux interactions des neutrons et des protons dans le noyau de l’atome, et les physiciens construisirent des machines gigantesques pour les étudier. Dans ces « accélérateurs », qui sont plutôt des « collisionneurs », des particules sont extrêmement accélérées par des champs électriques pour tenter de les faire entrer en collision. L’énergie résultant des chocs produit diverses sortes de particules que l’on s’attache à détecter. Ces accélérateurs montrèrent qu’il y avait un niveau de structure supplémentaire à l’intérieur des protons et des neutrons.
Ces nouvelles sous-particules furent appelées « quarks ». Tous les protons et les neutrons sont construits à partir de trois quarks chacun. Les protons et les neutrons n’ont pas de forme à proprement parler mais ils sont souvent représentés sous une forme sphérique qui représente la région de l’espace au-delà de laquelle leur nature composite deviendrait visible.
L’observation des multiples particules différentes produites, (composites et souvent instables), a permis aux physiciens de postuler l’existence d’autres particules élémentaires. Ils en ont déduit une nouvelle théorie physique appelée le « modèle standard » des particules. Elle est bâtie sur la connaissance de l’existence des quatre forces primordiales différentiées après le Big-bang, et elle décrit la nature et les interactions de ces composants de base de la matière au niveau microcosmique.
En les citant dans l’ordre de leurs différenciations, ce sont la force gravitationnelle qui attire les corps les uns vers les autres et assure la structure de l’univers, puis la force nucléaire forte qui assure la cohésion des noyaux atomiques, ensuite la force électromagnétique qui contrôle les phénomènes magnétiques, électriques, et chimiques, et enfin la force nucléaire faible qui contrôle la radioactivité à l’intérieur des atomes.
Le modèle standard propose une composition particulièrement complexe de l’univers sub-atomique qui comprendrait deux classes de particules, les fermions (baryons, mésons et leptons) et les bosons.
Les fermions sont les particules constitutives de la matière. Dans la classe des fermions, le modèle postule actuellement l’existence de douze particules élémentaires, six quarks et six leptons. Des particules plus complexes, (les hadrons), sont formées à partir de deux ou trois quarks.
À chaque particule correspond une antiparticule. Chaque antiparticule ressemble à sa particule, mais avec des changements de signe. L’antiparticule a une charge électrique opposée. La masse demeure identique. Une particule de charge nulle peut être sa propre antiparticule (cas du photon).
On appelle antimatière l’ensemble des antiparticules des particules composant la matière ordinaire. L’antimatière a une durée de vie très courte dans notre environnement. En combinant des antiprotons, des antineutrons et des anti-électrons, il est donc possible de créer des anti-atomes. Quand une particule de matière et son antiparticule se rencontrent, elles s’annihilent en restituant intégralement leur énergie fondamentale.
Les quarks sont les éléments constitutifs des noyaux atomiques. C’est le physicien américain Gell-Mann qui choisit le nom « quarks » pour les désigner. Leur réalité physique ne fut prouvée que dans les années 70. Il y a six sortes de quarks définies par leurs « saveurs », dénommées, par ordre de masses croissantes « up, down, strange, charm, bottom et top ». Et, il y a aussi six antiquarks correspondants.
Les quarks ont une propriété
étrange, leur charge électrique est fractionnaire. Cette charge est de 2/3
pour les quarks up, charm et top , et de –1/3 pour les quarks down, strange et
bottom. Un quark n’est jamais seul. Les quarks et les antiquarks sont toujours
groupés par deux ou par trois pour former des particules plus grosses, les hadrons, qui se répartissent en deux
classes :
Les baryons, formés de trois quarks, comme les neutrons ou les
protons. (Le proton est un hadron composé de deux quarks up et d’un quark down,
tandis que le neutron est formé de deux quarks down et d’un quark up).
Les mésons, formés d’un quark et d’un antiquark.
Cette propriété fait que les particules observées à l’état libre ont toutes une charge électrique entière ou nulle.
Mais il y a d’autres types de particules : Les leptons sont six autres particules élémentaires. Ici aussi, il y a six sortes, ou « saveurs » de leptons. Trois ont une charge électrique négative, les trois autres sont neutres.
Le lepton chargé le plus connu est l’électron. Les deux autres leptons chargés sont le muon et le tau qui sont beaucoup plus massifs que l’électron. Les trois leptons sans charge électrique sont les neutrinos. Il y a cependant une saveur particulière de neutrino associée à chacun des leptons électriquement chargés et donc un neutrino électronique, un neutrino muonique et un neutrino tauonique.
On a appelé fermions ces diverses particules élémentaires qui sont les briques de la matière. Ils peuvent être classés en trois familles contenant chacune deux quarks, un lepton chargé et son neutrino. D’une famille à l’autre, les propriétés sont semblables, sauf les masses qui sont croissantes de la première à la troisième famille.
Dans la première famille on trouve les particules les plus stables et les plus connues, les quarks up et down, l’électron et le neutrino électronique.
La deuxième famille comprend
les quarks charm et strange ainsi que le muon et le neutrino
muonique, et la troisième famille, les quarks top et bottom, le tauon
et le neutrino tauique.
Tout ce qui existe résulte des combinaisons de ces douze particules ou de leurs antiparticules.
Jusqu’à maintenant, aucune sous-structure n’a été découverte aux quarks et aux électrons.
A coté de cette première classe, celle des particules de matière, les fermions, la deuxième classe, fort différente, est celle des bosons (plus exactement bossons de jauge) qu’on appelle aussi « particules de rayonnement ».
Les quatre forces physiques fondamentales, (gravité, force nucléaire forte, force nucléaire faible et force électromagnétique), interagissent sur les fermions élémentaires par l’échange de ces bosons de jauge.
Comme pour les fermions, le
modèle standard décrit également douze bosons de jauge : le photon, huit
gluons et trois bosons faibles. On postule aussi l’existence du graviton qui
n’a jamais été observé.
Pour résumer les postulats
du modèle standard.
Les particules de « matière » sont en principe des fermions. Elles interagissent par le moyen des vecteurs des forces que sont les bosons, et chacun de ces bosons (dits de jauge) est associé à l’une des forces physiques fondamentales :
Le photon transmet la force électromagnétique,
Les gluons transmettent la force nucléaire forte,
Les bosons faibles transmettent la force nucléaire faible,
Le graviton transmettrait la force
gravitationnelle.
(Le graviton ne fait pas vraiment partie du modèle standard car son existence
demeure purement théorique.).
L’ancien atome de Bohr reproduisait en miniature le système solaire du macrocosme. La nouvelle théorie, est fondée sur le concept complexe de sous particules géométriquement ponctuelles et non locales, duales car associées à de mystérieuses ondes de probabilité.
Ce n’est pas facile à accepter, même dans la forme extrêmement simplifie que je me suis efforcé d’adopter.
Mais ce n’est pourtant pas fini. On remarquera que la gravité, n’est pas correctement intégrée au modèle. Or, elle est la plus importante des quatre forces fondamentales, (tout au moins dans la relation entre le macroscopique et le microscopique).
En effet, le modèle standard de la physique des particules attribue une masse nulle à toutes les particules élémentaires. Cela ne peut pas être conforme à la réalité. En effet, les scientifiques ont pu établir expérimentalement les masses de plusieurs particules. Seuls le photon, les gluons et le graviton (s’il existe) seraient de masse nulle.
Pour corriger ce défaut gênant du modèle standard, le physicien britannique Peter HIGGS proposa d’y ajouter une particule très spéciale, un boson supplémentaire fort particulier conférant les masses aux autres particules.
L’idée de base est que les particules acquièrent une masse en interagissant avec un champ spécifique, (maintenant appelé champ de Higgs), porté par ce boson (dit de Higgs).
Ce mécanisme explicatif novateur est maintenant considéré comme une partie essentielle du modèle standard. Le physicien Lederman a appelé ce boson « the God particule, (improprement traduit par particule de Dieu) ».
Les théoriciens se sont dorénavant fixé une absolue priorité : Prouver l’existence du boson de Higgs. Ce n’est pas le boson de Higgs qui donne leur masse aux particules élémentaires. Le boson de Higgs se matérialise uniquement lorsqu’une particule interagit avec le champ de Higgs.
Quand la vitesse d’une particule interagissant avec le champ de Higgs est influencée, son énergie totale demeure inchangée. Elle a donc moins d’énergie de mouvement. Mais l’énergie totale étant inchangée, la différence en énergie se manifeste par sa masse. (On a comparé l’effet du champ de Higgs à une viscosité de l’espace ralentissant plus ou moins le déplacement des corps, le freinage simulant alors la masse).
Début juillet 2012, le CERN a
annoncé avoir détecté un boson présentant les principales caractéristiques
théoriques du boson de Higgs (avec cependant une masse étonnante, d’environ
133 fois celle du proton, alors qu’on l’attendait nulle). On ne sait plus à
quoi cela ressemble !
En fait, il semble qu’on ne sache pas très bien ce qu’on a découvert.
Il faudra donc travailler encore plusieurs années pour confirmer définitivement cette découverte en respectant tous les critères en physique des particules. Si on ne pouvait pas observer le vrai boson de Higgs, cela pourrait signifier que la solution proposée le modèle standard n’est pas exacte. (On continuerait pourtant à l’utiliser car il permet de décrire précisément le comportement des particules élémentaires). Á haute énergie, cependant, des désaccords apparaîtraient entre les prédictions du modèle et les résultats expérimentaux.
En réalité, la controverse a déjà commencé et des chercheurs proposent des alternatives au boson de Higgs. Pour certains physiciens comme Stephen Hawking, par exemple, le Higgs n’existe pas en tant que particule élémentaire. Il serait en fait une particule composite. Pour d’autres, il existerait plusieurs bosons de Higgs (par exemple dans les théories super-symétriques. Pour d’autres encore, le boson de Higgs n’existe réellement pas et la solution consisterait à travailler dans un espace à cinq dimensions ou plus. (Théories des cordes, des multi-univers, etc..)
L’enjeu de la recherche n’est pas seulement de démontrer l’existence du boson de Higgs, mais aussi de trancher entre les différentes alternatives possibles afin de comprendre les comportements à très grande énergie produits dans des phénomènes cosmiques tels que le Big Bang par exemple.
Et donc, pour la première fois dans l’histoire de la physique moderne, il semble que l’on ait découvert une entité étonnante qui ne paraît être ni une particule de matière (un fermion), ni un vecteur d’une force fondamentale (un boson standard). Le boson de Higgs pourrait donc ouvrir un domaine de recherche entièrement nouveau.
Le mystérieux démiurge va continuer à nous étonner. Il a en réserve bien d’autres fantaisies. Et l’expérience de Young va révéler d’autres mystères encore plus stupéfiants. Elle nous a déjà montré que la lumière change de nature selon le type d’expérience menée pour l’étudier. Si on ne l’observe pas, elle se comporte comme une onde, mais elle devient particule quand on l’observe. Cela pourrait signifier que la manière dont se comporte la réalité est modifiée par la seule observation.
Spinoza disait : « L’espace est le champs de la puissance des hommes ; le temps, celui de leur impuissance. ». Il serait moins convainquant aujourd’hui !
Comme on le voit, tout cela n’est pas très simple. Avant d’aller plus loin, je vous propose de récapituler un peu ce que l’expérience de Young nous a jusqu’alors appris, afin de clarifier, (autant que faire se peut), l’avancement de la science en ce domaine.
Cette expérience, (dite de la double fente), a démontré qu’un photon est à la fois une particule et une onde de lumière, laquelle est même capable de passer par deux trous en même temps tout en réalisant l’effet logiquement impossible d’interférer avec elle même.
En mécanique ondulatoire, forme initiale de la mécanique quantique, l’image de la particule expliquait parfaitement l’effet photoélectrique qui est la base même du concept des quanta.
L’image de l’onde associée considérait accessoirement les particules comme des ondes réelles, c’est-à-dire matérielles, (théorie de la dualité de L. de Broglie). La mécanique quantique leur substitue mathématiquement d’hypothétiques ondes immatérielles de probabilité pour expliquer que le photon peut passer simultanément par deux trous à la fois, ce qu’une particule ne pourrait faire.
Vous savez qu’on a réalisé la même expérience avec des quanta matériels, électrons, neutrons, atomes, ou même molécules, lesquels ont provoqué des interférences montrant qu’ils présentaient aussi un comportement ondulatoire, quoique l’on puisse aussi démontrer un comportement particulaire associé.
Il est ici nécessaire de préciser ce que veulent précisément dire les mots employés. Rappelons que lorsque l’on parle de particules élémentaires, on se situe généralement dans le cadre du modèle standard de la physique des particules qui en est l’outil de base.
Ce modèle décrit un univers
sub-atomique comprenant deux classes de particules, les fermions (baryons, mésons et leptons) et les bosons. Ce sont les nouvelles
particules élémentaires, considérées au niveau subatomique.
A - La première classe est donc celle des FERMIONS : Ils sont les particules constitutives de la matière. Ces particules composites sont constituées de quarks et six antiquarks correspondants. Les quarks et les antiquarks sont toujours groupés par deux ou par trois pour former des particules plus grosses. Dans ces fermions, on distingue :
1/ Les hadrons, qui se répartissent en deux groupes :
Les baryons, formés de trois quarks, (neutrons, protons).
Les mésons, formés d’un quark et d’un antiquark.
2 / Les leptons sont les autres particules élémentaires.
Il y en a six dont
l’électron. Les autres leptons sont le muon, le tau et les neutrinos.
B - La deuxième classe est celle des BOSONS, (plus exactement bossons de jauge), aussi appelés « particules de rayonnement ».
Les bosons sont des transporteurs d’énergie, (des projectiles), qui permettent aux fermions d’interagir dans le cadre des quatre forces physiques fondamentales, (gravité, force nucléaire forte, force nucléaire faible et force électromagnétique.
La classique expérience de Young a démontré qu’un photon est à la fois une particule et une onde.
Cependant, en utilisant des
atomes entiers puis des molécules, les résultats sont restés identiques, à
savoir des ondes quand on n’observait pas, des particules quant on observait.
Hors l’observation, la manifestation basale des constituants du monde microscopique
serait donc de nature ondulatoire.
C’est l’observation même qui ferait apparaître la nature corpusculaire observée.
Une
autre notion fondamentale, celle de la non localité des particules, est
induite par la théorie quantique, qui différentie les propriétés de notre
monde macroscopique, classique, (accessible aux sens), de celles du monde microscopique
quantique, (essentiellement accessible aux calculs).
Il a été établi que les électrons sont ponctuels (sans volume), indiscernables et non
localisables. Or, les quarks, qui forment les protons et les neutrons, sont analogues
à l’électron. Toutes ces particules sont considérées comme des points géométriques.
Et donc, les constituants essentiels de la matière, les atomes, constitués de particules sans volume, seraient entièrement vides. Nous savons que l’ancien modèle microcosmique de l’atome de Bohr reproduisait en miniature le système solaire du macrocosme. La nouvelle théorie propose un modèle révolutionnaire fondé sur le concept complexe de sous particules géométriquement ponctuelles et non locales, duales car associées à de mystérieuses ondes de probabilité.
Mais, et ceci est essentiel, personne ne sait ce que sont ces très mystérieuses ondes de probabilité.
Le volume d’un atome est actuellement défini comme celui dans lequel on peut trouver son noyau et ses électrons, et nous avons pu en conclure que la matière était constituée d’atomes emplis de vide (!) centrés sur des noyaux faits de sous-particules sans volume (!), et contenant des nuages probabilistes (!) d’électrons indiscernables (!) et non localisables (!), en retenant bien à ce niveau, que, hors l’observation, la manifestation basale des constituants primaires du monde microscopique serait de nature ondulatoire et que c’est leur observation même qui fait apparaître leur nature corpusculaire.
L’Univers est modelé par des forces en interactions qui se manifestent à toutes les échelles. Tous les processus de l’Univers, physiques, chimiques ou biologiques, peuvent être expliqués à l’aide de seulement quatre forces en interactions fondamentales. La théorie décrit leur apparition après le Big Bang dans l’ordre suivant.
La gravitation s’exerce à toutes distances et structure le cosmos,
les planètes, les étoiles et les galaxies. La force de gravitation exercée par
un corps est inversement proportionnelle au carré de la distance qui nous sépare
de ce corps, Quand la distance double, la force est divisée par 4, etc. La
théorie de la relativité dit que la gravitation n’est pas une force, mais la
manifestation de la courbure de l’espace-temps au voisinage d’un corps.
La force nucléaire forte maintient les nucléons ensemble dans le noyau atomique, ainsi que les quarks dans les nucléons.
Elle est extrêmement
intense, avec une portée fort réduite,
à l’échelle du noyau de l’atome.
La force nucléaire faible est responsable de la désintégration des noyaux radioactifs. Son intensité est dix millions de fois plus petite que celle de l’interaction forte et sa portée n’agit pratiquement qu’au contact de deux particules. C’est cependant elle qui régit les réactions thermonucléaires de toutes les étoiles.
La force faible s’applique
à tous les fermions, y compris les insaisissables neutrinos qui ne réagissent
à aucune des autres interactions. Elle se singularise par deux points: elle se
transmet par des particules très massives: les bosons intermédiaires et elle
viole la symétrie de parité dont nous parlerons plus tard.
La force électromagnétique maintient les électrons en orbite autour du noyau atomique. Elle est responsable de beaucoup de phénomènes dont les réactions chimiques et toutes les manifestations électriques et magnétiques.
Comme celui de la gravitation, son effet décroît avec le carré de la distance qui sépare deux particules concernées. Mais la force électromagnétique est plus intense que la gravitation.
Les quatre forces fondamentales, sources théoriques de l’Univers matériel, interagissent par des échanges de vecteurs d’énergie, (ou des messagers), qui sont théoriquement des bosons : Ces bosons sont comme des projectiles en mouvement qui portent l’énergie des forces. Chacune des 4 forces fondamentales possède donc ses propres transporteurs d’énergie, ses projectiles en mouvement, ses bosons attitrés.
Pour la force électromagnétique, ce sont les photons.
Pour la force nucléaire forte, ce sont les 8 particules appelées gluons.
Pour la force faible, on les appelle les bosons W ou Z.
Pour la gravité, on ne les a jamais mis en évidence, et en cette attente, on les appelle provisoirement gravitons.
En
résumé :
Les photons transmettent la force électromagnétique,
Les gluons transmettent la force nucléaire forte,
Les bosons W et Z transmettent la force nucléaire faible,
Et les gravitons, s’ils existent, transmettrait théoriquement la force gravitationnelle.
La force gravitationnelle est décrite par la théorie de la relativité générale, tandis que les trois autres forces sont décrites par le modèle standard. Les équations associées au Modèle Standard ne produisent en principe que des particules sans masse. Le véritable problème est que nous savons bien que la plupart des particules en ont une. Ce modèle suggère cependant que les masses de tous les fermions élémentaires sont résultat d’une interaction, entre ces fermions et un boson théorique, le boson BEH (le fameux boson de Higgs.
Ce boson n’a été observé que fort récemment. Son importance est énorme, mais il est très particulier, et il est encore difficile de dire si cette nouvelle interaction correspond à ce que la théorie avait imaginé. Selon le cas, cela pourrait signifier qu’il existe une cinquième interaction fondamentale et que le modèle standard serait à revoir.
Ce n’est d’ailleurs pas le boson de Higgs, (la 25ème particule), qui donne une masse aux particules élémentaires. Il manifeste seulement l’existence du champ de Higgs ainsi que le mécanisme corrélatif d’interaction qui leur donne cette masse. Il me semble que les physiciens ont ici, en quelque sorte, réinventé l’Ether des anciens philosophes qui croyaient que l’espace était empli de ce fluide universel.
Aujourd’hui, on considère à nouveau que l’espace ne serait pas vide, mais que, lieu d’expression universelle du champ de Higgs, il serait en fait entièrement empli des fameux bosons de Higgs qui permettraient de comprendre l’origine et la nature de 96% de la masse de l’Univers
Nous avons dit qu’en 2012, le CERN avait annoncé avoir peut être détecté un boson présentant les caractéristiques théoriques principales du boson de Higgs mais aussi des propriétés inattendues comme une masse étonnamment élevée. On ne sait pas encore si c’est le boson attendu. Si ce ne l’est pas, cela signifierait que la solution, pourtant bien utile, actuellement proposée le modèle standard ne serait pas exacte et qu’il faudrait, à terme, la réviser.
Vous devez trouver que ce
chapitre contient bien des redites du contenu du chapitre précédent. C’est en
partie vrai, mais je le fais bien consciemment avec l’intention affirmée de
vous faire prendre conscience de l’absolue étrangeté du Monde microcosmique
par rapport aux aspects macrocosmiques du Monde perceptible aux sens.
Tout se passe en fait comme si l’Homme se trouvait conceptuellement piégé entre deux entités aussi incompréhensibles l’une que l’autre, un nano Monde des microparticules élémentaires aux propriétés déconcertantes et un macro Monde de galaxies aux énergies et dimensions inconcevables.
Les diverses théories en cours se révélant parfois incohérentes, les physiciens ont bien évidemment voulu les concilier en travaillant sur de nouveaux concepts visant à leur unification. L’unification des forces de la nature est devenue l’objectif majeur de nombreux physiciens qui voudraient condenser ces théories en quelques équations géniales.
Le mécanisme de Higgs a d’abord été intégré au modèle standard de Glashow par l’Américain Weinberg et le Pakistanais Salam pour composer sa forme actuelle, intégrant la masse des particules. Le modèle standard a ensuite été à nouveau corrigé par l’unification de la chromodynamique quantique avec l’interaction électrofaible, afin d’y intégrer l’interaction forte.
D’autres théoriciens rêvent pourtant d’une nouvelle et ultime théorie pouvant unifier tous les phénomènes physiques, et ils y travaillent en élargissant diverses hypothèses. En physique, par exemple, une symétrie définit une propriété qui est conservée lorsqu’on modifie les données du problème.
Toutes les particules qui constituent la matière ont théoriquement une contrepartie « anti-particulaire ». Les positons ont ainsi toutes les caractéristiques des électrons mais ils sont chargés positivement.
La rencontre entre une particule et son anti-particule homologue provoque l’annihilation simultanée des deux entités qui libèrent toute leur énergie de masse dans une explosion d’une extrême violence (l’équivalent de 21 000 tonnes de TNT par gramme).
La brisure de symétrie matière antimatière présente donc un intérêt tout particulier et son étude a débouché sur un prix Nobel de physique en 2008. La symétrie matière antimatière stipule qu’un monde d’antiparticules possède exactement les mêmes caractéristiques qu’un monde fait de particules car les lois de notre physique ne font pas de différence entre particules et antiparticules, entre la matière et l’anti-matière.
En principe, au premier de tous les instants, au moment créateur du Big Bang, les quantités de matière et d’antimatière étaient exactement les mêmes. Or, puisque notre univers de matière existe, il faut que soit une différence quelconque entre une particule et son antiparticule. Aussi petite soit-elle, cette différence a cependant privilégié la matière contre l’antimatière, et cela suffisamment pour qu’elle ait pu perdurer au-delà des premières secondes de la création.
Les travaux des trois lauréats des prix Nobel de physique 2008 ont permis d’expliquer cette brisure spontanée de la symétrie matière antimatière il y a 15 milliards d’années, la différence fondamentale qui a alors enfanté l’Univers dans lequel nous vivons aujourd’hui.
l’Univers montre qu’il n’est pas aussi symétrique que nos équations le disent.
C’est pour cela qu’une partie de la communauté scientifique continue ardemment d’essayer d’unifier la relativité générale et la mécanique quantique, (en principe inconciliables), dans une grande « théorie du tout », recherche qui se semble se profiler actuellement dans ce que l’on appelle la « théorie des cordes ».
Cette dite théorie des cordes se présente sous plusieurs aspects particulièrement complexes. Elle se fonde sur l’idée que toutes les particules élémentaires sont des modes de vibration d’une corde fondamentale qui existerait en 10 (1ère théorie), 11 (la théorie M), et jusqu’à 26 dimensions (dans 2 des 5 pré-théories M).
« A l’heure actuelle », affirme Brian Greene, de l’université de Columbia (Etats-Unis). « C’est la seule théorie capable d’unifier deux approches demeurées longtemps inconciliables, d’une part, la relativité générale, qui décrit le fonctionnement de la gravité, et d’autre part, la mécanique quantique, qui permet de comprendre comment marchent les trois autres forces connues : la force électromagnétique, et les forces nucléaires forte et faible ».
Voyons donc en quoi consiste cette théorie révolutionnaire. Elle postule que les briques élémentaires de l’Univers, les particules de matière comme celles de force ne sont pas des points mais des cordes vibrantes. Et c’est le mode de vibration propre à chacune de ces cordes qui détermine leur nature : quark, électron, graviton, photon, etc.
Mais pour que les équations de la nouvelle théorie unificatrice soient cohérentes, les physiciens ont du y ajouter plusieurs hypothèses complémentaires inattendues, telles des dimensions supplémentaires et des univers parallèles. L’Univers serait donc encore bien plus bizarre que la fiction ne l’aurait jamais imaginé.
C’est en 1968 que la théorie des cordes est apparue quand Gabriele Veneziano, un jeune physicien italien aujourd’hui chercheur au CERN, a élaboré une étonnante équation pour décrire les collisions de particules subatomiques. En examinant ce travail, ses confrères ont constaté que les particules élémentaires décrites ressemblaient non pas à des points mais à des cordes pouvant vibrer. C’est ainsi, presque par accident, que la théorie des cordes est initialement née
A l’origine, elle ne passionna guère car elle n’est pas unificatrice et générait de nombreux problèmes annexes. De plus, elle impliquait l’existence de dix dimensions et celle de nouvelles particules sans masse encore jamais observées. Cependant, deux physiciens, Joël Scherk et John Schwarz, s’y intéressèrent et s’interrogèrent. Se pourrait-il que l’équation écrite par Veneziano décrive en fait la gravité au niveau quantique ? Les particules sans masse pourraient-elles être les fameux gravitons perdus, les véhicules de la gravité à l’échelle subatomique ?
Dans sa formulation première, la théorie nécessitait de nouveaux développements pour ouvrir sur cette interprétation audacieuse. En particulier la masse nulle attribuée à la nouvelle particule imposait de revoir très à la baisse la taille des cordes (qui devenaient minuscules par rapport à l’atome). Nous sommes en 1974 et la théorie de 1968 devient alors soudainement intéressante pour de nombreux physiciens. Bien évidemment les anomalies gênantes demeurent et il faudra encore beaucoup de travail et d’imagination pour les résoudre. Nous reviendrons là dessus au prochain chapitre.
Je vous propose un large condensé d’un entretien avec Gabriele VENEZIANO, l’inventeur de la première théorie des cordes. Ce physicien du CERN, est maintenant titulaire de la chaire « Particules élémentaires, gravitation et cosmologie » au Collège de France. Ses propos ont été recueillis par Guillaume Jacquemont et publiés dans (Pour la science N°62 – en Janvier 2009).
L’idée sur laquelle se fonde la théorie résulte d’un processus parti de l’observation, dit G. VENEZIANO. Au milieu des années 1960, en étudiant les interactions nucléaires entre protons et neutrons, nous avons élaboré des modèles mathématiques pour décrire les données expérimentales.
L’analyse fine de ces modèles a montré qu’ils ne décrivaient pas des particules sans dimension (des points), ayant chacune une masse propre, mais des entités à extension finie, des sortes de cordes, caractérisées par un seul paramètre : la tension universelle de cette corde (quantité d’énergie par unité de longueur).
Les protons et les neutrons ne sont pas élémentaires. Ils sont constitués de quarks reliés par l’interaction forte. L’intensité de celle-ci augmente lorsque les quarks s’éloignent l’un de l’autre, précisément comme s’ils étaient attachés par une corde, un ressort.
Cette ancienne théorie des cordes, très approximative, était tombée dans l’oubli. On s’est ensuite rendu compte, qu’en changeant notablement la valeur attribuée à la tension, elle pouvait fournir une description quantique de la gravité, et ainsi réconcilier la mécanique quantique avec la relativité générale d’Einstein. C’est ce qui a marqué le véritable début de son succès.
Dans la théorie des cordes, chaque particule est un état spécifique de vibration de la corde. Or l’un de ces modes de vibration correspond au médiateur de la gravité si recherché en physique quantique, la particule de masse nulle et de moment cinétique (ou spin) deux, le fameux graviton. La théorie des cordes nous offre aussi une particule de masse nulle et de spin un, le photon, ce qui caractérise une théorie quantique de l’électromagnétisme.
Cette capacité de la corde à donner des particules de masse nulle et de spin non nul, est d’ailleurs une des raisons de l’abandon de l’ancienne théorie. En effet, ces particules n’appartiennent pas au monde des interactions nucléaires. Mais, quand on réinterprète la corde en termes de photons et de gravitons, (des bosons), plutôt que de protons et de neutrons, (des fermions), la théorie devient beaucoup plus attrayante.
Cependant, une question importante demeure, celle des particules qui ont une masse, comme les quarks. La théorie des cordes définit une échelle intrinsèque de masse très élevée, directement liée à la tension. Au premier niveau d’approximation, les états quantiques possibles de la corde ont, soit une masse nulle, soit une masse absolument énorme. On ne sait donc pas comment expliquer les particules de petite masse, comme décrites dans le modèle standard de physique de particules.
Actuellement, aux faibles énergies, nous savons établir les équations de cette théorie des cordes, mais nous constatons qu’elles admettent une multitude de solutions. Certains physiciens pensent que cette multiplicité pourrait impliquer que plusieurs mondes soient possibles. L’un d’eux serait le nôtre, et nous cherchons donc à retrouver notre modèle standard de la physique des particules à partir de la solution spécifique correspondante.
Tant que l’on restera dans le contexte traditionnel de trois dimensions d’espace perceptibles, (plus celle de temps), les solutions aboutiront toutes à des mondes « particulaires », où des interactions lient des particules via un échange d’autres particules, même si ce ne sont pas exactement les mêmes forces ni les mêmes particules. Aux très hautes énergies, proches de celles du Big Bang, le problème est différent. Nous ne connaissons pas les équations exactes, et nos premières pistes théoriques sont très préliminaires.
Notre description de la physique pourrait cependant faire appel à des concepts complètement différents où les notions mêmes d’espace et de temps deviendraient inutiles.Dans notre actuelle théorie des cordes, l’espace comprend dix dimensions, neuf d’espace et une de temps. Nous n’en percevons pourtant que trois, soit parce que les dimensions supplémentaires sont trop petites pour être perceptibles, soit parce qu’elles sont vraiment très grandes.
Dans ce second cas, notre Univers serait un sous-espace à trois dimensions,
(que nous nommons 3D-brane), auquel nous serions « collés ».
Les
six dimensions d’espace supplémentaires aux trois dimensions usuelles
constituent ce que nous appelons l’espace interne. La géométrie de cet espace,
(sa forme et sa taille, respectivement caractérisées par une topologie et une
métrique), conditionne la physique que nous observons dans notre habituel
espace tridimensionnel, où, par exemple, certains nombres caractérisant la
topologie sont liés au nombre de familles de quarks.
Dans la « théorie M », que nous exposons plus loin, les particules élémentaires de la physique ne sont donc pas représentées par des billes, mais par des cordes extrêmement petites (100 milliards de milliards de fois plus petites qu’un noyau d’hydrogène) évoluant dans un espace étrange à 10 ou 26 dimensions, et pouvant vibrer à différentes fréquences.
Mais, la plupart des effets spécifiques des cordes ne se manifesteraient qu’à des énergies colossales (autour de 1028 électronvolts). Il n’y a alors que trois grandes voies pour tenter de vérifier ou d’invalider la théorie.
La première consiste à la développer jusqu’au bout. Elle prédit l’existence de particules problématiques, comme le dilaton, un compagnon théorique du graviton, lui aussi de masse nulle en première approximation. L’échange de dilatons créerait une force qui briserait l’universalité de la chute libre (Deux corps soumis à la pesanteur chutent à la même vitesse). Si l’éventuel dilaton n’a pas de masse, la théorie sera invalidée. Dans cette recherche, les mathématiques à considérer sont toutefois extrêmement complexes, et si cette piste devait aboutir un jour, ce ne serait sans doute pas avant 10 ou 20 ans.
La deuxième voie consiste à considérer l’Univers primordial comme notre plus puissant accélérateur. Les températures et les énergies en jeu étaient alors gigantesques. Si la théorie des cordes arrive à modéliser l’Univers primordial, ses prédictions seront vérifiables, et pourront aider la cosmologie à résoudre certains de ses problèmes, comme la singularité du Big Bang. De gros progrès théoriques restent à réaliser aux très hautes énergies, mais sur le plan observationnel, nous avons les outils nécessaires.
La dernière voie possible dépend de la taille des dimensions supplémentaires prédites par la théorie des cordes. Si elle est très supérieure à l’échelle de Planck (10–33 centimètre) ce qui est improbable, nous serons peut-être en mesure d’observer leurs effets au LHC (Large Hadron Collider de Genève).
Si elle était vérifie, la théorie des cordes permettrait d’atteindre une compréhension fondamentale de la nature. Celle-ci repose aujourd’hui sur deux piliers incomplets. D’une part, la relativité générale, une théorie de la gravitation. D’autre part, le modèle standard de la physique des particules, qui décrit les trois autres interactions à partir d’une petite sous-classe des théories quantiques des champs : les théories de jauge.
Si la nature est constituée de cordes, on retrouve à la fois cette sous-classe et la gravitation, le tout dans un contexte cohérent et complètement quantique. L’’intérêt pour la théorie des cordes est donc justifié. Elle en est encore à un stade trop précoce pour que l’on puisse affirmer qu’elle décrit bien la nature, et il ne faut pas tout miser sur cette seule voie. Fascinante à l’origine, la théorie des cordes perd pourtant un peu de sa crédibilité au fil des années, car les scientifiques réalisent bientôt qu’ils ont élaboré cinq versions de la théorie d’unification, impliquant cinq univers différents.
Cependant, en 1995, Edward
Witten de l’université de Princeton montre que ces cinq versions ne sont que
cinq points de vue différents d’une seule et même théorie, qu’il appelle la théorie M. dans celle-ci, un
remaniement des équations décrit un Univers non plus à dix, mais à onze
dimensions.
Si la théorie initiale des cordes basiques
considère que seules 3 dimensions spatiales nous sont accessibles (les autres
sont repliées sur elles mêmes et donc trop petites pour l’être), cette théorie M en accepte une 4ème implication
: la structure de notre univers ressemblerait à une membrane souple (la brane)
et autorisant la présence d’autres branes évoluant en parallèle à la nôtre.
Cette théorie s’appuie sur le mystère de la matière noire, une matière encore inobservable mais dont on constate pourtant les effets, et qui l’essentiel de notre univers (près de 90%). La théorie suppose que la matière noire serait la matière composant des branes parallèles voisines dont les effets gravitationnels agiraient sur notre univers.
Il serait ici inclus dans une gigantesque onzième dimension, l’espace externe, un ensemble extérieur bien plus vaste, comprenant d’autres univers parallèles voisins (appelés membranes ou branes), comptant chacun entre zéro et dix dimensions.
L’Univers serait situé sur une 3D-brane, que pour simplifier, on appelle simplement brane. Cette brane, ou plus précisément, l’univers constituant ce brane, flotterait donc librement dans un super-univers constitué d’immenses dimensions supplémentaires.
Toutes les galaxies contenues dans l’Univers et toute la lumière qui en nous parvient font partie de cette « brane » et ne peuvent en sortir, hormis, (peut être), la gravitation. Car, dans la théorie M, la gravitation, « verrait, si l’on peut dire » toutes les dimensions de l’espace-temps total.
La Théorie M décrit donc le réel comme un Super Univers aux multiples dimensions, une entité absolument gigantesque dans laquelle flottent d’immenses voiles appelées branes, et composées d’innombrables galaxies, donc, en fait, des univers locaux différents aux caractéristiques particulières, dont le nôtre. La seule gravitation relierait ces branes entre elles.
En ce qui nous concerne, nous serions donc localisés dans un feuillet interne d’univers (comportant quatre dimensions visibles, ainsi que peut-être d’autres microscopiques), totalement hermétique aux autres feuillets.
« Pas totalement »,
nuance cependant Gabriele Veneziano. Il envisage que, sauf les gravitons,
toutes les particules élémentaire sont bien des cordes ouvertes dont les
extrémités sont accrochées à notre brane, (et donc captives). Les gravitons
sont différents car ils sont, eux seulement,
des cordes fermées sur elles-mêmes, donc plus libres et capables de gagner d’autres univers, et donc, de
les influencer. Rappelons que
Stephen Hawking approuvait l’idée du Multivers et qu’il. Pensait même qu’il était
possible depuis notre Univers de détecter ceux qui coexistent avec le nôtre.
Grâce au Large Hadron Collider (LHC), le plus puissante des accélérateurs actuels de particules, les physiciens parviendront peut-être, à partir d’un bilan énergétique après collisions, de constater un éventuel manque de l’énergie. Ce serait la preuve que des gravitons se sont échappés dans un ailleurs différent.
Mais, semble dire Brian Greene,
avec ce même LHC, les physiciens espèrent également prouver l’existence de la
super-symétrie. Entre autres étrangetés, la théorie des cordes prévoit aussi
qu’il existerait, pour chaque particule, une particule apparentée, de même
charge mais dont la masse et le spin différent. Au quark correspondrait ainsi
le squark, au photon, le photino, etc. Les auteurs de science-fiction, dit-il,
devront beaucoup travailler pour inventer des mondes plus étranges que la réalité
décrite par la Théorie M.
Le
mystérieux Trikster
nous taquine
encore
Car une nouvelle sous particule, un « tétraquark » a récemment étonné les physiciens des particules. Le LHC de Genève a peut être trouvé un nouveau boson, mais il est rarement accessible et les chercheurs doivent rechercher des équipements plus disponibles.
Ils se sont en particulier intéressés aux données inexploitées recueillies par son prédécesseur, le Tevatron qui était aussi un instrument très performant. Et, ils annoncent y trouvé la possible découverte d’un nouveau hadron exotique, un tétraquark, dont le taux de production est anormalement haut de plusieurs ordres de grandeur.
Le Tevatron était un accélérateur circulaire de particules du Fermilab, situé à Batavia dans l’Illinois aux USA. C’était le deuxième plus puissant collisionneur au monde, avant le LHC de Genève. Sa construction, fort coûteuse, (120 millions de dollars), s’est achevée en 1983, et il fut ensuite régulièrement amélioré. L’amélioration la plus importante a concerné l’injecteur principal, construit de 1994 à 1999, pour le coût énorme de 290 millions de dollars. Le Tevatron a néanmoins été fermé le 30 septembre 2011, faute de crédits et de la trop forte concurrence du LHC2.
Le Tevatron du Fermilab, est pourtant un instrument fort performant. Il fait partie d’un système complexe composé de cinq accélérateurs qui peuvent travailler en série en accélérant les particules les uns à la suite des autres.
Le premier de la chaine est un pré accélérateur Cockcroft-Walton de 750 keV qui ionise un gaz d’hydrogène et accélère les ions hydrogène négatifs.
Ceux-ci passent alors dans un accélérateur linéaire de 400 MeV.
Puis, les protons sont séparés des noyaux d’hydrogène et injectés dans le synchrotron nommé Booster de 8 GeV.
Les protons sont ensuite injectés dans l’injecteur principal qui les accélère jusqu’à 150 GeV.
Pour produire des antiprotons, les protons de l’injecteur principal sont dirigés vers une cible en nickel, puis sont refroidis et réinjectés dans l’injecteur principal.
En effet, les protons et les antiprotons, une fois accélérés à 150 GeV, peuvent être réinjectés en sens inverse dans le tévatron. Les protons et les antiprotons sont accélérés par le tevatron jusqu’à 0,98 TeV et produisent des collisions de 1,96 TeV au niveau des détecteurs Collider Detector at Fermilab (CDF) et DØ experiment (DØ). Ils peuvent également être utilisés pour d’autres expériences, via des collisions sur des cibles fixes.
Ainsi, le 2 mars 1995, des chercheurs du Tevatron avaient annoncé la découverte du quark top1 dont la recherche avait été lancée en 1977, (sa découverte avait tardé en raison d’une masse plus importante qu’attendue).
Ce quark top1 a une très faible durée de vie, et il est impossible de le détecter directement. Ce n’est que grâce aux particules créées par sa désintégration ou quand il interagit avec d’autres particules, que son existence peut être détectée.
Quoique le Tevatron américain ait du laisser la place au LHC dans la chasse au boson de Higgs, et en dépit de son arrêt en septembre 2011, il est encore paradoxalement capable de permettre des découvertes car toutes les données qu’il a collectées restent disponibles.
Les chercheurs continuent à dépouiller ces données tout en raffinant leurs méthodes d’analyse. Leurs recherches portent évidemment sur les informations concernant les particules créées dans des collisions de faisceaux de protons et d’antiprotons.
Et, plus précisément, il apparaît maintenant que la campagne expérimentale menée de 2002 à 2011 a permis de faire la découverte d’un nouvel hadron exotique. On entend par là une nouvelle particule qui, bien que décrite par les équations de la chromodynamique quantique (QCD), ne rentre pas facilement dans le modèle des quarks initialement développé au cours des années 1960 par Murray Gell-Mann et George Zweig. Dans le cadre théorique initial, il semblait naturel de ne considérer que des particules formées de paires ou de triplets de quarks.
On avait cependant fini par considérer qu’il pouvait exister des hadrons exotiques formés de quatre et même cinq quarks, (des tétraquarks et des pentaquarks). Ces objets sont restés longtemps hypothétiques mais l’on considérait que plusieurs exemples de ces particules avaient pu être découverts sous la forme de ce que l’on avait appelé des mésons XYZ.
Le nouvel hadron a été baptisé X(5568), pour indiquer que sa masse, en unité d’énergie, est de 5568 MeV. Tout semble indiquer qu’il est composé de quarks u et b, ainsi que d’antiquarks d et s et donc qu’il s’agit d’un tétraquark. Si la découverte est confirmée, il s’agirait bien du premier hadron du genre, avec quatre types de quarks (on parle de saveurs et il y en a 6) différents.
Mais on a encore quelques incertitudes concernant sa structure. Plutôt que sous la forme de quatre quarks formant une seule particule, on pourrait être en présence de deux mésons, contenant des paires de quarks et d’antiquarks, formant donc l’équivalent d’une molécule dans le monde des hadrons.
Alors que certains tétraquarks et pentaquarks cités précédemment contenaient une paire de quark et d’antiquark dit charmés pouvant constituer une sorte de cœur central. il n’en est pas de même ici car tous les quarks sont différents. Cela signifierait, selon les théoriciens, que la présence d’un tel cœur ne peut être invoquée pour expliquer l’existence de ces hadrons exotiques. On a donc bien du mal à décrire ce qui peut se passer à l’intérieur de tels hadrons d’autant que les calculs en chromodynamique quantique sont extrêmement compliqués. Il reste donc encore beaucoup de choses à comprendre dans le cadre de la physique du modèle standard.
Les chercheurs demeurent perplexes devant l’écart entre le calcul prévisionnel des taux théoriques de production des hadrons X(5568) et ce que donnent leurs mesures. L’écart serait de plusieurs ordres de grandeur. Il se pourrait alors qu’il s’agisse de l’expression d’une nouvelle physique. Mais les membres de la collaboration LHCb qui ont aussi recherché X(5568) sont revenus bredouilles et mettent en doute son existence même.
Et puis, il y a maintenant la fameuse et récente découverte des ondes gravitationnelles. Elle n’est pourtant pas tellement récente pourtant, car sa découverte indirecte en est ancienne. Les ondes gravitationnelles avaient déjà découvertes depuis longtemps, en étudiant les variations de période orbitale dans le système binaire de Hulse-Taylor, un pulsar tournant autour d’une étoile à neutrons.
La
variation de période orbitale observée était expliquée correctement par l’émission
d’ondes gravitationnelles, d’où l’attribution d’un prix Nobel en 1993. La
détection d’ondes gravitationnelles avait donc déjà eu lieu. Leur histoire commença en 1916 lorsque Albert Einstein essaya d’imaginer comment formuler le
champ gravitationnel dans la nouvelle théorie de la gravitation qu’il était en
train de construire, (la théorie de la relativité générale). L’article qu’il
écrivit alors contenait pourtant une erreur qu’il ne corrigea qu’en 1918. Les
ondes gravitationnelles sont l’un des fondements de sa théorie dite « de
la relativité générale ». La théorie postule que tout corps qui se déplace
provoque une déformation de l’espace-temps. Elle modifie à la fois les distances
et le temps, et cette déformation se propage dans l’univers en ondes
successives, à la vitesse de la lumière comme une vague à la surface de l’eau.
Il
faut de véritables cataclysmes cosmiques pour que se produisent des ondes
détectables, comme la formation d’une étoile dans un trou noir, l’explosion d’une
supernova ou la collision de deux étoiles à neutrons. Aucune de ces ondes
n’avait jusqu’ici été détectée directement, et cependant, les scientifiques continuaient à les rechercher fort activement.
Actuellement, deux laboratoires s’y consacrent, Virgo, à
Pise sous l’égide du CNRS et de l’Institut italien INFN, et Ligo de la
National Science Foundation aux USA. Virgo
et Ligo ont d’ailleurs contracté un accord pour mettre en commun leurs
données.
En septembre 2015, les interféromètres américains ont
affirmé avoir capté directement des signaux fort éphémères, (une courte
fraction de seconde), résultant de la fusion de deux trous noirs géants
situés à environ un milliard d’années-lumière de la Terre. Les perspectives
qu’ouvre cette découverte sont immenses : Sonder par exemple l’énergie
noire, la force étrange qui expliquerait
l’expansion de l’Univers, ou explorer le cosmos en remontant son passé
jusqu’à 14 milliards d’années.
Les physiciens auraient donc capturé le signal émis par des
ondes gravitationnelles, mais ils auraient aussi observé, et cela pour la
première fois, la fusion de deux trous noirs. Ce serait la preuve de
l’existence de ces ogres dévoreurs de lumière, qui détiennent peut-être le
secret de la naissance de notre Univers.
On pourrait continuer longtemps à exposer toutes les avancées de connaissance qui explosent actuellement dans toutes branches des sciences. D’immenses progrès sont en cours dans toutes les disciplines.
Nous allons plutôt choisir de revenir aux débuts de notre discours, pour retrouver d’autres développements de l’expérience connue sous le nom de « Double slit experiment », l’expérience de la double fente d’Young qui a encore bien des choses à nous apprendre.
Une équipe de chercheurs dirigée par le physicien Andrew Truscott (Université Nationale d’Australie à Camberra, Australie) a mené une expérience qui semblerait montrer que c’est bien le fait de décider d’observer, (ou de ne pas observer), une particule, (et même un atome), qui influe effectivement sur sa nature. Il nous faut d’abord rappeler ici ce que nous avons précédemment exposé.
Dans la description du monde proposée par la physique quantique, une particule peut se comporter, soit comme une onde immatérielle, soit comme une particule matérielle C’est la célèbre dualité onde particule Si on ne l’observe pas, elle se comporte comme une onde immatérielle, mais elle devient particule matérielle quand on l’observe.
Or, A. Truscott et ses collègues ont mis au point un procédé permettant d’émettre des atomes d’hélium un par un, en orientant ensuite chacun de ces atomes vers une bifurcation ouvrant sur un itinéraire déterminé ou sur un autre. C’est l’émission de rayons laser qui agit ici comme une « grille », capable de dévier chaque atome dans l’une ou l’autre direction, un dispositif d’aiguillage assez complexe que je résumerai plus loin pour lequel le mot « grille » n’est pas adéquat.
Remarquez bien ici que cette expérience portait sur des atomes matériels (en l’occurrence de l’hélium), et non pas sur des photons, (de simples particules), comme dans les premières expériences de Young.
Le but initial de l’expérience de Truscott était d’amener ces atomes d’hélium isolés à se comporter soit une onde, en passant donc par les deux itinéraires en même temps (comme une vague marine qui heurte un pylône, continue ensuite sa course en passant simultanément par les deux côtés), soit comme une particule, en passant sélectivement par un seul des deux itinéraires proposés. Á cette phase préparatoire de l’expérience, les chercheurs ont constaté que les atomes isolés passaient par un seul de ces deux itinéraires, (l’un où l’autre, non pas les deux comme le fait une onde), se comportant donc fort classiquement comme des particules matérielles.
Mais, dans sa configuration spécifique finale, l’expérience en question faisait ensuite intervenir un dispositif complémentaire, (en l’occurrence l’adjonction d’une seconde « grille » de rayons laser), dont l’effet était de réunifier les deux itinéraires séparés.
L’activation de cette seconde « grille » était aléatoirement décidée après, (et seulement après), le passage de chaque atome au delà de la bifurcation et ses deux itinéraires (la première « grille » de rayons laser). Normalement, (et logiquement), l’activation aléatoire de cette seconde grille laser n’aurait pas du influencer le comportement des atomes qui, jusqu’alors, se comportaient banalement comme des particules en passant par l’un seulement, ou par l’autre, des deux itinéraires.
Ce n’est pourtant pas ce que les faits ont montré. L’ajout de la deuxième grille a eu un effet imprévue et déconcertant : un phénomène évident d’interférence a été observé.
Cela semblait signifier que les atomes étaient passés non pas par l’un ou l’autre des deux itinéraires proposés, mais par les deux en même temps. Ilse seraient donc comportés comme une onde, et non plus comme une particule.
L’ajout du deuxième dispositif laser aurait donc « changé » la nature des atomes d’hélium, ces derniers cessant de se comporter comme des particules, (leur nature au début du trajet), pour se comporter comme des ondes (au delà de la grille). Il faut bien comprendre la portée du phénomène constaté. En effet, l’expérience suggère que bien le fait d’avoir « mesuré ou contrôlé » a posteriori le comportement passé des atomes qui a modifié leur nature. Ces atomes matériels auraient-ils donc remonté le temps ?
« Les atomes n’ont pas voyagé d’un point A à un point B, explique A.Truscott. Ce n’est que lorsqu’ils ont été mesurés à la fin de leur trajet que leur état ondulatoire ou leur état particulaire a été révélé. La grande leçon de l’expérience, dit il, est que nous ne pouvons pas appliquer notre intuition classique aux systèmes quantiques car ils ne reconnaissent pas les idées humaines telles que le passé ». « L’expérience dit qu’il y a certaines choses, telles que la trajectoire suivie par une particule, que l’on ne peut pas prévoir, On ne peut pas parler de la probabilité que la particule soit dans un endroit particulier à un moment donné. ».
Joan Vaccaro, un physicien quantique à l’Université Griffith, dit une grande partie de la confusion se pose parce que les gens insistent sur la description des objets quantiques comme des particules ou des ondes. Elle suggère de ressusciter après 90 ans idée de la Colombie-physicien Sir Arthur Eddington: « Il avait inventé le terme « wavicle « pour donner aux systèmes quantiques un nom différent, au lieu de se référer à eux comme étant soit particule ou vague ».
Pour Ionicioiu, étudier la mécanique quantique est comme entrer dans un autre monde, « Un monde avec des règles différentes.» Et il cite Richard Feynman, un étudiant de doctorat de Wheeler, qui a dit dans ses conférences sur la physique: « Le paradoxe n’est qu’un conflit entre la réalité et notre sentiment de ce qu’elle devrait être ».
Revenons cependant à l’expérience de Truscott, où tout s’est en fait passé comme si, en définitive, la réalité matérielle n’existait pas vraiment jusqu’à ce qu’elle soit mesurée par un observateur.
Notez que ces travaux ont été publiés le 25 mai 2015 dans la revue Nature Physics, sous le titre « Wheeler’s delayed-choice gedanken experiment with a single atom ».
L’objet de l’expérience peut sembler complexe, disait Truscott, mais elle tente seulement de résoudre une question simple. Si un objet qui peut se manifester soit sous la forme soit de particule, soit d’onde, à quel moment précis cet objet a-t-il la capacité d’en décider ?
La logique voudrait que dans l’absolu, l’objet soit sous forme d’onde ou de particule du fait de sa nature propre, et que nos mesures soient sans aucun rapport avec cette nature.
Mais selon la théorie quantique, le résultat dépend de la façon dont l’objet est mesuré à la fin de son voyage. Et c’est précisément ce qu’a découvert l’équipe de l’Université nationale d’Australie.
« Cette constatation prouve que la procédure de mesure est capitale. Au niveau quantique, la réalité n’est rien d’autre qu’une illusion tant que vous ne l’observez pas », a déclaré Andrew Truscott, chercheur et physicien principal lié à ce projet, dans un communiqué de presse.
Serait-il donc possible, « au moins pour les atomes individuels de matière », de remonter le temps. Les physiciens de l’Université nationale australienne ont ainsi confirmé l’une des hypothèses les plus avancées de la physique quantique, en montrant que des actions présentes semblaient pouvoir affecter les événements passés. Remarquez cependant que je mets pour l’instant l’essentiel de mes phrases au conditionnel.
En fait, A. Truscott et son équipe ont montré que si l’on offre deux chemins possibles à un atome d’hélium accéléré, la route qu’il prend semblerait être rétroactivement déterminée par le fait consistant à examiner l’atome à la fin de son voyage.
L’équipe a d’ailleurs signalé son étrange découverte dans Nature Physics. « C’est un fantastique tour de force expérimental », a dit Radu Ionicioiu, physicien du Horia Hulubei Institut national de Bucarest pour la physique et de génie nucléaire. « Mais comment l’interpréter? Si vous demandez à 10 personnes, vous aurez 11 avis. ».
Nous avons déjà vu que les particules quantiques telles les photons ont aussi une double apparence. Les photons se comportent parfois comme des particules, en rebondissant contre un obstacle, mais ils peuvent aussi se comporter comme des ondes. Et, étrangement, c’est l’observateur qui semble déterminer l’aspect qu’adopte actuellement un photon. Si on en contrôle l’ondulation, il se comporte comme une onde, et si l’on en attend un comportement de particule, c’est alors sous cet aspect qu’il se manifeste.
Radu Ioniciou résume ainsi le paradoxe: « La question est : Comment la même chose peut se comporter dans les deux sens, en fonction du genre de question que vous posez ? »
Rappelons qu’à la fin des années 1970, John Wheeler, l’un des géants de la physique du 20e siècle, en approfondissant la théorie, avait réalisé qu’un comportement réellement quantique de la particule impliquait une possibilité extrêmement étrange, à savoir que la présence d’un observateur semblait influencer le comportement d’un photon dans le passé de son voyage temporel.
En 1978, Weeler avait d’ailleurs conçu une expérience théorique qu’il avait appelée « delayed-choice thought experiment », en français « choix retardé ». Il proposait d’émettre un photon en lui offrant une sorte de « choix », c’est-à-dire la libre possibilité de se comporter comme une particule ou comme une onde. Le photon serait « mesuré » plus tard pour connaître quel choix il avait fait.
Wheeler avait alors imaginé d’envoyer un photon vers un carrefour, réalisé avec un miroir semi réfléchissant, (donc à deux voies). Il pensait qu’en recombinant ensuite les deux voies avec un second miroir disposé plus loin sur le trajet, cela devrait rétroactivement déterminer le chemin pris par le photon au carrefour. Il avait émis l’hypothèse que quand l’expérimentateur recombinerait les chemins, le photon se comporterait comme une particule solide, en passant par un seul des chemins. Mais quand l’expérimentateur NE les recombinerait PAS, le photon agirait alors comme une onde. Quand une vague pénètre dans un canal en forme de fourche, elle se divise et l’ondulation progresse à la fois sur les deux chemins. En principe, le photon devait faire de même.
Lorsqu’elle fut imaginée, en 1978, l’expérience théorique de Wheeler semblait irréalisable, et même impossible, en raison de la vitesse de la lumière, car elle impliquait que l’on puisse intervenir sur l’appareil pendant que le photon était en vol. La chose devint finalement possible et fut en fait réalisée en 2007 quand une équipe française réussit à construire un cheminement de 48 m de long pour le faisceau de lumière. Cela permettait enfin de disposer de juste assez de temps pour commuter l’équipement après que le photon ait dépassé les carrefours de miroirs, mais avant qu’il ait atteint les détecteurs.
Les physiciens de Truscott ont aujourd’hui repris la même expérience, à un niveau différent et avec d’autres moyens (en particulier matériels et statistiques). Ils ont finalement montré que l’expérience de Wheeler fonctionne non seulement avec des photons de lumière immatériels, (les photons sont des bosons), mais aussi avec des atomes individuels de matière, confirmant ainsi que l’on peut également démontrer la dualité onde particule pour des atomes isolés.
Le dispositif imaginé par Truscott et son équipe pour réaliser cette expérience, était extrêmement sophistiqué. Il consistait à isoler d’abord environ un millier d’atomes d’hélium en les immobilisant avec des lasers, puis à les refroidir à un milliardième de degré au-dessus du zéro absolu. Á l’époque actuelle, les physiciens savent parfaitement manipuler, ralentir et immobiliser des photons de lumière dans des structures particulières, ( des condensats de Bose-Einstein ), et ils pensaient que des structures analogues pouvaient être réalisées et utilisées avec des atomes matériels, comme de l’hélium superfluide.
Maintenant, on sait aussi refroidir des gaz à moins d’un millionième de degré du zéro absolu en immobilisant leurs atomes à l’aide de lasers et de champs magnétiques. Les atomes de certains gaz adoptent alors tous un même état quantique collectif, comme une sorte d’onde quantique géante, (C’est aussi cela qui est appelé condensat de Bose-Einstein), des objets quantiques modèles très utilisés en physique.
On s’en sert dans les laboratoires d’optique quantique et de physique atomique pour simuler certaines situations complexes dans les solides, ainsi que pour étudier certaines propriétés quantiques fondamentales, non seulement comme celles de l’hélium superfluide mais aussi celles de matériaux placés dans des champs magnétiques élevés, (les supraconducteurs par exemple).
Dans le piège optique et glacé de Truscott, les atomes du pack, sont bombardés par des lasers, et s’échappent un à un. Cet atome isolé est ensuite dévié par des impulsions laser qui les poussent dans un dispositif qui offre un choix égal entre deux chemins, (un système magnétique utilisant une différence de phase réglable). C’est l’équivalent des miroirs de Wheeler. Ayant, à ce stade, pris un chemin unique déterminé, l’atome est, en principe, en l’état de particule.
Après ce premier « séparateur », les chercheurs se sont donné la possibilité d’appliquer ou non une seconde impulsion avec un second laser, afin de recombiner les deux états possible (et même de créer des états mixtes, comme celui formé par l’addition des deux ondes ou celui formé par leur soustraction), en utilisant un générateur quantique de nombres aléatoires pour appliquer l’impulsion laser finale. Il devenait donc impossible de prédire lequel des deux chemins l’atome allait emprunter. Les expérimentateurs ont longuement répété l’expérience, en faisant largement varier la différence de phase entre les faisceaux.
Truscott et son équipe ont alors constaté que, lorsque la seconde impulsion laser n’était pas appliquée du tout, la probabilité de la présence de l’atome détectée dans chacun des états du moment était de 0,5, quel que soit le retard de phase entre les deux déflecteurs. Cela signifiait que les atomes choisissaient chacun des deux chemins possibles dans des proportions égales, ce qui était en conformité avec ce qui se passe pour les photons.
Cependant, l’application de la deuxième impulsion intervenant après que l’atome soit engagé dans un chemin déterminé, (parmi les deux possibles), a modifié les choses en produisant une résultante sinusoïdale d’interférence.
Lorsque les ondes appliquées au séparateur étaient parfaitement en phase, elles ont interféré de manière toujours constructive, en produisant constamment l’état formé par leur addition.
Mais, lorsque les ondes étaient en opposition de phases, elles ont interféré de façon toujours destructive en reproduisant régulièrement l’état formé par leur soustraction.
Ce résultat a une signification extrêmement importante. Cela signifierait qu’accepter notre interprétation intuitive classique, (les particules voyagent sur des chemins bien définis), implique que nous acceptions aussi que ce renversement puisse avoir une causalité temporellement rétroactive.
« Je ne peux pas prouver que ce n’est pas ce qui se passe», disait Truscott, « Mais 99,999% des physiciens diraient que : La mesure, (en fait, la mise en action ou pas du re-combinateur de faisceau), contraint l’observable à passer dans la réalité, et à ce moment la particule décide d’être une onde immatérielle ou une particule matérielle ».
En fait, deux interprétations, tout autant étranges que fantastiques, peuvent être tirées des résultats étonnants des expériences de Truscott.
Dans l’une, ils montreraient que l’état de la particule demeure fort probablement indéterminé entre l’aspect d’onde immatérielle ou celui de particule matérielle jusqu’à ce que la mesure soit effectuée. Ce serait donc la mesure volontaire, (la volonté de l’expérimentateur), qui déterminerait l’aspect final.
L’autre option, encore moins probable, serait celle d’une rétro causalité, la particule ayant alors reçu des informations provenant de l’avenir, (mais cela impliquerait l’envoi d’un message plus rapide que la lumière, ce qui est interdit par les règles de la relativité).
Les scientifiques australiens ont confirmé que les prévisions bizarres de la physique quantique concernant la nature et la réalité, montrent que la réalité n’existe pas réellement jusqu’à ce que nous la mesurions, du moins, pas à très petite échelle.
Mais cela soulève la vraie question : Qu’est ce qui détermine pourquoi et quand un photon, un électron ou même un atome doit se comporter comme une onde ou comme une particule ? (Ou bien : quoi ? Ou même qui ?).
Comment exprimer, sinon de façon follement anthropomorphique, comment ces choses « décident », si l’on peut dire, de la forme qu’elles adoptent dans une situation ou à un moment donné?
La réponse dominante type en mécanique quantique est de considérer que c’est quand une mesure est prise que la « décision » a lieu, et donc, si j’ai bien compris, que c’est la volonté de l’expérimentateur qui est le fait déclenchant.
Personnellement, cela me semble être une vaine échappatoire pour éviter une question encore bien plus troublante : Les « objets » traversant les dispositifs expérimentaux « savent ils ? » qu’ils ont observés. Autrement dit : Quel est leur degré de conscience ?
8 Le champ est l’unique réalité
Quel est donc le degré de conscience des « objets » traversant les dispositifs expérimentaux ? Savent ils qu’ils ont observés ?
Nous avons eu, au fil des pages précédentes, des éléments de réponse à cette interrogation troublante. Souvenez vous de ce que vous avez lu dans les précédents chapitres. Dans les alinéas suivants, je ne fais que reprendre des éléments déjà rencontrés dans cet ouvrage.
« Comprenons bien, vous ai-je dit, que le percept est toujours un objet purement mental. Il ne fait pas de véritable référence à la chose réelle, mais il en signale la présence, en particulier par référence au connu. L’objet mental n’est jamais que la représentation interne électrique de l’objet externe observé et il n’en demeure toujours qu’une image. Il faut absolument comprendre que ces images sont créées dans notre cerveau. Elles sont intérieures et la réalité extérieure est différente. ».
« Nous avons appris qu’il nous ne pouvons pas découvrir l’Univers au présent, nous le voyons toujours au passé. Nos connaissance ne sont que des théories, des images du Monde réel, des objets mentaux issus de cerveaux humains, et il nous faut en accepter une formulation très humble et bien modeste : La véritable nature de l’Univers nous échappe totalement. ».
« Il semblerait que la conscience crée en partie la réalité. Dans le cadre cité de l’étude des corpuscules, l’observateur n’a donc pas un rôle neutre et on constate que l’appareil de mesure influence le résultat. Nous savons bien ce qu’est la particule, à la source, lorsqu’elle est créée, et nous savons ce qu’elle est, à l’arrivée, quand elle est enregistrée par les détecteurs. Mais nous n’avons aucune idée de ce qui se passe entre temps. Nous ne savons pas décrire cela dans notre langage habituel. ».
« On
doit logiquement conclure que notre géométrie macroscopique est définitivement
inadaptée et incompétente à l’échelle de l’atome, et de toute particule
élémentaire. ».
« Le noyau atomique est très compact, cent mille à
un million de fois plus petit que l’atome lui-même (10-15).
Les électrons sont ponctuels, ils n’ont pas de dimension. On les considère
comme des points géométriques de rayon quasi nul, (plus petit que 10-18).
La mécanique ondulatoire propose un nouveau modèle de l’atome dans lequel
les électrons ne sont plus des billes localisées en orbite, mais des nuages de probabilité de présence dans cette zone. Mais personne ne
peut dire ce que signifient ces mots : « Nuage ou Onde de probabilité » ?
« Avec un noyau aussi petit et des électrons ponctuels qui gravitent dans un espace atomique un million de milliard de fois plus grand, on peut considérer qu’un atome est (spatialement parlant) vide. De plus, les particules (les quarks) qui forment en théorie, les protons et les neutrons, sont comme l’électron, des particules ponctuelles, (sans dimension ni volume). Un atome, constitué entièrement de particules sans volume est donc, (géométriquement), entièrement vide ! En théorie, bien sûr. ».
« En résumé, la dure matière serait donc, à l’échelle microcosmique, constituée d’atomes emplis de vide ( !), centrés sur des noyaux fait de sous -articules sans volume ( !), et contenant des nuages probabilistes ( !) d’électrons indiscernables et sans dimension ( !), et de plus ils sont non localisables ( !).
La mécanique quantique est en effet non locale. La notion de non localité des particules induite par la théorie quantique est essentielle, car elle différentie les propriétés de notre monde macroscopique, classique et accessible aux sens, de celles du monde microscopique, quantique, lequel n’est essentiellement accessible qu’aux calculs. ».
Car cette notion de non localité implique évidemment que l’univers est un tout, et ceci s’établit comme un concept absolument fondamental.
Einstein lui-même, malgré ses restrictions, considérerait que la matière est constituée de régions de l’espace dans lesquelles le champ est extrêmement dense. Et dans la nouvelle physique, en effet, il n’y a pas de place pour deux entités, à la fois pour le champ et pour la matière, parce que le champ y est l’unique réalité.
Comprenons que cela signifie que les objets matériels ne peuvent jamais être définis comme des entités distinctes, ni être d’aucune façon dissociés de leur environnement, ce qui implique que leurs propriétés sont constamment en interaction avec l’univers total.
En conséquence, nous devons considérer que chaque objet (au sens le plus large donné à ce terme), n’existe que comme une manifestation locale d’un champ global étendu à la totalité de l’univers. Cela est vrai dans l’infiniment petit, (l’espace microcosmique), comme dans l’infiniment grand, (l’espace macrocosmique).
Le physicien français Alain Aspect, (Professeur à l’Ecole Polytechnique), a démontré que les particules sub-atomiques ne sont pas des éléments séparés, mais des aspects d’un ensemble extrêmement vaste qui leur permet de se manifester de manière corrélée, quelle que soit la distance qui semble les séparer, que ce soit deux centimètres ou deux années-lumière. Nous avons antérieurement évoqué toutes les particularités de cette corrélation.
Les physiciens David Bohm, (Université de Londres), et Karl Pribram, ont manifesté leur accord sur ce point essentiel, et David Bohm, a déduit des travaux d’Aspect que la réalité dite objective n’existe pas. En dépit de sa matérialité apparente, l’univers ne serait qu’un fantasme, un gigantesque hologramme magnifiquement détaillé. (Pour éclaircir ce propos de David Bohm, rappelons simplement que chaque morceau d’un hologramme contient la totalité de l’information originale).
Nous devons donc rejeter la démarche scientifique et analytique classique qui consiste à scinder la chose observée un maximum de parties. L’image de l’hologramme signifie que l’univers ne peut pas être compris de cette manière. Si l’on fragmente une chose constituée comme un hologramme, on n’obtient pas des parties distinctes mais chaque fragment représente la totalité en plus réduit.
David Bohm a même tenu à expliquer sa pensée. Il a proposé l’image d’un aquarium dans lequel nage un poisson. L’image de l’aquarium est transmise par deux caméras, l’une de face, l’autre de côté. En regardant les deux écrans de contrôle, on voit évoluer deux poissons de manière totalement synchrone, et l’on pourrait se demander comment ils se communiquent leurs changements de directions. Selon lui, c’est exactement ce qui se passe quand on observe les particules sous l’angle proposé par Alain Aspect.
Il n’y a pas de transmission d’information mais seulement un niveau différent de réalité. Les particules sub-atomiques nous paraissent distinctes uniquement parce que nous ne percevons qu’une partie de leur réalité. Elles ne sont pas des éléments distincts mais des facettes d’une unité profonde et indivisible comme une image dans un hologramme.
En fait, la réalité de David Bohm ressemblerait à un super hologramme dans lequel le passé, le présent, et le futur, existent simultanément.
Dans un tel univers de nature holographique, où rien n’est vraiment séparé, le temps et l’espace ne sont pas des données distinctes et irréductibles. Des concepts comme la localisation n’ont plus aucun sens. Le temps et l’espace tridimensionnel, doivent être conceptuellement considérés comme des projections d’un agencement plus profond.
L’astronome F. Hoyle pense que : « Les développements actuels de la cosmologie en sont arrivés à suggérer../.. que les situations quotidiennes ne pourraient persister sans les parties éloignés de l’univers, et toutes nos idées d’espace et de géométrie seraient entièrement invalidées si les parties éloignées de l’univers en étaient exclues. ».
Einstein, réaliste et déterministe, restait néanmoins persuadé qu’il existe une réalité objective indépendante de nos observations. Par contre, son ami et contradicteur habituel, Niels Bohr le célèbre physicien quantique danois disait que « la seule réalité sur laquelle nous avons prise consiste dans l’ensemble des phénomènes accessibles à nos sens.
Les lois que nous en tirons ne sont qu’une manière commode et efficace de résumer l’ensemble des faits expérimentaux et d’en effectuer la généralisation vers l’inconnu. La mécanique quantique donne, sous forme probabiliste, la description physique la plus complète du monde que l’on puisse concevoir ».
Niels Bohr soutiendra même que le concept de particule isolée n’est qu’une simple abstraction commode mais sans réelle signification. Le seul fait fondamental auquel nous soyons confronté, est en réalité l’interaction dynamique de tous les phénomènes de l’univers, c’est à dire celui de l’unité de l’Univers.
La physique quantique délaisse donc la notion traditionnelle selon laquelle les « parties élémentaires » du monde en constituent la réalité fondamentale, les divers systèmes étant seulement des figures et des combinaisons particulières de ces parties. Dans la nouvelle physique, rien n’existe séparément et indépendamment. C’est l’interconnexion quantique de l’univers dans son ensemble qui est la réalité fondamentale et ses parties apparemment interdépendantes sont simplement des formes particulières et fortuites à l’intérieur de l’ensemble général.
L’interconnexion quantique de l’univers serait en fait sa réalité fondamentale. Dans cette optique, l’idée même de partie ou de fragment, n’est qu’une décomposition parfaitement conceptuelle, donc un pur objet mental. Si tous les phénomènes physiques sont des modifications à l’intérieur d’un champ où tout est corrélé, la séparation sujet/objet que nous pratiquons dans l’observation du réel devient une simple fiction.
Un physicien comme John Wheeler a fini par dire que le terme « observateur », au sens de la physique classique devrait remplacé par celui de « participant ». Il a précisé l’expression de sa pensée en considérant que : « Le plus important dans le principe des quanta, est que la théorie détruit la notion de monde extérieur à un observateur séparé de lui../.. La mesure modifie l’état de l’électron../.. Pour décrire ce qui s’est produit, il faut rayer l’ancien mot d’observateur et lui substituer le terme de participant. D’assez étrange façon, il faut admettre que cet univers est un univers de participation ».
La théorie quantique conforte cette position : « Le fait que nous parlons d’une particule ou de tout autre élément observé montre bien que nous avons à l’esprit quelque entité physique indépendante qui est d’abord préparée puis mesurée ». L’idée même d’observation d’une entité est « une manifestation de l’interaction entre les processus de préparation et de mesure ».
Pour donner un exemple, (mais seulement un exemple), de la difficulté créée par une perception toujours intérieure à l’objet observé, imaginons que nous tentions de percevoir l’extérieur de notre maison sans jamais pouvoir en sortir. Ca sera une perception évidemment imparfaite, largement imaginaire, mais c’est exactement ce qui se passe quand nous tentons de percevoir la réalité de l’univers dans lequel nous demeurons enfermé.
L’entité « observateur, observation, observé » est un tout qui demeure toujours insécable. Tout ce que nous concevons en observant l’univers est relatif à la conscience que nous en avons. Rappelons ici qu’au final, la représentation que nous en faisons est un objet mental. La théorie quantique se fonde sur le modèle d’une objectivité faible. Elle casse le postulat de l’objectivité forte, préconisé par la physique classique qui dit que la nature possède une réalité objective indépendante de nos perceptions sensorielles et tous nos moyens d’investigation. (Ce qui signifierait que le monde objectif de la physique resterait identique et constant, même sans aucun observateur. ). Or, si l’objectivité forte est un simple postulat fondé sur une illusion, la question de l’objectivité scientifique doit être remise en cause. Ce que nous appelons « science » ne serait que l’expression de la conviction collective des savants de l’époque.
Ainsi, la théorie quantique abolit-elle la notion d’objets séparés en introduisant la notion de participant pour remplacer celle d’observateur ; il devient désormais nécessaire d’inclure la conscience humaine dans sa description du monde qui apparaît comme un tissu de relations mentales et physiques, dont les éléments ne se définissent que dans leur rapport à l’ensemble.
En physique quantique, l’homme n’est plus un simple observateur objectif indépendant. Bien au contraire, il est impliqué dans le monde qu’il observe, au point d’influencer les caractéristiques des phénomènes examinés.
La physique quantique voudrait décrire l’interaction de l’observateur avec le monde mais le réel demeure cependant inaccessible. A son égard, on ne peut que prédire une probabilité d’existence. L’observation n’est jamais vraiment « neutre », car toute mesure influence la grandeur mesurée Il n’y a pas de moi isolé indépendant, tout est interdépendant, et même au niveau de macrocosme, observer, c’est peut être perturber.
Et pourtant, le physicien pense souvent le Monde avec ses propres certitudes, avec l’idée que son concept de temps est le même pour tous les observateurs. Mais il n’y a pas de temps universel commun. L’espace est différent pour tous les observateurs, le temps également, seul l’espace-temps est le même pour tous.
La théorie quantique abolit la notion d’objets séparés et introduit la notion de « participant » pour remplacer celle d’observateur. En physique atomique, nous ne pouvons jamais parler de la nature sans, simultanément, parler de nous-mêmes. Il est désormais indispensable d’inclure la « conscience humaine » dans la compréhension du monde…
La nuance est fondamentale car elle modifie l’image, la représentation que nous pouvons avoir de notre « monde cérébral » à partir du « monde sensible ». Parce que, au lieu d’y être soumis, qui peut être interprété comme une condition irréversible, nous serions sous condition de la connaissance de l’organisation de ces forces, de cette information.
Nous serions un être « conditionnel », conditionné à ce qu’il est capable d’en comprendre.
Qu’est ce que nous appelons la « Réalité » si ce n’est notre propre perception du monde ?
Il n’y a pas de « substance », mais seulement des « particules » qui, en s’associant, véhiculent aussi bien la lumière, l’énergie, l’information, et constituent notre propre corps. Si nous considérons que l’univers est la circulation d’une information depuis son origine, nous sommes cette information dans l’information, et produisant nous-mêmes de l’information, non pas seulement soumis à en recevoir.
On voit qu’à ce niveau, ce n’est plus seulement le secret de la matière que recherche la science, c’est celui de l’information, mais c’est aussi surtout la conscience qui est l’objet véritable de la quête. Certains chercheurs, on va le voir, iront encore plus loin. C’est maintenant l’esprit qu’ils tentent de trouver au cœur de la matière.
Parmi tous ces chercheurs, il nous faut d’abord évoquer ceux que le Pr. Raymond Ruyer a improprement dénommés les « Gnostiques de Princeton », dans le titre un peu racoleur d’un de ses ouvrages, alors qu’eux-mêmes ne se sont jamais identifiés à cette appellation de fantaisie.
La gnose traditionnelle naquit en Méditerranée orientale aux alentours du 1er siècle de notre ère. De nature philosophique, elle se fondait sur la nécessité d’une parfaite connaissance de soi et du Monde. Dans ce contexte, au niveau phénoménal du fonctionnement du monde, elle pouvait aussi être considérée comme une science impliquant un principe divin, nouménal, et universel, fournissant l’énergie motrice à toute existence.
La « gnose de Princeton », de Raymond Ruyer n’a pas cette simplicité. C’est un courant de pensée, une approche bien plus savante qui s’appuie sur toutes les découvertes de la science expérimentale. Elle dédouble cependant le postulat fondamental de la science selon lequel tout est phénomène.
Outre l’envers d’où nous les observons, il existerait un endroit des êtres et des choses que révèle la conscience. Car tout ce qui est vu l’est d’abord en soi et par soi, donc par la conscience ; il est aussi vu hors de soi comme un phénomène qui est la matière, l’objet courant de notre perception.
L’étude des propriétés comportementales des sous particules et des champs essentiels de la matière ont conduit, à Princeton et Pasadena, un certain nombre physiciens (parmi les plus éminents comme Einstein ou Openheimer) à considérer qu’il existe une base, un endroit unique, qui fonde les êtres et des choses. Et, de cet « endroit fondamental », nous ne voyons toujours que l’envers. Comprenons évidemment que cette base est une Conscience cosmique omnisciente.
Ces physiciens, ayant constaté la nature véritablement immatérielle de la Matière et la prépondérance qu’occupe « l’Endroit » de l’Univers par rapport aux apparences de l’Envers « de surface », ont naturellement abouti à la conclusion qu’il n’y a en réalité qu’un acteur ultime : « le Sujet Cosmique », qui est aussi Conscience Cosmique. Il est l’unique réalité ultime des êtres et des choses, et il n’y a ni choses, ni objets séparés, ni corps tels que nous les éprouvons de façon illusoire.
« Le monde est dominé et fait par l’Esprit, dit le professeur RUYER ».
« L’homme, par la science, mais par une science supérieure, transposée peut accéder à l’Esprit Cosmique ».
« L’Esprit, c’est la Conscience Cosmique ».
« L’Esprit constitue la Matière, il en est l’étoffe ».
« La Matière, les corps matériels n’en sont que l’apparence (pour un autre esprit) ou le sous-produit par effet de multiplicités désordonnées ».
« L’Univers est, dans son ensemble et son unité, conscient de lui-même. Il n’est pas fait de « choses », de « corps matériels ». Ses énergies ne sont pas physiques ».
« Tous les êtres sont conscients, signifiants — ou plus exactement pleins de sens — informants et s’informant. Non seulement leur « corps » (leur envers visible) n’est qu’un aspect superficiel pour un « observateur » extérieur à eux, mais ils n’ont pas de corps, ils ne sont pas corps ? »
« Ils sont tout endroit. Ils n’ont un « envers », un corps, que les uns pour les autres. Ils se voient et, se voyant, ils se transforment mutuellement en choses vues »...
« L’existence corporelle n’est jamais qu’une illusion, un sous-produit de la connaissance perceptive ».
« Le monde spatio-temporel est fait de l’intérieur, comme la coquille de l’escargot qui pourtant l’habite. Il est fait par tous les « je » qui y agissent.
« L’Univers spatial est un système d’apparences observées d’une infinité « de points de vue (d’observateurs-sujets). »
« L’espace métrique est une construction intellectuelle qui permet la communication entre les observateurs.
Ces nouveaux Gnostiques se sentiraient d’une certaine façon reliés par une « participation directe » à l’Endroit de l’Univers, c’est-à-dire à la Conscience Cosmique divine. Les Gnostiques de Princeton insistent précisément sur le fait que les molécules ou les infusoires « s’entendent beaucoup mieux à leurs propres affaires que la plupart des êtres humains ».
Dans son livre, Raymond RUYER s’élève contre le préjugé de l’inintelligence des constituants ultimes de la matière ou du caractère vague et confus de ces derniers, et il s’efforce d’élargir le concept d’intelligence en déclarant : « Un chien est aussi intelligent qu’un homme, un infusoire aussi intelligent qu’un chien, une molécule aussi intelligente qu’un infusoire ».
« Par « intelligent » nous entendons trop souvent, dit-il, non pas un être qui s’entend à ses propres affaires mais un être qui pourrait comprendre les nôtres, et, dont nous pourrions nous-mêmes comprendre les affaires ».
« La thèse de l’universalité de l’intelligence doit être prise à la lettre, et elle s’oppose à l’idée radicalement fausse…/…d’un psychisme inférieur, vague, affaibli, évanescent, à mesure qu’on s’éloigne de l’intelligence humaine vers les formes inférieures de la vie ».
« La conscience intelligence d’un Infusoire, d’un végétal, d’une macromolécule, il n’y a aucune raison de la considérer comme plus vague, plus confuse que celle d’un technicien aux prises avec un problème technique. L’infusoire ou la molécule travaille sur les données de ses propres édifices moléculaires ou atomiques, sur les parties présentes de son champ d’auto-vision ».
Pour les Gnostiques, dont la
majorité sont des physiciens, ce « champ d’auto-vision dans son unité » est
l’expression directe de la Conscience Cosmique formant l’essence ultime du
monde matériel.
Dans ce chapitre, nous allons un peu changer de
registre et entrer dans une autre dimension de la pensée. Á ce point du
développement, je voudrais commencer par citer quelques paroles d’Albert
Einstein, extraites d’un essai publié en 1934, dont le titre était :
« Comment je vois le Monde ».
Einstein, israélite né en Allemagne en 1879, fut
naturalisé Suisse en 1900. Professeur à l’Université de Berlin, et passionné
de physique théorique, il commença à faire connaître ses théories concernant
l’équivalence masse énergie, les
principes de la relativité des mouvements et les lois de la gravitation, à
partir de 1916. Il reçut le prix Nobel en 1921. Il prit la nationalité américaine en 1940. Il
tenait une chaire à Princeton, (où naquit le mouvement de pensée dénommé
Gnose de Princeton). Ses travaux concernant la physique eurent une influence
absolument considérable, et la philosophie contemporaine en fut également
fortement marquée. Après Einstein, le concept théorique du progrès des
sciences bascula dans le relativisme. Voyons ici ce qu’il disait des relations
établies entre la science et la religion.
« Combien curieuse est la situation de nous
autres, enfants de la terre ! Chacun est là pour une courte visite. Il ne sait
pas pourquoi, mais il croit parfois le sentir. Mais on sait du point de vue de
la vie journalière, sans réfléchir davantage, qu’on est là pour les autres
hommes.(...). Chaque jour, je pense que ma vie intérieure et extérieure repose
sur le travail des hommes vivants et sur celui des hommes déjà morts, que je
dois m’efforcer de donner dans la même mesure que j’ai reçu et que je reçois
encore.(...). Je ne crois pas du tout à la liberté de l’homme, dans le sens
philosophique. Chacun agit non seulement sous la contrainte extérieure, mais
aussi conformément à une nécessité intérieure.(...). Se préoccuper du sens ou
du but de sa propre existence, ainsi que de celle des créatures en général,
cela m’a toujours paru, au point de vue objectif, absurde. Cependant, tout
homme a certains idéaux qui dirigent son effort et son jugement. Dans ce sens,
le plaisir et le bonheur ne me sont jamais apparus comme une fin en soi.
(J’appelle aussi cette base morale l’idéal
du troupeau de cochons). Les idéaux qui brillaient devant moi et m’ont
continuellement rempli d’un joyeux courage de vivre ont été le bien, la beauté
et la vérité.(...) ».
« La plus belle chose que nous puissions
éprouver, c’est le coté mystérieux de la vie. Ce sentiment fondamental se
trouve au berceau de l’art et de la science véritables. Celui qui ne le connaît
pas et ne peut plus éprouver ni étonnement ni surprise, est pour ainsi dire
mort et ses yeux sont éteints. » .
« L’expérience intime du mystérieux, même mêlé de
crainte, a aussi créé la religion. Savoir qu’il existe quelque chose qui nous
est impénétrable, connaître les manifestations de la raison la plus profonde
et de la beauté la plus éclatante, qui ne sont accessibles à notre entendement
que dans leurs formes les plus primitives ; c’est cette connaissance et ce
sentiment qui constituent la vraie religiosité. C’est en ce sens, et seulement
en ce sens, que j’appartiens aux hommes profondément religieux. ».
« Un contemporain a dit, non sans raison, qu’à
notre époque généralement vouée au matérialisme, les savants sérieux sont les
seuls hommes qui soient profondément religieux (...). Vous trouverez
difficilement un esprit scientifique, fouillant profondément la science, qui ne
possède pas une religiosité caractéristique. Mais cette religiosité se
distingue de celle de l’homme simple. Pour ce dernier, Dieu est un être dont on
espère la sollicitude et dont on craint le châtiment, un sentiment sublimé de
même nature que le rapport de l’enfant à son père, un être avec lequel on
entretient des rapports personnels, aussi respectueux qu’ils soient. Mais le
savant est pénétré du sentiment de la causalité de tout ce qui arrive.
L’avenir n’est pas pour lui moins nécessaire ni déterminé que le
passé. ».
« Il y a encore un troisième degré de la vie
religieuse, bien qu’il soit rare dans sa pure expression. Je veux l’appeler
religiosité cosmique. Il est difficile de la rendre intelligible à qui n’en
sait rien, d’autant plus qu’aucune idée d’un Dieu analogue à l’humanité n’y correspond.
L’individu ressent l’inanité des désirs et des objectifs humains et la
sublimité de l’ordre admirable qui se manifeste dans la nature ainsi que dans
le monde de la pensée. L’existence lui donne l’impression d’une espèce de
prison et il veut éprouver la totalité de l’existence cosmique comme une unité
pleine de sens. (...) Les génies religieux de tous les temps se sont distingués
par cette religiosité cosmique qui ne connaît ni dogmes, ni Dieu conçu à
l’image de l’homme. ».
« Comment la religiosité cosmique peut-elle se communiquer d’homme à homme, puisqu’elle ne peut conduire à aucune notion déterminée de Dieu ni à aucune théologie ? Il me semble que c’est la fonction la plus importante de l’art et de la science d’éveiller et de maintenir vivace ce sentiment parmi ceux qui en sont susceptibles. ».
Après ces surprenantes citations d’Einstein, je me propose d’exposer l’essentiel de la pensée d’un autre physicien, un personnage étonnant nommé Jean Charon, que ses lecteurs appelaient parfois « l’Einstein français de la physique de l’esprit ». Raymond Ruyer, dans la revue Question de janvier / février 1978 disait d’ailleurs que Jean Emile Charon, mort en 1998, était, dans la continuation d’Einstein, le premier physicien à avoir démontré - en théorie du moins - l’existence de l’esprit par la Physique.
Charon cherchait à prolonger les idées d’Einstein vers ce qu’on appelle maintenant une « théorie de grande unification », dont l’objectif est de découvrir un formalisme global et cohérent pour la représentation de tous les phénomènes physiques, des particules au cosmos entier. Il proposait, en 1977, dans sa « Relativité complexe », un tel formalisme unificateur. Cette théorie remarquable n’unifiait pas seulement les phénomènes dits « observables » (ceux de la physique traditionnelle), mais elle s’élargissait à la représentation d’un espace « invisible », caractérisé par des propriétés très proches de celles associées au fonctionnement de l’Esprit (propriétés dites néguentropiques).
Ce que montrait « La Relativité complexe », de Jean Charon, c’est qu’une théorie de « grande unification » ne saurait être sans qu’y soit incluse l’existence de l’Esprit, ce contenant de tous les phénomènes qu’il unit précisément parce qu’il les contient tous. Sans rejeter le probabilisme, il désirait l’englober dans une description plus générale mais aussi plus complète des phénomènes.
Si l’on veut faire intervenir l’idée de deux espaces, l’un observable et l’autre adjacents mais invisible, dans la représentation des phénomènes physiques, il faut d’abord en supposer l’existence, et cela signifie en Physique leur apporter des axes de référence qui permettront de localiser les points situés dans l’invisible, et aussi exprimer les qualités de l’espace en ces points.
C’est ce qu’a fait la Relativité complexe : elle a d’abord admis l’existence de cet espace inobservable côtoyant partout l’espace observable, et elle a prolongé la Relativité générale d’Einstein en la développant dans un tel double espace, comprenant un dehors observable et un dedans de nature différente, caractérisé notamment par son invisibilité. Le mot « invisibilité » doit être pris ici dans son sens large: quand nous parlons d’un espace invisible, nous pensons à un espace qui, par nature, ne peut adresser directement à l’observateur que nous sommes aucune information susceptible d’être captée par ses organes des sens, même si ces organes sont aidés par les meilleurs instruments de détection de la technique actuelle ou à venir. Par définition, et par nature, cet espace est complètement invisible, car indétectable et inaccessible.
« La Relativité, (disait Jean Charon, en parlant de celle d’Einstein), tendait en quelque sorte la perche au chercheur physicien pour étendre de cette manière l’espace des phénomènes à une région « invisible ». Einstein avait en effet déjà admis, dans ses deux premières versions de la Relativité (restreinte et générale), que le temps pouvait être considéré comme une dimension imaginaire d’espace, le mot « imaginaire » devant être pris dans son sens mathématique, qui permet de distinguer sans ambiguïté une dimension imaginaire d’une dimension réelle. Mais ceci introduisait une sorte de dissymétrie entre l’espace et le temps, faisant de l’espace un milieu réel et du temps un milieu imaginaire. »
« La Relativité complexe va réintroduire la symétrie totale de l’espace et du temps (et c’est là, en fait, la troisième « révolution » que nous avons annoncée sur la nature de l’espace et du temps: L’espace comme le temps sont des dimensions à la fois réelles et imaginaires, ce sont ce que les mathématiciens nomment des « dimensions complexes ». L’espace temps de notre Univers est donc bien, comme en relativité d’Einstein, à quatre dimensions, trois d’espace, et une de temps ; mais ces quatre dimensions doivent être supposées complexes, au moins si on veut décrire complètement les phénomènes faisant l’objet du probabilisme. D’où le nom de Relativité complexe.
En clair, cela veut dire que l’on admet au départ que les phénomènes de la Nature ne se déroulent pas uniquement dans l’espace observable qui était celui de la Relativité générale, mais qu’elles se manifestent aussi dans un espace invisible par nature (avec le sens donné ci-dessus au mot invisible), ce nouvel espace invisible côtoyant partout l’espace observable. ».
Jean
Charon, à la fois physicien et philosophe, a
construit une grande partie de sa théorie sur les analogies constatées entre
les trous noirs et les électrons. Il a
donc élaboré son propre concept des propriétés cachées de l’électron, à partir de l’aspect fractal de l’univers. Le modèle
(dépassé) de l’atome de Rutherford avec
son noyau central analogue au soleil et ses électrons tournant comme des planètes
autour de ce noyau l’a incité à chercher dans l’espace de quoi soutenir sa
pensée.
On y avait découvert des étoiles très denses et en pulsation, les pulsars. Leur étude avait conduit à des « modèles » de nucléons, noyaux atomique centraux qui, à leur échelle, sont aussi des objets (sphériques ?) en pulsation avec une densité analogue à celle des pulsars.
Une caractéristique essentielle
des électrons est le fait qu’ils possèdent une masse non nulle mais des
dimensions géométriques nulles, ce qui conduit à les assimiler à des points mathématiques,
de volume nul. L’électron traverse les nucléons sans subir d’interactions
fortes ; ils passent donc au travers de la matière comme un projectile
sans volume. Cependant, la logique nous conduit à refuser d’accepter qu’une
masse non nulle soit contenue dans un volume nul, et l’on est donc amené à
penser que le volume de l’électron se dissimulerait « en dehors » de l’espace
ordinaire, dans un espace séparé mais restant relié au reste par un seul point de contact.
Notre univers aurait donc alors un « dehors » dans lequel serait logé le volume de l’électron qui n’aurait
plus alors qu’un point (mathématique) de contact avec le « dedans » ordinaire, seul
espace accessible aux organes des sens.
On rejoint ici, me semble-t-il, le concept des branes extérieurs de la théorie des multi univers.
Y aurait-il, se disait donc Jean Charon, dans le cosmos, des objets qui ressembleraient aux électrons, et nous aideraient à mieux les comprendre ? La réponse scientifique est affirmative : ces objets ont été baptisés « trous noirs ».
Un trou noir est la dernière étape de la mort d’une étoile.
Quand elle a brûlé tout son combustible, elle se refroidit et les forces de la
gravitation, qui attirent la matière vers le centre, ne sont plus compensées
par la pression de dilatation des gaz en
transmutation. L’étoile se contracte donc de plus en plus, et sa matière
devient simultanément de plus en plus dense. Au stade final, la contraction
deviendra telle que l’espace va « se refermer » complètement autour de
l’étoile. En se contractant, l’étoile mourante va provoquer une annexe étrange, comme une poche enfermée
dans notre espace ordinaire. Et cela constitue un véritable « dehors » de
notre espace observable, n’ayant plus aussi avec celui-ci qu’un seul point de
contact.
C’est cette « annexe », située hors de notre
espace ordinaire, que l’on appelle un « trou noir ». Le trou noir est
comme extirpé de notre univers, et forme un espace particulier dans lequel le
temps et l’espace échangent leurs rôles. Le temps y est inversé, et il y a
néguentropie ». (NDRL - L’entropie (ou désordre) est une propriété de l’univers toujours
croissante. Le désordre s’accroît indéfiniment en engendrant une uniformité
de plus en plus générale. ).
Les physiciens pensent donc que dans un trou noir, les propriétés de l’univers sont inversées, le temps s’écoulerait à l’envers, et l’ordre de la matière et de l’information croîtrait au lieu de se dégrader.
L’espace est plus complexe que l’on l’avait longtemps cru. Il possède bien évidemment un « dedans » accessible à nos sens, mais il a aussi un « dehors », (au moins localement), où peuvent se trouver des objets « pratiquement invisibles » qui peuvent avoir une influence plus ou moins perceptible sur notre espace observable.
On peut alors logiquement penser que, si l’on attribue à l’électron un volume nul en l’observant directement, c’est parce qu’il développe ses dimensions non pas dans l’espace observable mais dans le « dehors » de cet espace. « Il faudrait, disait Jean Charon, partir de cette idée que l’électron est un micro trou noir, un micro univers fermé, en pulsation cyclique. L’une de ses caractéristiques serait de remonter le cours du temps avec en particulier des qualités néguentropiques. ».
« Tout comme les trous noirs, les électrons ont leur espace propre, et ils sont capables de mémoriser les informations reçues, de les ordonner et d’acquérir de plus en plus de conscience. ».
Les électrons ne vivent pas le
temps d’une façon comparable à celui qui règle nos vies, mais ils se tiennent
dans le temps à l’échelle de l’infini. Selon Jean Charon, depuis la naissance
de l’Univers, les électrons ont donc acquis une expérience qui est celle du
vivant depuis le commencement de la vie. Ils sont donc appelés à connaître des
états et des niveaux de conscience de plus en plus élevés. La vie infinie de
l’électron est la base sur laquelle repose la spiritualité et l’immortalité
universelles.
Les études les plus récentes de physique théorique ont montré
que l’on pouvait proposer un « modèle » rendant compte de manière satisfaisante
des observations relatives à l’électron en l’assimilant à un micro trou noir.
Et les propriétés découvertes pour les trous noirs, que
ceux-ci soient ou non observés, seraient donc valables pour l’électron micro
trou noir, dont on est maintenant pratiquement certain de l’existence. Voyons
donc ce que seraient les propriétés de l’espace et du temps dans ce « dehors
» de notre Univers où se trouveraient les électrons et les trous noirs.
L’espace et le temps semblent échanger leurs rôles, dit-on,
quand on passe du dedans au dehors de l’espace observable. Dans ce dehors
étrange, c’est l’espace qui « coule » continûment, comme le fait ici notre
temps habituel. Dans ce même dehors inconnu,
on « se déplacerait » dans le temps, allant même éventuellement vers
des événements passés, tout comme on
peut choisir différentes directions dans notre espace ordinaire.
Á l’intérieur d’un trou noir, ou d’un électron, un
voyageur hypothétique verrait cycliquement défiler toutes les informations
contenues dans cet espace, et y aurait accès comme nous avons accès aux
informations mémorisées dans notre Esprit. Dans les trous noirs, (et aussi dans
les électrons), les lois de la physique s’écriraient donc en inversant le
signe du temps. Nous savons que, dans notre espace, les choses évoluent
toujours en se dégradant, sauf quand l’Esprit intervient pour y remettre de
l’ordre, (c’est le principe bien établi de l’entropie croissante).
Mais dans l’espace intérieur aux trous noirs ou aux électrons, l’évolution cyclique conduit à «
ordonner » toujours plus les informations les unes par rapport aux autres
(principe corollaire de la néguentropie croissante). Les propriétés de
re-mémorisation de ces espaces particuliers dans ces « dehors » de notre
espace ordinaire seraient exactement celles qu’on pourrait espérer d’un espace
ou se tiendrait l’Esprit.
Or, dit Jean Charon, ces propriétés si particulières sont
précisément celles de cet espace interne
qu’enferme en elles les particules présentes en abondance dans le minéral,
dans le végétal, dans l’animal et dans l’humain : les électrons.
Comme tous les corps matériels, biologiques ou pas, notre corps contient par milliards de
milliards des électrons assimilables à des micro trous noirs. Ils auraient
donc, notamment, la possibilité de mémoriser et ordonner toujours plus, au
cours de leur vie quasi-éternelle, les informations reçues du monde extérieur.
En effet, les électrons, possèderaient aussi un « dedans »,
et non pas seulement un dehors, défini par leurs propriétés physiques. Leur «
dedans », serait caractérisé par des propriétés spirituelles, et pourrait
être porteur de l’Esprit. Et, puisque les informations mémorisées par
l’électron ne peuvent jamais se perdre, (Comme la lumière enfermée dans
un trou noir ne se perd jamais), le niveau de conscience de cet Esprit s’élève
sans cesse.
Peut–on pour autant dire que « notre » Esprit (personnel),
tel que nous le connaissons chez l’homme, est l’Esprit contenu dans certains,
sinon dans tous les électrons de notre corps ?
On peut assez facilement accepter l’idée que si nous avons
en nous des électrons porteurs d’Esprit, il est fort probable que ce que nous
nommons « notre Esprit » soit globalement constitué de l’Esprit des
électrons de notre corps, sans que nous ayons donc à le chercher ailleurs.
Mais il nous faut alors accepter toutes les conséquences
de cette hypothèse, et admettre que l’aventure de l’Univers est avant tout
l’aventure spirituelle des électrons, et non plus celle des machines minérales, végétales, animales, ou
humaines auxquelles les électrons participent après les avoir « inventées. Ce
sont ces particules porteuses d’esprit que Jean Charon appelle éons, un terme utilisé par les gnostiques
du premier siècle de notre ère. L’éon réunit les propriétés physiques et les
propriétés spirituelles de la particule que les physiciens nomment actuellement
électron.
La démarche consistant à ne plus séparer la matière et
l’esprit dans l’approche scientifique de l’Univers est apparue à Princeton et
Pasadena, aux USA, vers les années 1970. D’éminents physiciens en étaient à
l’origine. Ils ont été rejoints depuis par des biologistes, des médecins,
des psychologues, puis par des théologiens.
La pensée des néo-gnostiques de Princeton est que ce que
nous nommons « Esprit » est indissociable des autres phénomènes,
physiques ou psychiques, de l’Univers. Il convient cependant, pour être cohérent,
de le décrire en termes scientifiques, en y adaptant le langage de la science.
Pour pouvoir décrire l’Esprit en tant que phénomène
scientifique, les néo-gnostiques refusent d’emblée de placer l’homme à la
base de la pensée. Selon eux, il existerait, partout dans l’Univers, une
réalité profonde capable d’engendrer la pensée de la même façon qu’un
électron fait naître un champ électrique ou magnétique autour de lui, dans
l’espace. La pensée est donc partout présente, aussi bien dans le minéral,
le végétal ou l’animal que dans l’homme.
L’attitude néo-gnostique, en axant toute l’aventure spirituelle
de l’Univers sur un « immense peuple d’éons », non pas autour de l’homme,
n’en conclut pas que l’homme soit
spirituellement asservi par ce peuple des éons. Ce ne sont pas les éons qui «
pilotent » mon esprit, car « Je » suis ces éons eux-mêmes, et ce
« Je », qui est ma personne est
présent dans chacun de ces éons.
Notre personne participe ainsi directement à toute
l’aventure spirituelle du monde, depuis l’origine de notre Univers, il y a
quelque quinze milliards d’années, et qui se terminera si l’Univers doit finir
un jour. (Jean Charon – J’ai vécu quinze milliards d’années).
Selon Jean Charon, l’esprit est né dès les premiers instants du big bang, et a donc très largement précédé l’apparition du premier neurone. L’éon est l’esprit de ou dans l’électron. Comme un trou noir, l’électron est un univers en soi, inaltéré, fermé, où, en principe, rien ne rentre ni sort. Comment l’électron peut-il alors produire ce que nous appelons la Création ? Par le pouvoir d’un esprit qui puisse agir au niveau de l’électron, répond Charon. Et cet esprit immatériel agit sur un électron matériel en se comportant lui-même en électron ! Il ne parle pas alors d’un électron solide ou matériel, mais d’un corps éthérique, qui par projection virtuelle (télépathique) entre en contact avec un autre électron, pour produire un effet sur la matière. (Nous développerons cela un peu plus loin).
Ce pouvoir de l’esprit, infiniment petit et ignoré par la physique traditionnelle, est pour Jean Charon l’embryon de toute conscience. C’est ce qu’il a baptisé « éon ». Ces éons, projections inversées immatérielles des électrons matériels, conservent la totalité des informations reçues télépathiquement d’un autre éon. Chaque éon garde intacte sa propre mémoire et son propre « spin » (paramètres de rotation), mais emmagasine aussi la mémoire et le spin de l’autre. Ainsi chaque éon crée sans cesse des configurations mieux ordonnées plus propices à la vie consciente.
Notre esprit humain est fait d’un océan d’éons, indécelables depuis notre dimension, qui semblent tous mus par un désir de vie consciente. Selon Charon, seuls les éons ont pu provoquer, par psychokinésie et à travers à un nombre immense de tentatives, les réactions électrochimiques indispensables à l’avènement de la première cellule vivante. Depuis cette époque, récente pour eux, chaque éon perfectionne les « véhicules » que sont tous les vivants terrestres, (et peut être même extraterrestres).
Depuis ces premières heures du monde les éons auraient ainsi, progressivement, accumulé et ordonné l’information. Ils auraient inventé des machines organiques que l’on appelle l’ADN, les virus, la cellule, le végétal, l’animal, et l’humain. Et ils continuent. Les éons ont le temps total pour eux, et puisque leur durée de vie est illimitée, ils ont aussi préparé la défaite de la mort qu’ils ont inventée. (Jean Charon - Mort ! Voici ta défaite).
L’espace du monde électronique est fait de matière très dense, et il est rempli d’une « lumière » à très haute température (de l’ordre de mille milliards de degrés). Ces chiffres, sont ceux des cosmologies de la Relativité générale. Ils caractérisaient notre Univers observable autour des instants de sa naissance.
« Aucun physicien ordinaire ne sera étonné d’apprendre que l’univers-trou éonique renferme des photons de lumière et des neutrinos : ils avaient déjà été reconnus dans les propriétés physiques de l’électron, et les nommées respectivement interactions électromagnétiques et interactions faibles. Mais on avait jusqu’ici considéré que lumière et neutrinos intervenaient seulement de manière « passive », un peu au hasard, quand les électrons interagissaient avec leur milieu extérieur. ».
Les photons composant le gaz de lumière enfermé dans le corps de l’électron (ce que les physiciens nomment un rayonnement noir) ne peuvent pas sortir de l’électron, puisque cette particule possède un espace clos, refermé sur lui-même, d’où rien ne peut sortir, et dans lequel d’ailleurs rien ne peut entrer non plus. C’est bien ceci qui nous fait dire que l’électron est un véritable univers en soi, un univers-trou.
L’électron peut néanmoins communiquer avec les mondes autres que le sien propre. Les physiciens diront qu’il s’agit d’une communication (ou une interaction) « virtuelle ». Quand un électron communique avec le monde extérieur (notre Univers ordinaire), il n’y a en effet aucun message qui transite du monde électronique vers l’Univers observable ; mais si un photon du monde électronique change soudain de sens, alors il faut qu’un photon du monde extérieur observable vienne exactement « compenser» ce qui a eu lieu dans l’électron, et un photon du monde extérieur changera donc lui aussi de sens.
(NDRL -Nous avons antérieurement vu cette propriété des particules corrélées. Jean Charon postule ici que toutes les particules ont une jumelle corrélée.).
C’est le gaz de lumière qu’enferme l’électron qui va être le support de toutes les interactions psychiques de cette particule. Nous venons de voir comment les photons de ce gaz de lumière permettaient des communications « virtuelles » avec le monde extérieur, par échange virtuel d’impulsions entre un photon du monde électronique et un photon du monde extérieur. Nous ne parlons cependant ici que d’une propriété physique, tout comme l’interaction entre deux électrons qui se repoussent (p.ex. interaction électrostatique).
Mais les interactions « psychiques » sont d’un autre ordre. Nous savons que la lumière enfermée dans l’électron diffère de la lumière ordinaire, car elle est enfermée dans un espace où l’évolution est néguentropique, (et non pas entropique comme dans l’espace observable). La lumière peut ici s’organiser sans cesse, (comme la lumière nouménale de Newton ou celle des alchimistes).
Jean Charon explique comment cette lumière nouméale peut le faire. Ces photons, dit-il, vont pouvoir accroître leur spin. Alors que ceux du monde observable demeurent invariablement au spin le plus bas, (le spin 1, dans l’électron), les photons vont ici pouvoir élever leur spin, par échanges virtuels avec le milieu extérieur.
Les photons du corps électronique vont ainsi pouvoir monter aux spins 2, 3, etc, indéfiniment. Cette élévation de spin correspond à une élévation de l’action (au sens de la Physique) associée à l’électron et c’est cette action totale qui, précisément, va permettre à son tour de définir le niveau de néguentropie de chaque électron, considéré individuellement.
Le principe de néguentropie non décroissante caractérisant l’espace invisible de l’électron fait que le niveau d’action des photons de l’électron ne peut pas diminuer, et c’est ce phénomène de néguentropie non décroissante qui va être le principal mécanisme de l’électron pour exercer ses propriétés psychiques, notamment ses propriétés de mémorisation et de réflexion.
La mémorisation consisterait donc en une élévation du spin de certains des photons constituant la lumière nouménale enfermée dans l’univers-trou éonique. L’élévation du niveau psychique est l’accroissement de néguentropie qui survient quand, au cours de ces élévations de spins des photons « nouménaux », l’action (au sens de la Physique) du gaz nouménal s’élève dans le corps éonique.
Chaque éon possède des
milliards de ces informations élémentaires mémorisées par le spin des photons
individuels de sa lumière nouménale. Et dès que l’on considère un organisme
un peu complexe, une cellule vivante par exemple, ce sont aussi naturellement
des milliards d’éons qui vont participer au fonctionnement de la cellule,
grâce à l’apport de leurs qualités psychiques individuelles Les informations ainsi stockées par nos propres éons se
rapportant à leur vie vécue avant notre naissance constituent notre
inconscient. Certaines données de notre inconscient remontent parfois, de
manière symbolique, jusqu’à notre conscient (c’est-à-dire qu’elles sont
partagées et mises en commun par nos éons). Cette « voix intérieure »,
provenant du plus profond de nous, peut aussi nous transmettre des fragments
d’une vie vécue antérieure s’étalant sur un passé de millions d’années. Elle
pourrait être la source de la sagesse naturelle et de la connaissance
intuitive.
Et puis, bien sûr, il y a cette conséquence qui nous intéresse tous, car elle répond à notre angoisse la plus authentique, celle de notre propre Mort : notre vie spirituelle ne se terminerait pas avec notre mort corporelle, puisque nos éons sont par milliards de milliards à emporter avec eux, quand notre corps sera retourné à la poussière, notre Moi complet, c’est-à-dire la totalité des souvenirs accumulés pendant notre vie terrestre, ces souvenirs qui forment notre Conscient. Jusqu’à la fin des temps.
En effet, des chercheurs seraient parvenus à sectionner un électron en deux quasi particules en 1996, puis en trois en 2012, se déplaçant toutes trois à différentes vitesses et dans différentes directions dans la matière.
Les électrons isolés ne peuvent pas être divisés en éléments plus petits, c’est la propriété des particules fondamentales. Mais, dans les années 1980, des physiciens ont prédit que les électrons d’une chaîne unidimensionnelle d’atomes pourraient cependant être divisés en trois quasi particules, à savoir : un «holon» portant la charge de l’électron, un «spinon» portant son spin (une propriété quantique intrinsèque liée au magnétisme) et un «orbiton» portant son localisation orbitale.
« Ces quasi particules pourraient se déplacer dans la matière, avec des vitesses différentes et même dans des directions différentes», explique Jeroen van den Brink, un physicien de la matière dense à l’Institut de Physique théorique de Dresde. Les électrons atomiques ont cette capacité parce qu’ils se comportent comme des vagues lorsqu’ils sont confinés dans un matériau. Dans cet état, la vague se divise en plusieurs vagues, portant chacune des caractéristiques différentes de l’électron; mais ils ne le peuvent pas indépendamment à l’extérieur du matériau », explique t-il.
En 1996, les physiciens ont réussi à séparer un électron en un holon et un spinon. Actuellement, Van den Brink et ses collègues ont cassé un électron en un orbiton et un spinon, tel que rapporté dans la revue Nature. L’équipe a créé les quasi particules en tirant un faisceau de photons de rayons X sur un seul électron dans un échantillon unidimensionnel de cuprate de strontium. « La prochaine étape sera de produire le holon, le spinon et l’orbiton en même temps», dit van den Brink ».
Andrew Boothroyd, physicien à l’Université d’Oxford, Royaume-Uni, a salué les prouesses technologiques de l’équipe, mais d’autres intervenants ont cependant fait d’intéressantes remarques.
A la question : Quelle est précisément la signification physique de cette expérience ? Le professeur Claessen de la Wuerzburg Universitae répond par une intéressante analogie avec des bulles dans une coupe de champagne. La scission apparente de l’électron en différentes parties n’est pas réelle, dit-il, mais c’est un effet coordonné de tous les électrons dans le solide mis expérimenté.
Il faut commencer par introduite le concept de la masse électronique effective. Dans un solide, la masse de l’électron peut fortement différer de celle d’un électron libre (à savoir, dans le vide).
Selon la mécanique quantique un électron est une onde qui peut se propager librement dans le vide, mais, dans un solide, elle est diffractée par le réseau des ions chargés positivement, comme la lumière est diffractée par un réseau optique. Il en résulte des effets d’interférence qui modifient fortement la relation entre la longueur d’onde de dispersion d’électrons et la fréquence (ou de manière équivalente, l’impulsion et l’énergie).
La masse effective, qui est essentiellement la dérivée seconde inverse de la relation de dispersion, décrit l’inertie de l’électron contre des champs extérieurs ou des forces en présence du réseau cristallin, qui diffère alors généralement de celle d’un électron libre. Cette re-normalisation de masse peut aller de 1/10 d’une masse d’électrons libres (m0) dans les semi conducteurs typiques jusqu’à 1000 x m0 dans des composés fermions lourds.
Il faut aussi savoir que les nombreux électrons d’un solide peuvent coopérer de telle sorte que leur comportement collectif peut être décrit par l’émergence d’une nouvelle (quasi) particule. Un exemple évident est la notion d’un «trou» (ou un défaut électronique) dans les semi conducteurs qui se comportent comme si les particules chargées positivement se déplaçaient à travers le solide et transportaient un courant.
Ce qui se passe réellement est comparable au comportement d’une bulle dans un verre de champagne. Dans le champagne, ce n’est pas vraiment la bulle qui se déplace, mais plutôt le mouvement des molécules autour d’elle qui donne cette apparence de mouvement.
Le fractionnement d’un électron en orbitons et spinons dans un solide est un phénomène très similaire. L’interaction de Coulomb forte entre les électrons chargés conduit à un état fortement corrélé mécanique quantique de tous les électrons de conduction dans le solide, qui donne l’impression que le spin et les degrés de liberté orbitaux se meuvent séparément avec des vitesses différentes.
Cela n’est pas vraiment le fractionnement d’un électron individuel, mais un effet émergent résultant de la coopération de tous les électrons. Ces effets qui se produisent fréquemment dans les matériaux avec des électrons, lorsque l’interaction de Coulomb est particulièrement importante, constituent un domaine de recherche fascinant, tant du point de vue de la physique fondamentale, ainsi que pour des applications potentielles dans la microélectronique à venir.
Par contre, un autre intervenant est beaucoup plus intuitif. « Dans chaque particule que l’on arrive à diviser, dit-il, il doit y avoir des particules plus petites, et encore plus petites, et cela à chaque niveau jusqu’à ce que, finalement, il n’y ait plus rien.
L’humanité a une intelligence finie, ce qui implique une capacité limitée à comprendre. Tout ce que nous examinons dans notre environnement se réduit à des entrées sensorielles qui traversent notre système nerveux et finissent dans un appareil cérébral.
C’est notre cerveau qui crée la
représentation du monde. Cela se produit quelque part dans l’obscurité du
crâne. Notre monde, apparemment solide, n’est rien de plus, (ou rien de
moins), que la perception d’un être holographique exponentiellement bien plus
grand que tout ce que l’homme peut concevoir. En fait, il n’y a probablement
pas d’univers, au sens que nous donnons à ce mot. ».
Que le sourire ambigu du Trickster.
10 Les mystères du macro univers
Nous allons maintenant quiter les concepts relativement
complexes de Jean Charron et revenir aux idées tout aussi étranges des
astrophysiciens actuels. Nous allons donc abandonner les instruments sophistiqués
et parfois gigantesques qui scrutent l’infiniment petit, et nous allons braquer
d’autres moyens tout aussi énormes vers
l’immensité complexe du cosmos.
Comme je l’ai dit au chapitre premier, j’ai beaucoup cherché mais je n’ai trouvé aucune image qui permette de représenter l’étendue de l’univers et les distances immenses qui séparent les galaxies les une des autres. La dimension de l’univers observable, exprimée en kilomètres, s’écrit avec 24 zéros. (Et notez bien ici qu’il ne s’agit que de la partie observable de l’Univers). Il n’y a que la représentation mathématique qui puisse l’exprimer, mais c’est une abstraction qui ne parle absolument pas à l’imagination ordinaire. J’ai également cité Krisnamurti qui posait le problème en forme de question et qui pensait qu’on ne pouvait pas y répondre positivement.
« Le cerveau humain, disait-il, peut-il comprendre la véritable dimension de l’espace ? ».
Un premier mystère apparaît immédiatement à nos yeux, (en tous cas aux miens). Comment un univers apparemment immense peut-il être constitué de sous particules géométriquement sans dimension ? La réponse nous a été donnée : Les champs sont la seule réalité. Ils n’ont pas non plus de dimension géométrique même si leurs propriétés peuvent être exprimées sous une forme mathématique ; et il faut donc en tirer toutes les conséquences dans notre conception de la matière.
La matière se définit par un équilibre temporairement localisé de champs de forces en interaction. Divers facteurs interviennent pour permettre le prolongement momentané de cet équilibre toujours fragile dont nous savons qu’il sera un jour rompu.
Concernant le macro univers cosmique, les quatre forces qui en ont permis la naissance à l’origine demeurent encore et toujours en interactions aujourd’hui. L’influence de la plus puissante en étendue, la gravitation, continue et continuera à concerner tous les constituants du cosmos, quelles que soient ses dimensions futures, et elle déterminera donc son devenir ultime. Et, en effet, la gravitation est déjà pratiquement le facteur déterminant de la structure cosmique actuelle.
En effet, les constituants matériels qui apparaissent comme les plus essentiels du cosmos sont les étoiles. Et qu’est ce que c’est une étoile ?
Je ne vais pas reprendre ici tout ce que j’ai exposé au début du livre et je ne reviendrai donc que sur l’essentiel. « Une étoile se présente comme un immense globe de gaz chaud », dit Jean-Paul Zahn. « Elle se distingue par sa source d’énergie interne de fusion thermonucléaire à l’œuvre dans son cœur ». Ces réactions proviennent essentiellement de la transmutation des atomes d’hydrogène qui constituent la matière originelle de l’univers. Car l’hydrogène est le plus simple de tous les éléments, et ce sont les forces de gravitation qui ont constitué les étoiles en attirant les uns vers les autres ces atomes d’hydrogène originels.
La structure d’une étoile résulte de l’équilibre délicat établi entre deux forces concurrentes : D’une part, la pression interne provenant de la chaleur des réactions nucléaires internes qui la dilate ; d’autre part, la gravité qui la contracte. L’équilibre se maintient tant que la chaleur contrebalance la gravité, mais, inévitablement, par l’effet du rayonnement, une partie de la chaleur fuit vers l’extérieur. La matière environnante gêne cet effet et les photons ne s’échappent que relativement lentement ; le temps passe et les étoiles brillent. Mais dans les instruments des astronomes, elles ont des couleurs différentes. L’équilibre des forces en action reste longtemps assez stable, car, quand les réactions de fusions croissent, le diamètre grandit et la pression faiblit.
Cependant, lorsque l’hydrogène originel vient à manquer et que les réactions de fusion s’éteignent, la température de l’atmosphère stellaire baisse, la gravité contracte encore le cœur tandis que l’atmosphère se dilate, et l’équilibre se modifie avec des conséquences qui dépendent de la taille de l’étoile. Pour les étoiles plus petites que notre Soleil, et originellement assez jaunes, la combustion de l’hydrogène se poursuit dans une mince zone autour du cœur, et l’étoile devient temporairement ce qu’on appelle une géante rouge.
Un équilibre différent s’y installe : La température du coeur remonte jusqu’à 100 millions de degrés, puis une nouvelle réaction s’amorce : L’hélium transmute violemment en carbone et oxygène et les dimensions de l’astre enflent énormément. Devenant instable et variable, l’astre souffle son atmosphère dans l’espace puis se transforme en nébuleuse planétaire. Pour les étoiles moyennes, approchant la taille du Soleil, un cœur incandescent subsiste cependant au centre. Cette naine blanche va encore luire des milliards d’années avant de s’éteindre pour devenir une naine noire invisible à nos yeux. Elle ne rayonnera plus, mais restera tout aussi dense. Sur le plan gravifique, elle est pour toujours une étoile et son destin n’est pas clos.
Mais que se passe-t-il pour les étoiles plus grosses. Souvenons nous qu’à l’origine, comme je l’ai exposé au premier chapitre, l’univers ne contenait que des atomes froids d’hydrogène et d’hélium (3/4 et ¼. C’est ce que l’on a appelé la matière noire. La gravitation l’a progressivement rassemblée en immenses nuages formant ainsi les prémisses des galaxies. Les gaz se sont concentrés en nombreux amas locaux et, sous la pression, ces gaz se sont réchauffés. Les premières étoiles sont apparues lorsque la fusion thermonucléaire s’est allumée en leur sein. Aux premiers temps, elles se sont immensément dilatées, jusqu’à mille fois plus que le Soleil, puis elles ont explosé.
Or, de nombreuses transmutations advenues dans ces étoiles avaient produit de nouveaux atomes chimiques ; le carbone, l’azote, l’oxygène, le silicium, et surtout le fer, et ils ont aussi été dispersés dans l’espace. Puis, la gravitation a poursuivi son œuvre, rassemblant de nouveau tous les produits éparpillés un peu aléatoirement, et le même phénomène s’est répété depuis, enrichissant progressivement le contenu, jusqu’à former toutes les étoiles du ciel.
Nous avons vu que celles qui ressemblent au Soleil se transforment finalement en naines blanches puis noires. Les étoiles plus massives sont aussi les plus chaudes. Elles évoluent en devenant d’abord des géantes bleues. Elles ne peuvent pas finir en naines blanches car leur cœur résiduel franchirait alors la limite dite de Chandrasekhar, (1,44 masse solaire), et s’effondrerait sous son propre poids. En théorie et finalement, au cœur d’une étoile ayant une masse initiale comprise entre 8 et 25 fois celle du Soleil, un nouvel état, extrêmement comprimé de la matière, apparaît. Le cœur est alors écrasé, et les électrons pénètrent les protons en les convertissant en neutrons. Une transmutation inconnue se produit et l’astre flamboie alors temporairement en supernova puis devient un minuscule et assez mystérieux objet hyperdense : une étoile à neutrons. Sa densité est inouïe, (de l’ordre de 1000 milliards de tonnes au dm3).
Certaines étoiles à neutrons deviennent des ‘pulsars’. Outre leur densité, leur particularité, c’est la puissance énorme de leur champ magnétique. Composées essentiellement de neutrons, ces étoiles possèdent un champ magnétique gigantesque provocant des émissions d’ondes et de matière aux pôles de leur axe magnétique. Les pulsars tournent à de très grandes vitesses, (jusqu’à 1000 tours/ seconde), et leur axe de rotation peut différer de leur axe magnétique. Ces faisceaux sont donc émis et reçus périodiquement dans des directions données de l’espace. Nous les percevons sur Terre comme des pulsations d’où le nom donné à ces astres.
Cependant, les astrophysiciens sont convaincus qu’un autre sort attend les énormes étoiles dont la masse originelle dépassait une autre limite, à l’entour de 25 masses solaires en-deça de laquelle, la pression subie par les neutrons parvient à résister au poids de l’astre qui demeure stable. L’actuelle théorie actuelle postule que la force du champ gravifique surpasse alors les trois autres forces : Il démontre là qu’il demeure effectivement la seule réalité. La gravité provoque l’effondrement soudain de l’astre. Toute sa matière tombe vers son centre. Même les particules élémentaires présentes au cœur de l’étoile sont écrasées et déstructurées. Pour tenter de donner une image de ce qu’il se passe, je dirai que les sous particules libérées n’étant pas localisables et n’ayant aucune dimension géométrique, le centre n’en a pas non plus ; l’étoile s’effondre donc dans un puit sans fond : Elle devient l’un de éléments les plus étranges du peuplement galactique, un trou noir.
Nous avons vu que les étoiles primordiales étaient gigantesques et que la plupart ont rapidement explosé. Elles ont laissé des résidus fort massifs, évoluant souvent en trous noirs. D’autres astres plus jeunes se sont finalement effondrés eux aussi en trous noirs.
Les trous noirs sont des singularités cosmiques dont le rayon est nul en principe et dont la densité peut croître indéfiniment. Ils sont si massifs que leur capacité d’attraction gravifique s’étend à des distances considérables et qu’ils sont capables de d’influencer ou de capturer tout ce qui est à leur portée, y compris les porteurs d’énergie comme les photons de lumière. Pierre Kohler les a appelés gouffres du cosmos. Tout ce qui se trouve ou passe à proximité subit les effets de leur force d’attraction et commence à tomber vers lui avec une accélération croissante. Selon les masses et les vitesses en cause, les lois de la mécanique spatiale génèrent une inexorable chute en spirale ou bien une situation de gravitation orbitale, les objets se mettant à graviter comme des satellites s’ils ont atteint leur vitesse critique de libération.
La
vitesse de libération d’un corps est celle que ce corps doit atteindre pour
échapper à l’attraction gravitationnelle de la masse qui l’attire. Pour la surface de la Terre, la vitesse de libération Cette
vitesse est d’autant plus importante que la masse de l’astre est importante et
que l’objet est proche de son centre. Depuis la surface de la Terre, sa valeur
est de 11,2 km/s (40 320 km/h).
Depuis les surfaces de la Lune ou de Mars qui sont moins massives les chiffres
tombent à 2,4 et 5 km/s. Pour le Soleil,
elle atteindrait 617,5 km/s. Un objet lancé à cette vitesse, ou à une
vitesse supérieure ne retombera jamais. (Nous faisons abstraction ici de la
résistance de l’air).
Cette vitesse est supérieure à la vitesse de satellisation nécessaire pour que l’objet puisse se placer en orbite autour de l’astre. La vitesse de libération d’un trou noir est supérieure à celle de la lumière. Comme rien ne peut aller plus vite que la lumière, rien ne peut s’échapper d’un trou noir, pas même la lumière, et tout ce qui est capturé augmente simplement sa masse. Par contre des objets peuvent demeurer en orbite autour d’un trou noir pourvu qu’ils s’en maintiennent à une distance convenable. Quelle que soit leur taille, les trous noirs capturent continûment de la matière et de l’énergie et leur influence sur l’environnement s’accroît sans limite.
On appelle ‘horizon’ d’un
trou noir la limite de la zone à partir de laquelle la vitesse de libération
des objets en orbite atteint celle de la lumière. C’est le rayon de
Schwarzschild. D’une certaine façon, cet horizon définit l’extension spatiale
du trou noir et peut être considéré comme sa taille, laquelle est variable car déterminée par sa masse actuelle et son moment cinétique.
Cette idée originelle du trou noir résultait de calculs basés sur la Relativité
Générale, dus au physicien Schwarzschild. En se fondant sur la Relativité Générale,
il a conclu que la masse du trou noir déformait l’espace-temps à proximité, et
que tout mobile suivait dans cet espace-temps une trajectoire géodésique.
Il faut bien considérer qu’aux environs d’un trou noir, la gravité est tellement élevée qu’à une certaine distance la vitesse de satellisation est égale à celle de la lumière ; on l’appelle la sphère des photons, puisqu’ils sont seuls à pouvoir atteindre la vitesse de la lumière et orbiter en ce point autour du trou noir. Bien que dépourvus de masse, les photons suivent la règle générale. Mais il ne faut pas confondre matière et rayonnement. Pour qu’un corps s’échappe d’un trou noir, il devrait se déplacer à l’égard du centre à une vitesse supérieure à la vitesse de libération, et donc qu’il soit déjà au-delà de son rayon de Schwarzschild. Un rayon lumineux immatériel, par contre, se déplacera toujours à la vitesse limite de la lumière même à proximité du trou noir.
Dans un champ très intense, son énergie de rayonnement (e = hν) diminuera et sa fréquence tendra vers le rouge puis vers 0 à l’horizon du trou noir. En conséquence, toute lumière émise à l’horizon du trou noir a une longueur d’onde infinie ; elle est complètement figée. Le temps semble alors arrêté pour un éventuel observateur extérieur. Les calculs établissent que cette sphère des photons : se situe à 1.5 fois le rayon de Schwarzschild.
Quant à ce que l’on appelle ‘l’horizon des événements, c’est la ‘frontière’ du trou noir. Nous avons dit que sa distance à la singularité est appelée rayon de Schwarzschild. La ‘singularité’ elle même n’est qu’un point où l’espace et le temps possèdent théoriquement une courbure infinie. La théorie de la relativité générale d’Einstein décrit en effet la gravitation comme une courbure de l’espace-temps. Plus la masse est concentrée, plus cette courbure est prononcée, et dans le cas d’un trou noir, la déformation n’aurait peut-être pas de fin car il pourrait y avoir une déchirure dans la trame de l’espace-temps.
Exposée de cette façon, la représentation d’un trou noir devient déjà à peine compréhensible, insolite et très hypothétique. Or nous avons décrit un trou noir immobile mais les trous noirs sont en rotation car les moments cinétiques de leurs origines sont conservés dans cette évolution. L’image originelle du trou noir résultait de calculs dus à Schwarzschild qui avait calculé la taille de l’horizon d’un trou noir statique. Kerr a perfectionné ces calculs dans le cas général du trou noir est en rotation.
Dans le trou noir de Kerr, la singularité n’est plus concentrée sur un point mais sur un cercle à l’intérieur de l’horizon. Dans ce cas, l’espace-temps est non seulement déformé ‘en entonnoir’, mais en plus, il s’enroule pour suivre la rotation du trou noir. Cela reste théorique, et la solution de Kerr est incomplète car elle correspond à un trou noir entouré de vide absolu. Tout apport de matière déstabilise le trou noir et il faut utiliser la mécanique quantique pour continuer d’étudier le comportement de la singularité. Le principe d’incertitude de la mécanique quantique ne permet pas que la singularité ait une taille nulle en provoquant une courbure infinie de l’espace-temps.
D’autres physiciens ont avancé d’autres représentations, par exemple en figurant l’espace autour d’un trou noir statique à l’aide d’un diagramme dit ‘espace-temps de Penrose (système de coordonnées de Kruskal).
Un premier diagramme y représente
un univers ne possédant qu’un seul trou noir éternel, (ne provenant donc pas
de l’effondrement d’une étoile. Sur le diagramme, on voit alors apparaître
une région symétrique de notre univers, ce que l’on pourrait appeler un univers
parallèle, ces deux univers ne pouvant avoir de contact, qu’à l’intérieur de
l’horizon du trou noir. La deuxième chose intéressante dans cette
représentation, c’est qu’il y apparaît une autre singularité vers le passé :
c’est un trou blanc, parfois appelé fontaine blanche, où rien ne peut rentrer.
A l’inverse du trou noir, il n’est possible que d’en sortir, puisqu’on ne
peut pas remonter le temps. Mais les diagrammes montrent aussi qu’il peut en
résulter un univers négatif et même une succession d’univers alternativement
positifs et négatifs.
Et comment, diable !
Peut-on représenter un univers négatif ?
Mais si l’on représente un trou noir qui n’apparaît qu’à partir de l’effondrement de l’étoile, il n’y a plus ni trou blanc ni univers parallèle. Les recherches ne se sont pas arrêtées à cette hypothèse. Deux physiciens de l’université Aix-Marseille, Carlo Rovelli et Hal Haggard, ont aussi modélisé l’évolution d’un trou noir et ils en tirent une autre déduction. Selon eux, au-delà d’une certaine densité, les effets quantiques de la gravité se traduiraient par une force répulsive qui s’oppose à la contraction indéfinie. Selon eux, (vue depuis le trou noir et cette nuance est importante), la matière serait alors éjectée en une explosion accompagnée d’un flash lumineux. Le trou noir devient soudainement un trou blanc. Les trous noirs deviendraient donc à terme des sortes de « fontaines blanches », autres énigmatiques régions de l’espace d’où rien ne rentrerait et dont tout ressortirait.
Carlo Rovelli a voulu démontrer que cette hypothèse était crédible. La relativité générale décrit bien comment les trous noirs se forment à partir d’étoiles qui ses on effondrées sur elles-mêmes. En concentrant leur matière elles ont atteint une densité si forte que l’espace-temps s’est courbé autour d’elles et que plus rien, pas même la lumière, ne peut en sortir. Reste la question posée par Carlo Rovelli : « Tout tombe dedans, mais ça va où » ? « Cela ne pourrait-il ressurgir en de prodigieuses ‘fontaines blanches’ » ? Ce serait ce qu’augurent de complexes calculs conciliant théories quantique et relativistes, qui envisagent un tout autre destin.
Le physicien suggère que tous les trous noirs dont rien ne peut s’échapper, pourraient être en train d’exploser. Leur noirceur ne serait qu’une illusion gigantesque et l’effet temporel d’un fantastique ralenti qui nous masquerait la réalité véritable. En effet, dit-il, Lorsque la matière parvient au centre du trou noir, les équations d’Einstein montrent que le densité de la matière et la courbure de l’espace-temps deviennent infinies. Peut-on dire alors que la matière va s’annihiler en un point où ni l’espace ni le temps n’existeraient plus ? Et Hawking a montré que les trous noirs rayonnaient.
« Nous sommes convaincus que ce qu’il se passe est beaucoup plus simple, assure Carlo Rovelli, matière et lumière rebondiraient en une gigantesque explosion, transformant le trou noir en trou blanc ». Quand la densité augmente à l’excès, la théorie d’Einstein rencontre la mécanique quantique qui régit l’infiniment petit. Celle-ci dit que l’on ne peut pas concentrer la matière au-delà d’un certain degré. Et, lorsque toute la masse de l’étoile initiale se retrouve confinée au delà de cette limite, la densité atteint une nouvelle limite dite de Planck. Les théories de gravitation quantique prédisent alors l’apparition, dans cette étoile de Planck, d’une force qui va empêcher toute compression supplémentaire en créant un mur quantique infranchissable.
Le résultat est que ce qui arrive à cette étoile ressemble à ce qui arrive à un ballon qui cogne un mur : il rebondit. « Et comment va-t-il remonter : simplement à l’inverse de sa chute », observe Carlo Rovelli ». Encore faut il montrer qu’au moins mathématiquement, c’est possible et que l’on peut construire une métrique décrivant ce rebond tant dans les équations d’Einstein que dans la mécanique quantique. « La grande difficulté était de faire coller l’effondrement et le rebond. À notre grande surprise, on s’est aperçu que c’était possible », explique le chercheur, en constatant que l’on peut construire une solution générale (celle d’un effondrement suivi d’une explosion) totalement conciliable avec les équations d’Einstein, et tout à la fois valable à l’extérieur comme à l’intérieur du trou noir.
La jonction se fait grâce aux équations de la mécanique quantique, qui prennent un court instant le relais sur une région très limitée. Ce relais quantique permettrait la transformation d’une métrique de trou noir en métrique de trou blanc. La barrière théorique qui interdit, en relativité générale, de passer de l’un à l’autre, était pourtant incontournable sauf si les équations d’Einstein sont perturbées par les effets quantiques de perturbations infimes qui, accumulées sur un temps très long, vont altérer ces rigueurs relativistes.
Carlo Rovelli est convaincu que ces effets quantiques cumulés finissent par être actifs au-delà de l’horizon, cette zone d’où rien ne peu plus (en principe) ressortir, transformant alors un trou noir en trou blanc. Mais si les trous noirs deviennent un jour des trous blancs, pourquoi ne les voit-on pas flamboyer dans le ciel ? « C’est là que vient l’idée la plus belle », s’exclame Carlo Rovelli. « En relativité générale, le temps n’est pas le même pour tout le monde. A notre échelle, c’est imperceptible, mais dans un trou noir la différence devient énorme. « Un temps très bref à l’intérieur correspond à un temps très long à l’extérieur », explique-t-il. « La déformation de l’espace-temps dans un trou noir est telle qu’un effondrement d’une milliseconde à l’intérieur - temps que met un trou noir de quelques masses solaires pour se contracter - correspond à plusieurs milliards d’années à l’extérieur ». Si l’on ne voit pas de gros trous noirs exploser dans le ciel, c’est simplement parce que, dans notre espace-temps à nous, ils n’en ont pas encore eu le temps.
Il n’est ici question que d’une intuition car il reste à décrire ce qui se passe au niveau microscopique en se basant sur une théorie de la gravitation quantique et ce modèle n’en est pas là. Cependant, Aurélien Barrau, du Laboratoire de physique subatomique et de cosmologie (CNRS-IN2P3) pense qu’il n’est pas impossible qu’on puisse mettre, en prime ce modèle à l’épreuve. Il espère que l’on puisse bientôt détecter des indices de telles explosions. « Non pas pour les gros trous noirs, ni ceux créés par des étoiles de quelques masses solaires ; ils ne devraient exploser qu’au bout d’un temps supérieur à l’âge de l’Univers ! Mais certains-mini trous noirs plus récents ont peut-être déjà explosé. ».
Ceux-ci perdent constamment une partie de leur masse à cause d’un phénomène d’évaporation dit de Hawking. « Par un effet de couplage avec les fluctuations quantiques du vide, ils rayonnent de la lumière, de la matière et leur masse diminue rapidement » explique l’astrophysicien, mais non pas jusqu’à disparaître. « Dans le modèle de Carlo Rovelli, cette évaporation va être rapidement arrêtée par une explosion qui libérera toute la masse », explique Aurélien Barrau. Et, une telle explosion libérant un flot de photons gamma qui, selon ses calculs, devraient avoir une énergie de 100 MeV, accessible aux instruments actuels. « Il n’est pas impossible que certains sursauts gamma observés, très rapides et très énergétiques, soient l’explosion d’une étoile de Planck », souligne prudemment le chercheur.
« J’ai calculé, dit-il, que la distance maximale à laquelle on pouvait voir l’explosion d’une étoile de Planck est d’environ 200 années-lumière et au-delà, on ne voit plus rien. Or, les sursauts gamma sont émis, en principe, à plusieurs milliards d’années-lumière », note-t-il. Il devrait donc être possible de les distinguer, s’ils existent. Car les seuls trous noirs suffisamment petits pour subir une évaporation assez rapide sont les trous noirs primordiaux, qui se seraient formés juste après le big bang. « Pour être honnête, reconnaît Aurélien Barrau, on n’en a jamais vu ». Il faudrait donc à la fois révéler l’existence de ces trous noirs primordiaux, et confirmer l’étonnante intuition qu’ils pourraient être en train d’exploser.
Il ne faut pas oublier de parler ici d’une autre énigme cosmique ; celle posée par les quasars ; un mot signifie ‘quasi-stellaire radio source’. En fait, on ne sait pas ce que c’est. Ils sont tous situés a des millions, voire à des milliards d’années lumière de nous, extrêmement loin dans l’espace et dans le temps. D’eux, nous ne savons pratiquement rien. Peut être sont ils des trous noirs super massifs, de plusieurs milliards de masses solaires. On a pourtant détecté à leur proximité des jets relativistes qui pourraient être des jets de particules accélérées par le champ magnétique du quasar à des vitesses proches de celle de la lumière, éjectées le long de leur axe magnétique.
Au fil du temps et de l’évolution et de la mort des étoiles, le cosmos s’est peuplé d’un nombre immense de trous noirs de plus en plus massifs qui finissent théoriquement par fusionner. Les chercheurs pensent que notre galaxie, la Voie lactée, comme beaucoup d’autres, serait peuplée d’innombrables trous noirs. Il est probable que la plupart des galaxies spirales cachent en leur centre un trou noir géant qui régit leur forme et leur destin. Nous savons que les galaxies dérivent dans l’espace jusqu’à se rencontrer. Le cosmos n’a donc pas fini d’évoluer.
11 Épilogue
Vous avez peut être remarqué que dans le macro univers des actuels physiciens, et contrairement à ce que l’on trouve dans le micro univers des sous particules, la spiritualité ne trouve guère de place, à tel point qu’il n’est même plus question d’une forme quelconque du vivant. Cet univers mathématique me semble incomplet, et humainement invivable.
C’est pourquoi j’ai cru utile, dans les chapitres 8 et 9 comme en exposant la vision si particulière de Jean Charron, de rappeler qu’une saine vision du monde me semblait nécessairement intégrer d’autres approches que cette seule conception mathématique et matériaaliste.
Albert Einstein qui était profondément croyant, (à sa façon très personnelle), protestait d’ailleurs contre cette approche qu’il estimait imparfaite ou incomplète. Il n’était pas le seul, et rappelons ici la genèse de la Gnose de Princeton.
Il faut d’abord savoir qu’il s’agit d’une affabulation imaginée par Raymond Ruyer pour étayer la publication de sa propre pensée. Raymond Ruyer est un philosophe professionnel, de l’Université de Nancy, proche de Jacques Merleau-Ponty. L’objet essentiel de leur commune réflexion est la science.
Ruyer prétend qu’un grand renversement de perspective philosophique a commencé dans les milieux scientifiques les plus connus, surtout aux USA, à Princeton, ou au Mont Palomar, et ailleurs. Ce serait pour cela qu’il a appelé son livre «La Gnose de Princeton ».
D’après lui, beaucoup d’astronomes et de physiciens auraient découvert que l’interprétation purement matérialiste de l’univers en rendait impossibles les réalités les plus évidentes. A partir de ce constat, ils auraient élaboré la forme renouvelée de la pensée scientifique qui constitue le fondement du livre. En s’éloignant du matérialisme presque doctrinal qui caractérisait les chercheurs du 20e siècle, cette nouvelle approche, appelée Gnose par l’auteur, (du grec : sagesse et connaissance), postule que l’Esprit constitue la seule véritable trame de la matière. Les corps matériels n’en seraient que l’apparence, et, ceci est important, seulement pour un autre esprit. L’univers ne serait donc que la conscience ; celle que ces formes essentiellement spirituelles ont d’elles-mêmes et des interactions qu’elles ont entre elles.
Á l’échelle astronomique, les mécanismes cosmiques travaillent évidemment à la destruction complète du cosmos, mais aucun d’eux ne peut remonter dans le temps au-delà d’une quinzaine de milliards d’années. Qu’y avait-il donc avant ? Et la destruction progressive de l’univers contrebalance-t-elle simplement l’apparition de la conscience et de la pensée qui, en ce sens, élaboreraient le véritable avenir cosmique.
La matière constituerait donc seulement le dehors visible de la réalité totale dont le dedans serait la conscience. « Il faudrait alors « remettre la science à l’endroit » en découvrant le dedans des choses, nouvel objectif des chercheurs éclairés. Cette nouvelle interprétation cohérente de la science intègrerait maintenant la spiritualité.
Elle énoncerait que l’évolution du monde a un but, et que tout vivant participe à un acte créateur divin, dans la mesure de sa propre liberté. On voit tout de suite combien les récentes découvertes dans le domaine des sous particules ont pu grandement influencer la rencontre de la science avec la philosophie et la religion. L’histoire nous enseigne bien que la religiosité, au sens noble du terme, est une constante de la pensée métaphysique humaine. Ne nous étonnons pas qu’elle retrouve une place temporairement oubliée. Bien des penseurs ne s’y sont pas perdus.
Finalement le masque énigmatique du Trickster ne m’apparaît plus maintenant si étrange, hostile ou moqueur. Tout bien considéré aujourd’hui, il me semble au contraire chargé d’une grande tendresse avec peut-être un peu de tristesse ; comme un cache posé à regret pour assurer le destin des hommes, et derrière lequel transparaît à mes yeux un tout autre visage, débordant tout à la fois d’amour et de compassion, le véritable visage de Dieu.
Et elle est éternelle !
1 le Tricskter..................................................................... 5
2 Les particules sont éternelles 17
3 L’expérience de la double fente 33
8 Le champ est l’unique réalité........... 109
10 Les mystères du macro univers 151
11 Epilogue....................................................................... 169
@ Jacques Prévost -
Cambrai - France - 2018
Jacques Henri
Prévost
Le
sourire malicieux de l’Univers
Selon l’auteur, notre découverte de
l’Univers semble se dérouler comme un jeu indéfiniment renouvelé. Un mystérieux
démiurge s’ingénierait à démonter chaque théorie expliquant l’origine du
Monde, en ouvrant une nouvelle hypothèse incompatible avec la précédente.
C’est ce qu’il appelle le sourire moqueur Trickster, ce génie mythique et
trompeur, tout à la fois bon et mauvais, qui se situerait entre le divin et
l’homme.
Á l’origine de l’univers macrocosmique,
une mystérieuse et inconcevable énergie aurait provoqué l’émergence d’un
inconcevable chaos qui s’est structuré dans le temps et l’espace en donnant
naissance aux innombrables galaxies et à tous les astres étonnants qui peuplent
le Cosmos.
L’exploration de l’univers microcosmique
réserve ici aussi bien des surprises. Avec d prodigieux outils, nous avons essayé de percer les mystérieux secrets
des plus ultimes constituants de la matière, et nous avons là aussi rencontré
le sourire ironique du démiurge moqueur.
Mais c’est notre cerveau qui crée la représentation du monde, dans l’obscurité du crâne. Notre monde ne serait-il que la perception mentale et imaginaire d’un hologramme bien plus grand que tout ce que l’homme peut concevoir. Peut être n’y a-t-il rien autre dans la réalité ultime que le sourire ambigu du Trickster ?