Jacques Henri Prévost

 

 

 

 

 

 

Le sourire malicieux

de l’Univers.

 

 

 

 

 

 

@ Jacques Prévost – Cambrai – France

 

 

 

 

 

 

1 Le Tricskter

 

 

Lorsque j’avais vingt ans, la science fiction était à l’hon­neur. J’étais alors tombé sur un récit  dont j’ai oublié le titre et l’auteur, non pas l’argument. Il s’agissait d’un astrophysi­cien qui s’acharnait à dé­couvrir les ultimes se­crets de l’uni­vers. Il posa le dernier signe de sa dernière  équation et s’ap­prêta à lancer le calcul quand Dieu appa­rut avec un large sourire.

 

« C’est bon! Tu m’as trouvé ! Á ton tour de te ca­cher!

Je te compte quinze milliard d’années!».

Ainsi, semble se dérouler notre découverte de l’Univers ; comme un jeu de cache-cache indéfini­ment renouvelé. Chaque problème résolu dé­bouche sur une énigme nou­velle. Il semble qu’un mysté­rieux démiurge s’ingénie à démon­ter cha­cune des grandes théories expliquant l’ori­gine du Monde, en ouvrant la voie d’une nouvelle hypo­thèse contra­dictoire et incompatible avec la précé­dente. C’est ce que j’appelle le sourire mo­queur du « décepteur », cette divinité chaotique de nom­breuses cultures, ce « Trickster », tout à la fois bon et mau­vais, qui se situerait entre le di­vin et l’homme.

Lorsque nous portons le gigantesque regard de nos téles­copes vers l’infiniment grand, nous décou­vrons sans cesse de nouvelles structures qui en­globent le déjà connu dans un nouvel aspect, tou­jours plus in­accessible. Et lorsque nous bra­quons l’œil si déme­surément myope de nos mi­croscopes électroniques, sur l’infiniment petit, nous voyons également éclore de nouvelles structures toujours différentes d’aspect et de com­plexité, qui consti­tuent d’autres organisa­tions im­briquées, tout aussi inaccessibles.

Il en est de même des structures vi­vantes, supports évolutifs de la pensée. Plus leur étude progresse, et plus leur admi­rable complexité se révèle. Mais ce n’est pas là l’objet ac­tuel de notre propos. Ce que je propose est une réflexion sur la relation que l’Homme semble vouloir établir entre l’Uni­vers et lui, en tentant d’en comprendre les fondements. Et il tentera de forma­liser cette maîtrise en l’enfer­mant dans des équa­tions ou des théories bien struc­turées.

Un grand physicien, Stephen W. Hawking, recon­nu univer­sellement comme l’un des plus grands cosmologistes ac­tuels, définit régulière­ment ce que sont les théories scienti­fiques, au fil des pages de ses ouvrages. Je veux ici résumer ce qu’il ré­pète in­lassablement.

« Nous devons bien comprendre ce qu’est une théo­rie scien­tifique. Dans une telle théorie, l’opi­nion banale voit un mo­dèle représentatif de l’uni­vers, ou celui d’une par­tie limitée de l’uni­vers, as­socié à un ensemble de règles mettant en re­lation des quanti­tés issues à la fois de ce mo­dèle imagé et des obser­vations expérimentales. Cela est une opinion bien naïve. La théorie n’existe que dans notre esprit et ne peut avoir d’autre réalité, quelle qu’en soit la si­gnification. Les  théories physiques sont toujours provisoires. Elles ne sont que des hypothèses: Per­sonne ne pourra jamais prouver une théorie phy­sique, parce que personne ne pour­ra jamais être certain que la prochaine observa­tion, quel qu’en soit le nombre déjà effectué, ne mettra pas cette théorie en échec. ». 

Cette affirmation d’Hawking est d’autant plus in­téressante, qu’il a remis lui-même en question cer­taines de ses convic­tions. Après avoir été un fervent partisan du big-bang, il pense maintenant que l’univers n’a pas de début et même pas de bord.

Lorsque que nous engageons la réflexion sur la na­ture du monde, nous le faisons à partir des per­ceptions et du témoi­gnage de nos sens. Cette mise en œuvre des instru­ments sen­soriels est une dé­marche universelle essentielle à la survie. Ces ou­tils ne sont pas des instruments de connais­sance, mais des équipements de survie. Ils ne sont pas braqués vers des objets à connaître, ni adaptés à leur découverte ou à la déter­mination de leurs ca­ractéristiques mais, tout au contraire, ils sont conformés par les particu­larités des sujets à proté­ger, édifiés à partir de leurs modes de vie ou de leurs besoins, et adaptés à leurs facul­tés. Or, dans notre démarche explora­toire, nous allons détour­ner ces instruments de leur fonc­tion première, ce qui ne sera pas sans consé­quences.

Nous allons utiliser prioritairement la vision. Or, si l’œil est un outil de survie fort efficace, il n’est pas pour autant établi qu’il soit le plus adéquat des ins­truments de re­cherche. J’en ‘ai longuement ex­posé les raisons dans d’autres études et je me bor­nerai ici à résumer fort briève­ment la ques­tion.

Dans do­maine sécuritaire qui est le sien, l’œil uti­lise le mé­dia le plus rapide qui soit, la lu­mière. C’est une so­lution fort efficace,  mais les limites posées par les contraintes évolu­tives, physiques et phy­siologiques, terrestres sont ici fort im­portantes. J’en don­nerai ici quelques exemples. Dans l’éten­due globale considé­rable des ondes électromagné­tiques dont fait par­tie la lumière dite visible, l’œil humain est sensible aux seules longueurs d’ondes comprises entre 400 na­nomètres, (ultraviolet proche), et 750 nano­mètres, (infra­rouge proche).

C’est une toute petite fenêtre.

 

La mise en place évolutive, (controversée), de l’œil biolo­gique a été bien évidemment condition­née très étroite­ment par les conditions phy­siques et chi­miques de la vie sur terre et par les besoins existen­tiels des espèces concernées. Comme il est fonda­mentalement un détecteur du rayonne­ment du So­leil, dont la température exté­rieure est d’en­viron 5800 °C, (couleur jaune pâle), l’œil est adapté aux caracté­ristiques de cette lumière, corri­gées en fonc­tion de la frac­tion  disponible dans l’environ­nement humain naturel de sa vie ter­restre.

Mais ce n’est pas le seul type de problèmes. La  fonction de la vision est essentiellement  informa­tive. Son objectif fon­dateur est d’informer une en­tité interne mystérieuse qui est le «Mental».

L’œil distingue dans l’environnement l’existence de cer­tains indices qu’il détecte en valorisant leurs différences par rap­port au décor ambiant. Cette mise en relief porte sur divers facteurs, tels la lu­minosité, la couleur, la forme, le relief, l’orienta­tion spatiale, le mouvement, la grandeur, la confor­mité à un modèle, et d’autres para­mètres.

Pour améliorer l’efficacité de la fonction, l’exer­cice de cette capa­cité de différenciation est relié à la mémoire et à l’acti­vité synchrone et co­opérante d’autres sens qui apporté anté­rieurement des in­formations conver­gentes et complémen­taires. Il s’agit donc d’une complémentation mémorielle et artificielle. Les sensations sont donc des phéno­mènes psy­chophysiologiques, en­gendrés par l’ex­citation de l’organe considéré complémentée par des informations mé­morisées. Le message émis à destination du mental quand il est reçu par lui, est appelé percept.

Comprenons bien que le percept est toujours un objet pu­rement mental.

 

Il  ne fait pas de véritable référence à la chose réelle qui a émis le signal initial mais il en si­gnale la présence, en parti­culier par référence au connu, en modifiant parfois automa­tiquement le contenu comme en grossissant le so­leil ou la lune lors­qu’ils sont bas sur l’horizon). L’objet mental n’est jamais que la représentation interne élec­trique de l’objet ex­terne observé et, en d’autres termes, il n’en est donc toujours qu’une image.

Il faut absolument comprendre que ces images sont créées dans notre cerveau. Elles sont inté­rieures  et la réa­lité exté­rieure est différente.  La lumière, par exemple, n’existe pas. Á l’extérieur de nous même, il y a un im­mense champ d’ondes électromagné­tiques diverses que notre cerveau neu­rologique transforme en cette image intér­ieure de lumière (avec toute la relation symbol­ique et mentale correspon­dante). Nous touchons ici la consé­quence majeure de la pri­mauté don­née à la vision dans l’ex­ploration de l’environne­ment.

Les objets mentaux sont généralement perçus

sous forme d’images.

 

Et par images, il faut ici comprendre des représen­tations re­liées aux caractéristiques de la vi­sion dans les contraintes posées par les environnem­ents phy­siques et écologues de la pla­nète Terre.

Dans le langage courant, on utilise d’ailleurs des termes comme imagination ou imaginaire pour  dé­crire des situa­tions sans lien direct avec la vi­sion, ce qui confirme mon propos.

On pourrait, bien  sûr, imaginer, (encore une image!), l’utili­sation d’un autre système de repré­sentation mentale de l’en­vironnement. C’est ce que font les grands musi­ciens en utili­sant le canal so­nore, encore plus réduit que le canal vi­suel. Leur univers musical n’est en rien compa­rable à l’uni­vers mathématique des astrophysi­ciens. Ils uti­lisent ce­pendant des mouvements, des es­paces,  et des ob­jets sonores qui ont, dans leur mental par­ticulier, une réalité objective.

Une première question est posée : Est-il adéquat d’utili­ser la vision, (outil de survie), comme un ins­trument de connais­sance d’une part dans les dé­couvertes de l’envi­ronnement proche et dans les explo­rations  microcos­miques et macro­cosmiques. 

Dans la découverte environ­nementale, le système semble fonctionner de fa­çon satisfais­ante, mais nous avons vu que ses possibilités sont très limi­tées. En consé­quence, les connais­sances corréla­tives le seront aussi.

D’ailleurs, d’autres espèces vivantes ont dévelop­pé des or­ganes visuels bien plus perfor­mants. Les ra­paces, par exemple, ont des yeux surdimension­nés, un très large champ visuel, une ré­tine comp­tant cinq fois plus de cel­lules vi­suelles que la ré­tine hu­maine ainsi qu’une double fovéa, une très grande capacité d’accom­modation tant en vision de près que de loin, si bien que leur vi­sion est glo­balement dix fois plus performante que la nôtre, ceci dans le seul domaine de l’ex­ploration de l’en­vironnement proche.

On constate une situation analogue dans la vision des cou­leurs. Elle est assurée chez l’homme par un système trichro­matique d’environ six millions de minuscules photorécep­teurs différenciés, les cônes, qui sont stimulés par les lu­mières bleues, rouges, ou vertes, émettant vers les nerfs op­tiques des in­flux  composites engendrant la per­ception d’en­viron deux millions de couleurs dif­férentes.

Les daltoniens n’ont que deux types de cônes, et  confondent donc une partie de ces couleurs. Cer­tains ani­maux en ont moins mais d’autres plus. Comme les per­ruches, les pigeons ont cinq sortes de cônes et sont aussi sensibles au flux magné­tique terrestre. Les serpents voient dans l’infra­rouge, et les abeilles, dans l’ultraviolet, distin­guant en plus le sens de polarisation de la lu­mière.

Comme on le voit, en tant qu’outil de survie, quoique il ne soit pas la meilleure des solutions, l’œil humain de­meure re­lativement satisfaisant, mais comme instrument de re­cherche, il n’est pas très performant. Nous devrons donc uti­liser des ar­tifices techniques pour remédier à ces insuffi­sances.

Dès lors, lorsque nous dirigerons le regard techni­quement perfectionné de nos télescopes vers les étoiles du ciel ma­crocosmique, nous n’utilise­rons plus seulement l’étroite fe­nêtre de notre œil natu­rel dans la seule lumière visible, mais nous l’ou­vrirons dans toute l’étendue des fré­quences élec­tromagnétiques  qu’il nous sera possible d’at­teindre. Avec le prodigieux regard de nos super  té­lescopes, nous  essayons de percer les secrets du mysté­rieux cosmos et nous rencon­trons alors un premier sou­rire ironique du Trickster mo­queur.

Car nous avons maintenant appris qu’il nous ne pouvons pas découvrir l’Univers au présent. La lu­mière parcourt toujours l’espace avec une vi­tesse limitée, (la plus élevée possible, vitesse li­mite). Par conséquent, et quelle que soit la dis­tance qui nous sépare de l’objet observé, aussi proche ou distant soit-il, nous ne pourrons jamais l’obser­ver au pré­sent.

Nous verrons toujours l’Univers au passé

 

J’ai écrit quelque part :

« l’Homme ne voit que l’exté­rieur des choses,

l’intérieur est à Dieu. ».

On pourrait tout aussi bien dire que

« l’Homme ne voit que le passé du Monde,

le présent (et l’avenir) sont à Dieu. ».

 

Si vous le voulez bien, nous allons maintenant exa­miner les théories du Monde et du Temps que pro­pose la science ac­tuelle. Rappelons ce que di­sait Stephen W. Hawking. « Une théorie n’existe que dans notre esprit et ne peut avoir d’autre réa­lité../… Les  théories physiques sont toujours pro­visoires. Elles ne sont que des hypo­thèses. ». Il ne s’agit absolument pas ici d’exposer une vé­rité fon­damentale concernant la réa­lité du Monde. Nous allons seulement examiner le contenu ces objets mentaux élaborés par des cer­veaux scienti­fiques pour ex­pliquer leur pensée sur la question.

Vous allez voir qu’ils ont imagi­né des hypothèses extrême­ment complexes. Vous voudrez pardonner les quelques pages compli­quées qui suivent. Elles ap­pelleront des nombres très petits ou très grands. Ils tentent d’exprimer la durée, la tempéra­ture, ou la dimension de l’univers. Pour ceux qui ne sont pas mathémati­ciens, ils n’ont aucun sens immé­diat. J’es­saierai donc de leur substituer des images mentales pour leur donner un semblant de signifi­cation.

Paradoxalement, c’est le temps très long qui semble être le plus facilement figurable. J’ai long­temps cherché une image qui soit représenta­tive de l’im­mensité des temps écoulés tout en conser­vant une figuration suffisamment percep­tible et sa­tisfaisante de la durée de la vie hu­maine. Je crois qu’une sur­face peut répondre à cet objectif, si l’on convient de don­ner la valeur d’équivalence d’une année à chaque millimètre carré. C’est un très petit carré, mais il reste assez visible, car il est de la dimension d’une tête d’épingle.

Dans cette figuration, chaque vie hu­maine couvre un peu moins d’un centimètre car­ré. C’est l’ongle du petit doigt. Un million d’an­nées correspond alors à un mètre carré, ce que cha­cun peut se re­présenter fa­cilement. C’est une grande feuille de papier milli­métré où chaque pe­tit carré figure une de ces an­nées qui s’enfuient si ra­pidement. Mille mètres car­rés, la surface d’un très grand jardin, corres­pondent à un milliard d’années. La durée passée de l’univers, dix, ou quinze, ou vingt mil­liards d’années,  est alors re­présentée par une sur­face d’un à deux hectares, soit un carré de plus de cent vingt mètres de coté.

L’ancienneté du système solaire, étoile et pla­nètes, est esti­mée à quatre milliards d’années et demi, soit un tiers ou un quart de la durée pos­sible de l’uni­vers. La vie semble être présente sur Terre depuis deux ou trois milliards d’années. Dans notre convention de représentation, la vie depuis son obs­cure origine, couvre deux à trois mille mètres car­rés, et l’espèce humaine, un ou deux millions d’an­nées, soit envi­ron deux pas, mille fois moins. Dans cette grande prairie, la vie de chaque génération hu­maine, comme la nôtre, oc­cupe aussi peu de place qu’une petite pâquerette. Néanmoins elle occupe cette place et reste tout à fait repérable.

J’ai beaucoup cherché mais je n’ai absolument trouvé au­cune image qui permette de représenter les distances im­menses qui séparent les galaxies les une des autres. La di­mension de l’univers ob­servable, en kilomètres, s’écrit avec 24 zéros. (Et notez bien ici qu’il ne s’agit que de la partie ob­servable de l’Univers). Seule la représentation ma­thématique peut satis­faire ces be­soins, mais c’est alors une abstraction qui ne parle pas à l’imagina­tion ordinaire. Krisnamurti posait d’ailleurs la question en pensant qu’on ne pouvait pas y ré­pondre positivement. « Le cer­veau humain peut-il com­prendre la véritable di­mension de l’espace ? ».

Comment ces savants présentent-ils l’histoire uni­verselle ? C’est ce que nous allons voir au pro­chain cha­pitre.

 

 

 

 

2 Les particules sont éter­nelles

 

Il était une fois, un grand mystère !

 

Il y a 10 ou 15 ou 20 milliards d’années,  ou 200 mil­liards de degrés,  ou 4 milliards de parsecs.  (Un parsec = environ 3,2616 années-lumière). Tout est ici synonyme.

Donc, là bas, ou bien à cet instant, ou à cette tem­pérature, un événement fort mystérieux est (peut être) arrivé. Voyez que j’utilise impropre­ment le passé puisque le temps n’existait pas en­core. D’autres théoriciens pensent qu’en ce point parti­culier, (que nous sommes convenus d’appe­ler ori­gine), une cause initiale a pu soudain se manifes­ter avec une énorme puissance.

Un inconcevable préexistant aurait provoqué l’avè­nement de l’univers ac­tuel, et nous sommes priés de penser que cet événement a donné simul­tanément naissance au temps, à l’énergie et à la dimen­sion. Nous nous éloignons encore de ce point origi­nel tout à la fois dans le temps qui coule, dans la température qui baisse, et dans les dis­tances qui croissent. C’est pourquoi on peut in­différemment chiffrer cet éloigne­ment en temps, en degrés, ou en distances. Ces fac­teurs évo­luent de concert et sont équi­valents.

On dit aussi que l’entropie s’accroît. L’énorme agi­tation ini­tiale semble aujourd’hui se calmer et cou­rir vers sa fin. Un facteur important se diffé­rencie en sens inverse, comme l’entropie, l’infor­mation augmente avec la conscience d’être. L’oméga des fins dernières rejoindrait-il l’alpha des origines ?

C’est l’abbé Lemaître, un astro­nome et physicien belge, qui semble avoir envisa­gé le premier une idée révolutionnaire, qui fai­sait soudaine­ment naître notre univers dans une ex­plosion initiale in­concevablement puissante.

En 1927, il introduisit l’idée d’un univers en ex­pansion, puis proposa, en 1931, une hypothèse de l’atome primitif décri­vant un univers provenant d’une singularité initiale. C’est bien plus tard, et initialement par plaisanterie qu’on l’appela « Big Bang » puis que l’on adopta le terme.

Dans le déroulement du processus d’apparition de la ma­tière, (et peut-être devrais-je dire de sa mani­festation), les scientifiques distinguent, actuelle­ment, et par consensus, plusieurs périodes nette­ment différenciées.

La première, fort courte, c’est la première se­conde. La deuxième comprend les quelques pre­mières mi­nutes. La troisième, c’est le mystérieux premier mil­lion d’années. La quatrième, c’est l’âge stellaire, notre univers actuel. La der­nière, c’est l’univers futur et incon­nu.

Cette répartition est trop grossière pour décrire cor­rectement l’image que l’on se fait actuelle­ment des débuts de l’univers. Il faut y faire des distinc­tions bien plus dé­taillées et plus subtiles. Tout se passe comme si d’im­menses vagues exis­tentielles par­taient du centre de la ma­nifestation pour par­courir successivement et indéfiniment le cosmos, en élargis­sant sans cesse leur rayon d’action, d’or­ganisation, de re­construction et de transformation.

La première de ces vagues est  très courte, mais il s’y pro­duit une suite d’événements étonnants et fort com­plexes.

1 / Pendant un premier temps extrêmement bref, la situa­tion n’a pour nous aucun sens. Nous ne pou­vons en faire aucune image compréhensible et nous sommes dans l’in­certitude absolue. Puis, après une fraction de seconde, qui s’exprime en chiffre par un zéro suivi de 42 autres zéros après la vir­gule, les forces fondamentales apparaissent, confondues d’une façon que les physiciens ne peuvent pas en­core éluci­der. Elles commencent ensuite à se diffé­rencier avec un changement d’état, dit transition de phase, après chaque ap­parition.

2 /Après zéro seconde suivi de 33 zéros après la virgule, une première force se caractérise, et se sé­pare. C’est la gravité, celle qui attire les corps les uns vers les autres et assure la structure de l’uni­vers.

3 /Au 27ème zéro, la température tombe en des­sous de cent millions de degrés. La force qui as­sure la cohésion des noyaux atomiques, se sépare à son tour. L’univers enfle brusquement. Son état initial est bouleversé et les quarks,  les éléments fonda­mentaux de la matière, sont alors formés. Des quantités énormes de matière et d’antimat­ière ap­paraissent et s’annihilent mutuellement, se trans­formant en rayonnement. Mais il subsiste un tout pe­tit excès de matière qui constitue l’univers ac­tuel.

4 / Au 10ème zéro, les deux dernières forces connues se sé­parent. La force faible qui contrôle la radioactivité à l’inté­rieur des atomes, divorce de l’électromagnétique qui contrôle les phéno­mènes magnétiques, électriques, et chi­miques. Il y a un brutal changement de phase. Les quarks s’as­semblent et fusionnent trois par trois pour former les protons et les neutrons. A ce moment toutes les particules sont formées. Elles semblent pouvoir du­rer bien plus longtemps que l’univers lui-même.

En principe, les particules sont éternelles.

 

 Après la première seconde, la seconde phase, l’âge nu­cléaire commence. Une seconde vague existen­tielle s’élance, dans un uni­vers déjà très différent et beaucoup plus étendu. La tem­pérature baisse. Pro­tons et neutrons fu­sionnent pour for­mer seulement un petit nombre de corps élémen­taires. Ce sont le deutérium et le tritium. Ils fusion­neront ensuite pour donner l’hélium 4, le li­thium 7 et le bé­ryllium 7.

Après trois minutes les premières fu­sions nu­cléaires s’ar­rêtent. L’aven­ture est provi­soirement terminée.

L’univers attend des temps meilleurs.

 

La troisième vague démarre. La période radia­tive, un nouvel âge de l’univers va durer un mil­lion d’années au moins. Pendant cette période radia­tive, l’univers est sur­tout rempli de photons qui se bous­culent frénétiquement sans trouver as­sez d’espace pour se déplacer. La lumière n’existe pas en­core, au sens que nous don­nons actuelle­ment à ce mot, car elle ne peut se propa­ger et n’éclaire pas l’espace. L’univers continue à grandir, et lorsque la période se termine, les pho­tons peuvent com­mencer à circu­ler dans l’es­pace, y propa­geant les rayon­nements électroma­gnétiques. Soudaine­ment l’univers de­vient trans­parent.

Est-ce  l’instant de lumière de la Genèse ?

 

Les photons, ondes ou particules de lumière, se dé­placent à une très grande vitesse, constante dans un milieu donné. Dans le vide, ils par­courent trois cent mille kilomètres par seconde. A cette vitesse (dite limite), les notions de temps et d’espace n’ont plus de sens.

La lumière existe éternellement hors du temps.

 

Tous les autres composants de l’univers se dé­placent moins vite car ils sont freinés par cer­taines de leurs pro­priétés, par exemple par leur inertie ou leur masse. Ces retards par rap­port aux photons sont ce que appelons « le temps ». Comme chaque corps se déplace à sa propre vi­tesse, chaque corps a son propre retard. Il a donc son propre temps. Bien évidem­ment tous ces écarts sont rela­tifs les uns par rapport aux autres.

C’est pourquoi on ap­pelle cette théorie, essentiel­lement éla­borée par Einstein, « Théorie de la rela­tivité ». Après ce pre­mier million d’années, l’uni­vers se transforme à nouveau, et la matière se concentre.

C’est l’ère stellaire.

Nous y sommes encore aujourd’hui.

 

La quatrième vague existentielle s’étend en pous­sant les bornes de l’univers à des distances et vers des limites qui dépassent nos capacités hu­maines de représentation. (On n’a aucune idée des limites actuelles de l’univers puisque la vi­tesse de la lu­mière nous interdit de les atteindre). En son sein, d’autres vagues se forment, plus petites mais com­bien plus impor­tantes pour nous. D’immenses nuages de gaz et de poussières se rassemblent par l’effet de la gravita­tion, et forment les protoga­laxies. Encore un mil­liard d’années et les pre­mières étoiles s’al­lument,  (soit seulement mille mètres carrés dans notre convention de représenta­tion). Elles sont souvent énormes et meurent rapi­dement. La plu­part d’entre elles explosent et ré­pandent dans l’es­pace leur matière mainte­nant éla­borée.

Tous les éléments chimiques que nous connais­sons, et d’autres éléments encore inconnus, existent de­puis cette époque. Ils ont été fabriqués dans les creusets alchi­miques et flamboyants de tous ces astres disparus, et ont été dispersés par leurs explo­sions finales pour donner en­suite nais­sance à de nouvelles étoiles. Les étoiles sont grou­pées en ga­laxies qui en rassemblent chacune plu­sieurs cen­taines de milliards, et il y a au moins cent mil­liards de galaxies dans l’univers connu.

Une autre théorie dit qu’il est tout à fait possible que d’in­nombrables autres univers (inacces­sibles) existent à coté du nôtre, et qu’ils soient régis par des lois physiques complète­ment diffé­rentes de celles que nous connaissons. Actuelle­ment, cette hypothèse ne peut être éclaircie.

Après dix milliards d’années, le Soleil !

 

C’est alors qu’eut lieu la formation du système so­laire et de notre planète et de toutes les autres. Les cendres des an­ciennes étoiles se rassemblent par l’effet de la gravité, et constituent des nuages de poussières et de gaz, puis des grains et des cailloux, puis des  rochers et enfin des astres.

Notre Terre se serait formée progressivement, par agréga­tion de ces éléments. Une période de huit cents mil­lions d’années commence, pendant la­quelle des compo­sés chi­miques de plus en plus complexes vont s’élaborer dans un monde agité de gigantesques convulsions. Des bolides cos­miques s’y abattent chaque jour, provoquant de terribles ca­tastrophes et transformant la surface. C’est en­core une théo­rie. En fait, il faut bien ad­mettre que nous ne savons prati­quement rien des trois pre­miers quarts de l’histoire de la Terre.

La vie a pu apparaître pendant cette période, peut-être as­sez rapidement, mais dans des formes extrê­mement simples. Les premiers organismes multi­cellulaires et les premiers végé­taux com­mencent à se répandre deux ou trois milliards d’an­nées plus tard, c’est-à-dire il y a envi­ron un milliard d’an­nées en amont de notre actuel exa­men.

Nos derniers mille mètres carrés de jardin sont en­tamés. En­core quatre cents petits mètres carrés et voici les pre­miers animaux à squelette externe. Leur apparition se si­tuerait à quatre ou cinq cents millions d’années avant nos jours. Les terres émer­gées qui ne formaient qu’un seul vaste conti­nent, la Pangée, commencent à se morce­ler en grandes plaques qui partent à la dérive. Leurs col­lisions font dresser les mon­tagnes et les vol­cans. Les pre­miers poissons sont là, à quatre cent cin­quante mil­lions d’années, suivis des premiers rep­tiles à trois cents mil­lions d’années. Mainte­nant notre pré carré a la dimen­sion d’un jardin de curé.

Les premiers dinosaures et les premiers mammi­fères partent à la conquête du monde voici deux cents millions d’années.

L’océan Atlantique Nord commence à s’ouvrir. Il y a soixante millions d’années, presque hier, une ex­traordinaire catastrophe a fait disparaître les di­nosaures et la plupart des espèces qui vi­vaient à leur époque. A ce mo­ment l’Amé­rique du Sud se sépare de l’Afrique. Les rep­tiles laissent la place aux mammifères. L’herbe couvre les terres émer­gées.

Á trente millions d’années, trente de nos mètres carrés de pelouse, les primates commencent à évo­luer. Dans notre plate-bande, au bout du bras, un cu­rieux animal se pré­pare à devenir une per­sonne. Cet ani­mal qui va bientôt le­ver son regard vers le ciel est notre ancêtre.

Quant à notre bon vieux Soleil, il est situé sur le bord de la galaxie, dans une région où les étoiles ne sont pas très nom­breuses. Lorsque nous regar­dons le ciel nocturne, nous n’en distinguons qu’environ cinq mille à l’oeil nu. Si le hasard nous avait placés plus prés du  coeur de la ga­laxie, c’est un million d’étoiles qui brilleraient au ciel. Les notions de nuit et de jour n’auraient plus beaucoup de sens, et la science et la métaphy­sique auraient peut-être pris un tout autre chemin. Je tenterai, plus loin, de décrire les idées des scien­tifiques concernant l’apparition et le développe­ment de la vie ter­restre, et plus parti­culièrement de l’intelli­gence humaine. Terminons-en d’abord avec ce diable d’univers qui n’en fi­nit pas d’aller vers sa fin.

Car la prochaine vague reste à venir.

 

Certains imaginent un renversement du temps et un re­tour aux sources, mais d’autres y voient un avenir sombre et gla­cé. L’univers mort pourrait continuer à s’accroître indéfini­ment pendant l’éternité. D’autres pensent qu’il va s’effon­drer au centre d’un immense trou noir, puis rebon­dir d’une façon cy­clique en créant un nouvel uni­vers. Cela n’est pas pour demain. L’immensité actuelle de l’es­pace et du temps suffit amplement à poser à notre intelli­gence des défis re­doutables.

L’affirmation d’Hawkins sur l’impermanence des théories scientifiques est d’autant plus intéres­sante, qu’il a remis lui-même en question cer­taines de ses convictions. Après avoir été un fervent partisan du big-bang, il pense main­tenant que l’univers n’a pas probablement pas de début ni même de bord. Le prétendu big-bang ne serait probable­ment qu’un point singulier comme le pôle terrestre.

Cer­taines lois élémentaires cessent de s’appliquer sans que cela implique un changement radical d’état. Par exemple, au pôle, le jour dure six mois, la boussole s’affole, les points cardinaux n’ont plus de signification. Ce pôle est simple­ment un  point singulier, mais cela n’est pas per­ceptible sur le ter­rain. Sur le plan métaphysique, il convient de me­surer ce qu’im­plique une semblable théo­rie, qui professe un uni­vers sans limites, sans cause, et sans début ni fin.

Au non-commencement était

l’univers indéfi­ni.

 

D’autres théories pourraient être évoquées pour ou­vrir d’autres perspectives. Évoquons d’abord la grande rivale de la théorie de la relativité gé­nérale, la mécanique quan­tique. La théorie quan­tique s’in­téresse aux plus petits composants du monde, et pas aux galaxies. Dans l’étude du mi­crocosme, elle cal­cule en millionièmes de mi­crons, alors que la théo­rie de la relativité géné­rale décrit l’uni­vers à grande échelle.

Les deux théories sont, semble-t-il, incompa­tibles. Elles ne peuvent pas être justes en même temps. Elles ne donnent donc pas une image complète de l’univers réel, d’où la re­cherche acharnée d’une théorie globalisante, qui en ferait la synthèse. Celle-ci n’a pas été réalisée jus­qu’à présent. La théorie de la mécanique quantique ne décrit plus le monde en termes de particules ou d’ondes car il y a une dualité entre ces deux re­présentations, et on utilisera donc l’une ou l’autre figure selon le besoin ma­thématique du moment.

Il faut également parler ici des théories qui  concernent la structure fractale de l’univers, et il faut expliquer ce que l’on entend par la notion de fractale. J’utiliserai l’exemple banal de la lon­gueur de la ligne de côte qui sé­pare la terre et la mer. On définit communément une lon­gueur comme une grandeur à une seule dimension, par­courue dans un seul sens. Vous savez que l’on passe à la surface en y ajoutant une seconde di­mension qui est la largeur. De même un vo­lume est caractérisé par trois di­mensions.

Lorsque l’on veut mesurer la longueur d’une côte mari­time avec une seule dimension, on se trouve confronté à une im­possibilité pratique. Quoique l’on ait affaire à un élément naturel structuré et or­ganisé, sa longueur change selon l’échelle à la­quelle se fait l’examen. Plus on aug­mente la préci­sion, plus la longueur s’accroît. Plus on tient compte des détails, telles les baies, puis les criques, puis les anfrac­tuosités, le contour des ga­lets et des grains de sable, plus la mesure s’altère et devient imprécise et mouvante. On peut cepen­dant mathématiquement l’expri­mer en di­sant que sa valeur tend vers un nombre de di­mensions plus grand que UN, puisqu’on n’obtient pas une véri­table mesure de lon­gueur, mais moins grand que DEUX, puis­qu’il ne s’agit pas d’une sur­face. Il s’agit donc d’un nombre fractionnaire de dimen­sions, d’où l’appellation de « fractale ».

On découvrirait aujourd’hui que l’univers serait à la fois chaotique et fractal. L’apparent désordre cosmique serait probablement organisé à tous les niveaux. Cette organisa­tion semblerait compo­sées de structures analogues à dif­férentes échelles, suc­cessivement emboîtées les unes dans les autres comme des poupées russes. Comme les côtes de nos océans, un univers fractal est fini, mais ses li­mites connaissables semblent à jamais hors de por­tée. On pourrait parler des lois hasar­deuses du chaos, mais ce ne sont que des mots humains dé­pourvus de sens réel. Ni le hasard ni le chaos ne suivent des lois évidentes de causali­té. Ils en­gendrent des structures conformes aux natures propres du hasard et du chaos, les­quelles ne sont pas de l’ordre ordinaire de notre nature.

C’est notre seule petite raison humaine qui pré­suppose l’existence d’un cadre référentiel préa­lable. De la même fa­çon, la structuration hypothét­ique du réel sur un mode frac­tal ne per­met au­cunement de présupposer l’existence d’un prin­cipe ou d’un mo­dèle de référence qui reste­rait à décou­vrir pour ex­pliquer les mystères du monde. L’océan n’attend pas la référence d’une formule pour occu­per la ligne mou­vante des côtes fractales du conti­nent. C’est bien au contraire le contour fractal qui émerge par lui-même de la rencontre mouvante, ha­sardeuse et chaotique de la terre et de l’eau.

Il en est probablement de même de l’uni­vers.

 

Lorsque l’on forme une image mentale de cet uni­vers, sa to­pologie, c’est-à-dire la façon dont sa forme est établie, est rarement prise en compte. Elle est intégrée comme une don­née vague sans réelle importance. Comment représ­enter ce mo­dèle général qui aboutit à la forme parti­culière, ac­tuellement observée ? Pour l’intel­ligence hu­maine, il existe peu de types généraux de formes topolo­giques. On distingue gé­néralement le plan, le cy­lindre, la sphère, le tore, et la forme gauche (genre selle de cheval). On a d’abord conçu l’uni­vers comme un plan, puis comme la sur­face d’une hy­per sphère grandissant au fur et à mesure de l’écoulement du temps.

Dans cette conception de surface sphérique, la lu­mière d’une galaxie lointaine peut seulement nous atteindre par deux chemins. Le premier, le trajet court, est vu de face. Le second, le trajet long;  fait  tout le tour de l’univers, et il est vu de dos. Aucun rayon lumineux n’aurait eu le temps de faire cet immense second parcours depuis le dé­but d’un uni­vers hyper sphérique. Mais d’autres topolo­gies sont pos­sibles parmi les­quelles la forme torique. Un tore peut être dé­fini comme un cy­lindre dont les deux ex­trémités ont été mises en connexion. Si l’univers a la forme d’un tore, la lumière d’une galaxie loin­taine peut  nous parvenir par deux che­mins di­rects, l’un de face, l’autre de dos. Cette lumière peut également nous arriver après avoir parcouru plu­sieurs fois la lon­gueur du tore. Chaque ga­laxie serait alors vi­sible plusieurs fois dans le ciel, et comme la lu­mière a une vitesse donnée, elle met un temps cer­tain à nous parvenir. Nous en aurons des images à des âges dif­férents, donc avec des as­pects diffé­rents.

L’univers serait alors beaucoup moins grand et beaucoup moins peuplé de galaxies que dans la conception hyper sphérique traditionnelle. Il a éga­lement été imaginé que l’univers pourrait être en connexion multiple, avec de nom­breux autres che­mins possibles. Ce ne sont que des théories, des images du Monde réel, des objets mentaux is­sus de cer­veaux humains.

En conclusion, aussi trou­blant cela soit-il, il nous faut ad­mettre une formulation très humble et mo­deste.

 

La véritable nature de l’univers

nous échappe totalement.

 

De toutes ces théories physiques exposées, vou­lez-vous seulement retenir qu’à l’origine une mys­térieuse et inconce­vable énergie s’est mani­festée par l’émergence d’un inconc­evable chaos. Cet état s’est structuré selon sa nature. De cette organisa­tion un nouveau chaos émerge encore mainte­nant, dont les propriétés particulières ne sont pas liées de fa­çon causale à l’ancien état.

Je veux dire par là que les caractéristiques de l’an­cien état expliquent actuellement certains carac­tères de l’état présent, mais ne les impli­quaient pas de façon obligatoire dans le dé­roulement du passé. Par exemple, les réactions de transmu­tation ato­miques qui se produisent dans le So­leil pro­voquent des émissions de photons, mais elles n’im­pliquaient pas obligatoirement la production des yeux par les organismes vivants.

Il s’agit d’émergences successives, consécutives l’une à l’autre, et explicables l’une par l’autre d’aval en amont. Mais elles ne coulent aucune­ment de façon causale de l’amont vers l’aval. Le pré­sent s’explique par le passé, mais le passé ne crée pas le futur. Avec ses caractéris­tiques propres et toujours nouvelles et avec toutes ses potentiali­tés de mani­festation, c’est ici et dans l’instant ac­tuel que le fu­tur inconnu émerge du présent.

 

 

 

 

 

 

 

3 L’expérience de la double fente

 

Maintenant, ici même, le futur émerge de l’éter­nel pré­sent, et l’exploration de l’univers microcos­mique réserve ici aussi bien des surprises. Pour pa­lier nos déficiences vi­suelles, nous utili­sons des mi­croscopes, des instruments qui aug­mentent le pou­voir séparateur de notre œil en grossissant l’image. Avec le prodigieux regard de ces su­per  micro­scopes, nous  avons essayé de percer les mysté­rieux se­crets des plus ultimes constituants de la matière, et nous avons là aussi rencontré le sourire ironique du dé­miurge mo­queur.

Pour explorer ce monde microcosmique, nous avons in­venté des outils extrêmement puissants qui élargissent l’étroite fe­nêtre ouverte par notre œil naturel dans la seule lumière vi­sible. La quali­té d’un microscope, sa ré­solution, désigne sa capa­cité à séparer des détails voisins. Dans un micro­scope optique, cette résolution est limitée par la diffrac­tion de la lumière qui est un phéno­mène lié à sa na­ture ondulatoire. Du fait de la diffraction, l’image d’un point est une tache (tache d’Airy). Les images de deux points distincts voisins de­viennent alors deux taches et les petits détails ne sont plus résolus.

On a tourné la difficulté de plusieurs façons, en particu­lier en diminuant la longueur d’onde de la lu­mière utili­sée. Si l’on reste dans le domaine vi­sible, il n’est pas pos­sible de descendre en des­sous de 400 nm. La limite de ré­solution d’un micro­scope photo­nique classique est d’en­viron 0,2 μm (grossissant 2000 fois). Le microscope électro­nique atteint une limite 1000 fois plus petite.  C’est pourquoi nous avons abandonné le seul usage des pho­tons en adoptant d’autres parti­cules. Le micro­scope électro­nique utilise des faisceaux d’électrons au lieu des rayons électro­magnétiques comme la lumière. En utili­sant des longueurs d’ondes asso­ciées bien plus petites, cet appareil obtient des grossissements bien plus éle­vés (jus­qu’à 5 millions de fois). Les deux types de micro­scopes ont ce­pendant une li­mite, celle qui est im­posée par la longueur d’onde du rayon­nement uti­lisé.

Mais, à partir de la découverte des propriétés on­dulatoires des particules, l’exploration de l’uni­vers microcos­mique s’est également engagée sur d’autres voies. Pour donner une idée du change­ment introduit par les re­cherches induites par ces idées nouvelles, considérons l’exemple désor­mais très classique des interférences de particules (élec­trons ou pho­tons).

En relativité générale, on considérait logique­ment qu’un phénomène est impu­table soit à une onde soit à une parti­cule, (soit l’un, soit l’autre). Lorsque l’on envoie un jet de particules, par exemple des photons, simultanément dans les deux fentes d’un interféromètre, on constate l’ap­parition d’interfé­rences qui démontrent la pré­sence d’ondes. Quand on jette une pierre dans un étang, on en­gendre des ondes simples. Si on en jette deux en même temps,  les ondes, en se ren­contrant, se renforcent ou s’af­faiblissent en for­mant ce qu’il est convenu d’appe­ler « franges d’interfé­rence ».

Appliquée à la lu­mière, cette célèbre expérience est connue sous le nom de « Double slit expe­riment », (expé­rience de la double fente).

Elle a permis de mettre en évidence la nature on­dulatoire de la lumière et a révélé accessoirement deux inexpli­cables pa­radoxes concernant la na­ture profonde de la réa­lité, et fut réalisée pour la pre­mière fois par Thomas Young en 1801. Elle utilise une source de lumière mono­chromatique et un écran devant lequel on interpose un masque percé de deux fentes étroites. On observe alors, sur l’écran des franges al­ternativement sombres et claires qui montrent  que des ondes interfèrent entre elles.

L’expérience d’Young a été perfectionnée afin d’émettre un seul « quantum » à la fois, car, on peut aujourd’hui avec un matériel très sophisti­qué (scintillateur photomul­tiplicateur), émettre des pho­tons ou des électrons un par un, et les détec­ter de même, derrière les fentes de Young. Leurs traces forment progressivement les franges d’in­terférences, ce qui est impossible pour des trajec­toires de corpuscules.

En mécanique ondulatoire, forme initiale de la mé­canique quantique, l’image de la particule ex­pliquait parfai­tement  l’effet photoélectrique qui est la base même du concept des quantas.

L’image de l’onde considérait ac­cessoirement les particules comme des ondes réelles, ma­térielles, en due conformité physique avec la théorie de « duali­té onde-corpuscule » pro­posée par Louis de Bro­glie. La mécanique quantique leur substitue mathé­matiquement d’hypothétiques « ondes im­matérielles de probabili­té » pour expliquer que le photon peut passer simultané­ment par deux trous à la fois, ce qu’une parti­cule ne pourrait faire. 

En envoyant une seule particule dans l’expé­rience de Young, on s’attendait à voir disparaître les in­terférences. Ce n’est pas ce qui se produit. La fi­gure d’interférence se re­construit progressive­ment. Il est illogique d’obtenir une in­terférence avec un seul photon. Du point de vue de la lo­gique in­tuitive, un tel phénomène est impos­sible. Une seule particule doit passer soit par une fente soit par l’autre. L’ap­parition de la figure d’interférence indique qu’elle est passée par les deux  fentes en même temps.

Cela démontre qu’un photon est à la fois une par­ticule et une onde de lumière, laquelle est ca­pable de passer par deux trous en même temps en réali­sant l’effet impossible d’inter­férer avec elle même. On a, par ailleurs, réalisé l’expérience avec des « quan­tas » matériels, électrons, neu­trons, atomes, ou même molécules, lesquels ont, de fa­çon fort éton­nante, également provoqué des inter­férences mon­trant que ces quantas  matériels pré­sentaient aussi un comportement on­dulatoire, en dépit que l’on puisse aussi démontrer un compor­tement particu­laire as­socié.

Richard Feyman, un théoricien américain prix No­bel, l’un des physiciens actuels des plus in­fluents pour ses travaux sur l’électrodynamique quantique et les quarks, pense que ce photon unique passe non seulement par deux chemins mais simultané­ment par tous les che­mins pos­sibles dans l’univers entier, et même par le passé (!), (intégrale des che­mins de Feyman,). La tra­jectoire directe allant du pro­jecteur à l’écran est simplement la plus pro­bable.

Ce phénomène, incompréhensible pour notre lo­gique ba­nale, s’exprime dans une formulation ma­thématique abs­conse, établie selon les prin­cipes de la mécanique quan­tique. Celle-ci ne dé­crit pas un état unique, bien défini, pour une observat­ion don­née. Elle le remplace par la des­cription d’un cer­tain nombre d’états possibles, mais dif­férents, as­sociés cha­cun à une probabilité locale et momen­tanée d’existence, d’où l’appel­lation de « théorie proba­biliste ». L’hypothèse a longtemps révolté Einstein qui a exprimé son re­fus dans une formule lapidaire.

Dieu ne joue pas aux dés

 

Le « Trickster », ce mystérieux démiurge doit beaucoup  s’amuser de nos étonnements. Il a bien d’autres fantaisies en réserve. En voici une autre encore plus mystérieuse. Dans l’expérience de Young, si l’on place des détecteurs près de chaque fente, et qu’on émet des photons, chaque détecteur signale les photons qui sont  passé par sa fente, (et non pas par l’autre).

On constate que les franges d’in­terférences n’ap­paraissent pas. Ils étaient donc bien dans l’état cor­pusculaire. Mais, dès qu’on enlève les détec­teurs, les bandes d’in­terférence réap­paraissent et le   phé­nomène se re­produit. Il semblerait donc que la lu­mière change de  nature selon le type d’expérience menée pour l’étudier.

Si on ne l’observe pas, elle se comporte comme une onde, mais elle devient particule quand on l’ob­serve. Cela pourrait signifier que la manière dont se comporte la réalité est modi­fiée par la seule obser­vation.

La question alors posée est la suivante : Pour quelle rai­son l’observation modifie-t-elle la na­ture de la lumière ? Et le mystère s’est approfon­di quand on a élargi l’expé­rience aux particules de matière, aux électrons par exemple. On a obte­nu le même résul­tat. On a été encore plus loin en uti­lisant des atomes entiers puis des molé­cules. Les résultats sont res­tés identiques, à savoir des ondes quand on n’observait pas, des particules quant on observait. L’observation dé­termine donc en partie le réel. On réalise que le « Trickster » s’amuse ici encore plus si l’on com­prend que c’est bien l’ob­servateur qui décide, préalable­ment et en conscience, du type d’expé­rience qu’il va me­ner.

 

Il semblerait que la conscience

crée en partie la réali­té.

 

Dans le cadre cité de l’étude des corpuscules, l’ob­servateur n’a donc pas un rôle neutre et on constate que l’appa­reil de mesure influence le ré­sultat. Nous savons bien ce qu’est la particule, à la source, lors­qu’elle est créée, et nous savons ce qu’elle est, à l’arrivée, quand elle est en­registrée par les dé­tecteurs. Mais nous n’avons aucune idée de ce qui se passe entre temps. Nous ne sa­vons pas décrire cela dans notre lan­gage habituel.

Un autre phénomène étonne énormément dans la méca­nique quantique. Lorsque deux particules obéissant aux lois quan­tiques interagissent à un moment à un autre, une corrélation s’établit entre elles et perdure même lorsque les particules s’éloignent. Ces particules partagent alors de l’in­formation au sujet de leurs états, quelle que soit la distance qui les sé­pare.

C’est ce que l’on nomme

« l’intrication quan­tique ».

 

L’intrication fait partie des nombreuses bizarre­ries de la mé­canique quantique : quand deux par­ticules sont dites intri­quées on ne peut plus en­suite modi­fier l’état de l’une de ces deux parti­cules sans mo­difier l’autre. Ce phéno­mène a été reproduit avec des particules fort différentes, et les scienti­fiques  ont même réussi à unir non pas deux mais trois pho­tons.

Dans cet étrange état de corrélation, on peut donc voir deux particules élémentaires se lier de façon inextricable au point qu’un changement induit sur l’une d’entre elles entraîne une modification équi­valente sur l’autre, et ce, instantanément,  quelle que soit la dis­tance qui les sépare. Les deux parti­cules se comportent alors comme un tout, cette « corréla­tion » dif­férant de tout ce que connaît la phy­sique classique.

Cette intrication quantique d’objets implique l’in­séparabilité des objets concernés. Il est im­possible de décrire chacun d’eux par une fonc­tion d’onde sépa­rée. Un groupe d’objets intriqués doit être considé­ré comme un système unique, dé­crit par un état glo­bal qui ne peut pas être dé­composé en états dis­tincts. Un tel concept est fa­cilement acceptable quand on décrit des électrons en orbite autour d’un même noyau atomique, car on ne peut imaginer comment les dis­tinguer. Cela devient beaucoup moins évident lorsque cela concerne des objets si éloignés l’un de l’autre qu’aucun si­gnal physique (se propageant en principe à une vitesse limi­tée par celle de la lumière), n’est sensé pouvoir les atteindre.

Ce phénomène a d’ailleurs des implications telle­ment bi­zarres dans le domaine qu’Einstein lui-même le décrivait comme une « action fantôme à distance ».

Dans le monde, des choses que l’on a du mal à ap­préhender se manifestent. Ainsi, les particules sont aussi des ondes et vice-versa. Par ailleurs, les objets (par exemple des élec­trons), n’existent  pas tant qu’on ne les « regarde » pas (c’est-à-dire tant qu’on n’effectue pas de mesure les concer­nant).

L’intrication entre particules a été régulièrement observée en laboratoire. La ques­tion  reste cepen­dant de savoir si celle-ci peut être obtenue dans l’environnement macrosco­pique, au-delà du royaume microcosmique des particules élémen­taires.

Concernant ce phénomène du quantum qui passe­rait par les deux fentes à la fois en interférant avec lui-même, il y eut une conversation très connue dans le milieu de la phy­sique.

Un jour, Einstein demanda à son ami Niels Bohr :

« Croyez-vous vraiment que la Lune n’est pas là quand per­sonne ne regarde ? ».

Bohr répondit : « Pouvez-vous prouver le contraire ? ». 

Et Einstein ne le pouvait pas.

Einstein est surtout connu par ses théories sur la re­lativité (restreinte et générale). Elles procurent une description co­hérente des lois de l’univers. La Rela­tivité Restreinte établit la loi fondamen­tale de l’équivalence masse éner­gie, mais voyons seule­ment ici son second postulat qui indique que « La vitesse de la lumière dans le vide est la même dans tous les référentiels inertiels » (ceci signifiant ceux dans lesquels un objet isolé se dé­place en ligne droite à vitesse constante).

Ce propos est extrêmement important parce qu’il im­plique que la vitesse de la lumière est une li­mite qu’il est absolu­ment impossible de dépasser. Cette proposition de 1905 li­mite l’étude des phéno­mènes aux référentiels iner­tiels et l’on ne peut l’étendre aux référentiels accélérés. Elle ne s’ap­plique qu’aux phénomènes de vitesses constantes.

Einstein s’est ensuite attaché à compléter sa théo­rie pour pouvoir décrire tous les phéno­mènes, ac­célérés ou pas. Sa théorie de Relativité Générale de 1916 en est une ex­tension. C’est une vision re­lativiste de la gravitation dans laquelle  les postu­lats restent vrais dans tous les référen­tiels. Les corps n’y subissent aucune force gravitation­nelle, ne fai­sant que suivre les chemins (géodésiques) d’un es­pace temps courbe. Ici encore, la vitesse de la lu­mière reste la vitesse ul­time.

L’intrication quantique implique pourtant que l’in­formation des états des particules intriquées ne res­pecte pas cette li­mite. Albert Einstein pen­sait que ce phénomène prouve que la mécanique quan­tique est incomplète. Pour le démontrer, il mit au point en 1935, avec deux col­lègues, Boris Podols­ky et Na­than Rosen, une expérience théo­rique troublante qu’il soumit à Bohr, et qui me­naça les bases de la théorie quan­tique pendant quelques temps. Elle fut appelée le paradoxe EPR d’après les initiales des auteurs, (EPR pour Einstein-Po­dolsky-Rosen). Les trois physiciens avaient imagi­né cette expérience pour démontrer qu’une parti­cule pouvait exister sans être obser­vée.

Retenons que les particules subatomiques, (les électrons ou les photons) possèdent trois proprié­tés fondamentales, la masse, la charge et le spin.

La caractéristique évidente est la masse. Les phy­siciens nu­cléaires l’expriment en MeV/c² en réfé­rence à la cé­lèbre for­mule d’Einstein E=mc². La masse est principale­ment reliée à la gravita­tion. La charge électrique régit surtout les interac­tions avec les champs électromagné­tiques. La charge et la masse sont les seules caractéris­tiques concrètes des parti­cules. Le spin, (moment ciné­tique intrin­sèque), apparaît là comme une caractéristique fort abstraite.                                                                                                                           

Avec la découverte de nouvelles particules, on a mainte­nant introduit de nouvelles notions caracté­ristiques : La saveur des quarks qui les sépare en trois familles, la cou­leur qui permet comme le spin, d’expliquer un triplement du nombre d’états pos­sibles pour les quark, et les nombres lepto­niques et baryoniques qui permettent entre autres de préciser les désintégrations possibles.

Revenons sur ce spin qui n’a pas de concept équi­valent dans  notre enten­dement courant. On peut l’imaginer comme le « sens de rotation » d’une par­ticule, sans que cela soit tout à fait exact. Rete­nons simplement que, pour un élec­tron, le spin ne peut prendre que deux valeurs pos­sibles, qu’on ap­pelle « up » et « down ».

C’est sur le concept abstrait de ce spin immaté­riel que re­pose l’élaboration du paradoxe EPR Le rai­sonnement (sim­plifié) qui en est à la base est le sui­vant : Imaginons deux particules, par exemple un électron et un positron (son anti-par­ticule), de même masses, mais de charges oppo­sées) et intri­quons-les de telle façon que la somme de leurs spins s’annule (mathématique­ment, up+down=0). Puis imaginons qu’ils s’éloignent à très grande dis­tance. Après intrication, on sait que les spins des deux parti­cules sont, en principe, opposés. Mais avant d’observer le système, il est impos­sible de sa­voir dans quel état il sera !

Pourtant, si l’on mesure l’état de la première parti­cule, et qu’on tombe sur un spin « up », on sau­ra im­médiatement que l’autre particule sera dans l’état de spin « down ».

Mais si les deux particules sont très éloignées, comment la seconde particule a-t-elle été infor­mée immédiatement que la première est passée dans l’état de spin « up », quand on sait que l’informa­tion ne peut pas aller plus vite que la vi­tesse de la lu­mière ? Á partir de là, un vif débat opposa fort longtemps Ein­stein, partisan d’un univers détermi­niste et Niels Bohr, l’un des pères de la physique quantique.

Pour Einstein, l’état des deux particules est déter­miné avant la mesure et n’est que révélé par la me­sure. Pour Bohr, l’état est indéterminé avant la me­sure et c’est la mesure du spin du premier qui en­traîne ins­tantanément le changement de spin de l’autre.

Les scientifiques évitèrent prudemment de s’enga­ger dans le débat. De nombreux physiciens pen­saient cepen­dant que Bohr avait raison dans ce qui fut ap­pelé « l’in­terprétation de Copen­hague » puisque les expériences confir­maient ses dires, et ils décidèrent donc d’en igno­rer les conséquences  métaphy­siques.

Et, en 1960, le physi­cien John Bell apporta enfin ce qui est aujourd’hui consi­déré comme l’une des plus grandes contri­butions à la mé­canique quan­tique. Il remplaça la pure expé­rience de pen­sée EPR par une expérience physique réelle qui intri­quait deux pho­tons à l’aide de polariseurs.

Réalisée à plusieurs reprises, l’expérience confir­ma en 1982 la vision de Bohr, et Bell pu formuler ses cé­lèbres inégalités faisant que ce long débat, pure­ment intellectuel à l’origine, finit par avoir des conséquences bien vérifiables expérimentale­ment. Einstein avait tort.

Quelle conclusion a-t-on tiré de tout ceci ?

 

Si la vitesse de la lumière est effectivement une li­mite indé­passable, on a forcément du admettre, par conséquent, que deux particules intriquées agissent comme un seul sys­tème, impliquant la non localité de celui-ci.

Cette notion est essentielle, car elle établit qu’il n’y a donc pas de relation de cause à effet entre la me­sure de la pre­mière particule et l’état de la deuxième.

La mécanique quantique est non locale

 

Cela semble complètement absurde et à la limite de la méta­physique. Les plus grands spécialistes de la méca­nique quantique ont débattu pour déter­miner comment in­terpréter la théorie (utile et effi­cace). La question qui in­terpelle le plus est celle de la transi­tion de notre monde classique, macro­scopique, au monde quantique, microsco­pique.

Á quel moment doit-on passer de la représenta­tion clas­sique au nouveau monde décrit par la réalité quantique ?

Une théorie nouvelle ne triomphe jamais.

Ce sont ses adversaires qui finissent par mourir. »

(Max Planck)

 

 

 

 

 

4 Fermions et Bossons

 

La notion de non localité des particules induite par la théorie quantique est essentielle, car elle diffé­rentie les propriétés de notre monde macrosco­pique, classique et accessible aux sens, de celles du monde micro­scopique, quantique, essentielle­ment accessible aux calculs.

Sans remonter jusqu’à l’Antiquité et les concep­tions de Dé­mocrite, rappelons que le modèle d’atome proposé par Niels Bohr en 1913  ne décri­vait plus celui-ci comme un objet en­tier, indécom­posable. Dans le modèle de Bohr, l’atome se com­pose d’un noyau central autour duquel tournent des électrons dont les rayons orbitaux ne peuvent prendre que des valeurs fort précises.

 

Dans ce modèle, la taille de l’atome est de l’ordre du dixième de millionième de millimètre. (10-10). Ce vo­lume est défini comme celui dans lequel on peut trouver le noyau et les électrons de cet atome. Le noyau atomique est très com­pact, cent mille à un mil­lion de fois plus petit que l’atome  lui-même (10-15). Il est constitué de protons et de neu­trons et porte une charge électrique positive. C’est la partie qui re­présente au moins 99,95 % de la masse de l’atome.

Les électrons sont ponctuels. On les considère comme des points géométriques de rayon quasi nul, (plus petit que  10-18). Ils portent une charge élec­trique négative. Le nombre d’électrons pos­sible sur chaque orbite a été ulté­rieurement défini par le cal­cul. Le modèle de Bohr, qui décompose l’atome en deux par­ties, un noyau et un nuage d’électrons, est plus précis que le modèle clas­sique, dit « des sphères dures », dans  le­quel la surface de la sphère figurant l’atome équivalait à l’orbite des élec­trons extérieurs.

Cependant, le modèle de Bohr ne permet pas d’ex­pliquer l’ensemble des observations des physi­ciens. La méca­nique ondulatoire propose un nou­veau mo­dèle dans le­quel les électrons ne sont plus des billes localisées en or­bite, mais des nuages de probabilité de présence dans cette zone.

 

Mais qui peut dire ce que signifient effective­ment ces mots : « Nuage ou Onde de probabili­té » ?

 

Avec un noyau aussi petit et des électrons ponc­tuels qui gra­vitent dans un espace atomique un mil­lion de milliard de fois plus grand, on peut considé­rer qu’un atome est spatiale­ment vide. De plus, les particules (les quarks) qui forment en théorie, les protons et les neutrons, sont comme l’élec­tron, des particules ponctuelles, (sans vo­lume). Un atome, constitué entièrement de particules sans volume est donc, géométrique­ment, entièrement vide ! En théorie, bien sûr, car il n’est  pas possible de le prouver !

 

Je lisais récemment un article traitant de la taille des parti­cules. En mécanique quantique, la dimen­sion de l’élec­tron, disait l’auteur, n’a pas de signi­fication ni de  fonde­ment. Elle dépend de la place qui lui est donnée. Un élec­tron de conduc­tion dans du cuivre ou de l’aluminium est à peu près aussi grand que le cristal, voire que le mor­ceau de métal en­tier. Un électron oscillant dans une molécule de colorant est aussi long que la molécule elle-même. Dans le cas général, on peut même considérer que chaque électron d’un atome pourrait paraître aussi grand que cet atome lui-même.

Cette nouvelle vision de l’électron peut sembler  révolution­naire. C’est que la représentation que l’on s’en faisait autre­fois, (une pe­tite bille en or­bite cir­culaire autour du noyau), était condition­née par l’observation des formes du monde macrosco­pique, abusivement transposées dans le monde mi­croscopique.

Or, ce que l’on en connaît réellement ne repose que sur ses manifestations physiques indi­rectes. (Cou­rant élec­trique, par exemple). Les physi­ciens modé­lisent mainte­nant l’électron par une « fonc­tion d’onde » dont le carré de la « norme repré­sente la densité de probabilité de pré­sence ». Pour repré­senter fidèlement les pro­priétés (rebu­tantes) de l’électron, on ne dis­pose en fait que des fonc­tions mathématiques abs­traites et compli­quées.

Hors d’un atome, l’électron peut encore être re­présenté par un paquet d’ondes, éventuellement consi­déré comme une petite bille, (dans certaines limites cependant), qui pourrait occasionnelle­ment s’étirer. Au contraire, l’élec­tron d’un atome conservera la struc­ture de la fonction d’onde asso­ciée à l’orbite qu’il occupe (tant qu’il demeure dans son atome). La mécanique quan­tique pos­tule, non pas la conser­vation de la forme (encore mys­térieuse) de l’élec­tron, mais l’intégrale de sa pro­babilité de présence.

 

Dans le modèle de Schrödinger, les nuages corres­pondant aux différents électrons s’interpé­nètrent et il n’est pas ques­tion de se donner une représenta­tion individuelle des élec­trons chacun sur son or­bite, comme cela était le cas dans le mo­dèle de Bohr. Les électrons sont des parti­cules iden­tiques indis­cernables. On peut même considé­rer que chaque électron de l’atome est à la fois sur chaque orbi­tale occupée (corres­pondant à une configuration élec­tronique donnée).

Et, puisque géométriquement, tous ces dif­férents élec­trons se recouvrent les uns les autres, on doit logique­ment en conclure que notre géométrie ma­croscopique est définitive­ment inadaptée et in­compétente à l’échelle de l’atome, et de toute par­ticule élémentaire.

 

Ainsi, la dure matière, à laquelle nous sommes confron­tés chaque jour, serait, à l’échelle micro­cosmique, constituée d’atomes emplis de vide (!), centrés sur des noyaux fait de sous-parti­cules sans volume (!), et conte­nant des nuages probabilistes (!) d’électrons indiscer­nables (!) et non locali­sables (!).

 

On voit bien que le malicieux démiurge

s’amuse toujours à nos dépens.

 

Avant la révolution de la pensée introduite par la théorie quantique, les scientifiques pensaient que ces contenus ato­miques, électrons, protons et neu­trons, étaient les consti­tuants ultimes de la ma­tière. On pensait alors qu’ils étaient indivi­sibles et on les appela donc «particules élément­aires ».

Mais la recherche s’intéressait aux interactions des neu­trons et des protons dans le noyau de l’atome, et les phy­siciens construisirent des ma­chines gigan­tesques pour les étudier. Dans ces « ac­célérateurs », qui sont plutôt des « collision­neurs », des parti­cules sont extrêmement accélé­rées par des champs élec­triques pour tenter de les faire entrer en colli­sion. L’énergie résultant des chocs produit diverses sortes de particules que l’on s’attache à détecter. Ces ac­célérateurs mon­trèrent qu’il y avait un  niveau de struc­ture supplé­mentaire à l’intérieur des protons et des neu­trons.

Ces nouvelles sous-particules furent appelées « quarks ». Tous les protons et les neutrons sont construits à partir de trois quarks chacun. Les pro­tons et les neutrons n’ont pas de forme à propre­ment parler mais ils sont souvent repré­sentés sous une forme sphé­rique qui représente la ré­gion de l’es­pace au-delà de laquelle leur nature compo­site de­viendrait visible.

L’observation des multiples particules différentes pro­duites, (composites et souvent instables), a per­mis aux physiciens de postuler l’existence d’autres particules élé­mentaires. Ils en ont déduit une nou­velle théorie physique appelée le « mo­dèle stan­dard » des particules. Elle est bâ­tie sur la connaissance de l’existence des quatre forces primordiales différentiées après le Big-bang, et elle décrit la nature et les interac­tions de ces com­posants de base de la matière au ni­veau microcos­mique.

En les citant dans l’ordre de leurs différenciations, ce sont la force gravita­tionnelle qui attire les corps les uns vers les autres et as­sure la structure de l’uni­vers, puis la force nu­cléaire forte qui assure la co­hésion des noyaux atomiques, ensuite la force élec­tromagnétique qui contrôle les phéno­mènes magné­tiques, électriques, et chi­miques, et enfin la force nucléaire faible qui contrôle la radioactivité à l’inté­rieur des atomes.

Le modèle standard propose une composition par­ticulièrement complexe de l’univers sub-ato­mique qui com­prendrait deux classes de parti­cules, les fermions (ba­ryons, mésons et leptons) et les bo­sons.

Les fermions sont les particules constitutives de la ma­tière. Dans la classe des fermions, le mo­dèle postule ac­tuellement l’existence de douze parti­cules élé­mentaires, six quarks et six leptons. Des particules plus complexes, (les hadrons), sont for­mées à partir de deux ou trois quarks.

Ce sont les nou­velles particules élémen­taires.

 

À chaque particule correspond une antiparticule. Chaque an­tiparticule ressemble à sa par­ticule, mais avec des change­ments de signe. L’antiparti­cule a une charge élec­trique op­posée. La masse demeure identique. Une parti­cule de charge nulle peut être sa propre anti­particule (cas du photon).

On appelle antima­tière l’ensemble des antiparti­cules des parti­cules compo­sant la matière ordi­naire. L’antimatière a une durée de vie très courte dans notre environne­ment. En combinant des anti­protons, des antineu­trons et des anti-élect­rons, il est donc possible de créer des anti-atomes. Quand une particule de ma­tière et son antiparti­cule se ren­contrent, elles s’anni­hilent en res­tituant inté­gralement leur énergie fon­damentale.

Les quarks sont les éléments constitutifs des noyaux ato­miques. C’est le physicien américain Gell-Mann qui choisit le nom « quarks »  pour les désigner. Leur réalité physique ne fut prouvée que dans les années 70. Il y a six sortes de quarks défi­nies par leurs « saveurs », dénom­mées, par ordre de masses croissantes « up, down, strange, charm, bottom et top ». Et, il y a aussi six anti­quarks cor­respondants.

Les quarks ont une propriété étrange, leur charge élec­trique est fractionnaire. Cette charge est de 2/3 pour les quarks up, charm et top , et de –1/3 pour les quarks down, strange et bottom. Un quark n’est jamais seul. Les quarks et les anti­quarks sont tou­jours groupés par deux ou par trois pour for­mer des parti­cules plus grosses, les hadrons, qui se ré­partissent en deux classes :

Les baryons, formés de trois quarks, comme les neu­trons ou les protons. (Le proton est un hadron composé de deux quarks up et d’un quark down, tandis que le neutron est for­mé de deux quarks down et d’un quark up).

Les mésons, formés d’un quark et d’un antiquark.

Cette pro­priété fait que les particules observées à l’état libre ont toutes une charge électrique en­tière ou nulle.

Mais il y a d’autres types de particules : Les lep­tons sont six autres particules élémentaires. Ici aus­si, il y a six sortes, ou « saveurs » de leptons. Trois ont une charge électrique néga­tive, les trois autres sont neutres.

Le lepton chargé le plus connu est l’électron. Les deux autres leptons chargés sont le muon et le tau qui sont beau­coup plus massifs que l’électron. Les trois lep­tons sans charge électrique sont les neutri­nos. Il y a ce­pendant une sa­veur particu­lière de neutrino associée à chacun des leptons électrique­ment chargés et donc un neutrino élec­tronique, un neutrino muonique et un neutri­no tauonique.

On a appelé fermions ces diverses particules élé­mentaires qui sont les briques de la matière. Ils peuvent être classés en trois familles contenant cha­cune deux quarks, un lep­ton chargé et son neu­trino. D’une famille à l’autre, les proprié­tés sont sem­blables, sauf les masses qui sont crois­santes de la première à la troisième famille.

Dans la première famille on trouve les particules les plus stables et les plus connues, les quarks up et down, l’élec­tron et le neutrino électronique.

La deuxième famille comprend les quarks charm et strange ainsi que le muon et le neutrino muo­nique, et la troi­sième famille, les quarks top et bottom, le tauon et le neutrino tauique.

Tout ce qui existe résulte des combinai­sons de ces douze particules ou de leurs antiparti­cules.

Jusqu’à maintenant, aucune sous-struc­ture n’a été décou­verte aux quarks et aux électrons.

A coté de cette première classe, celle des parti­cules de ma­tière, les fermions, la deuxième classe, fort différente,  est celle des bosons (plus exacte­ment bossons de jauge) qu’on appelle aus­si « par­ticules de rayonnement ».

Les quatre forces physiques fondamen­tales, (gra­vité, force nucléaire forte, force nucléaire faible et force électromagné­tique), interagissent sur les fer­mions élémen­taires par l’échange de ces bo­sons de jauge.

Comme pour les fermions, le modèle standard dé­crit égale­ment douze bosons de jauge : le pho­ton, huit gluons et trois bosons faibles. On pos­tule aus­si l’existence du gra­viton qui n’a jamais été obser­vé.

Pour résumer les postulats

du modèle stan­dard.

 

Les particules de « matière » sont en principe des fer­mions. Elles interagissent par le moyen des vec­teurs des forces que sont les bosons, et cha­cun de ces bosons (dits de jauge) est associé à l’une des forces physiques fonda­mentales :

Le photon transmet la force électromagnétique,

Les gluons transmettent la force nucléaire forte,

Les bosons faibles transmettent la force nu­cléaire faible,

Le graviton transmettrait la force gravitation­nelle.
(Le graviton ne fait pas vraiment partie du mo­dèle stan­dard car son existence demeure pure­ment théorique.).

 

L’ancien atome de Bohr reproduisait en minia­ture le sys­tème solaire du macrocosme. La nou­velle théorie, est fondée sur le concept complexe de sous particules géo­métriquement ponctuelles et non lo­cales, duales car  as­sociées à de mysté­rieuses ondes de probabilité.

     Le malicieux démiurge
continue à se mo­quer !

 

Ce  n’est pas facile à accepter, même dans la forme extrême­ment simplifie que je me suis effor­cé d’adopter.

Mais ce n’est pourtant pas fini. On re­marquera que la gravi­té, n’est pas correcte­ment in­tégrée au modèle. Or, elle est la plus im­portante des quatre forces fondamentales, (tout au moins dans la rela­tion entre le macroscopique et le  micro­scopique).

En effet, le modèle standard de la physique des par­ticules at­tribue une masse nulle à toutes les parti­cules élémen­taires. Cela ne peut pas être conforme à la réalité. En ef­fet, les scien­tifiques ont pu établir expérimentale­ment les masses de plusieurs parti­cules. Seuls le photon, les gluons et le gravi­ton (s’il existe) seraient de masse nulle.

Pour corriger ce défaut gênant du modèle stan­dard, le physi­cien britannique Peter HIGGS pro­posa d’y ajouter une parti­cule très spéciale, un bo­son supplé­mentaire fort particulier conférant les masses aux autres particules.

L’idée de base est que les particules acquièrent une masse en interagis­sant avec un champ spéci­fique, (maintenant ap­pelé champ de Higgs), porté par ce bo­son (dit de Higgs).

Ce mécanisme expli­catif no­vateur est mainte­nant considéré comme une partie es­sentielle du modèle stan­dard. Le physi­cien Le­derman a appelé ce bo­son « the God par­ticule, (im­proprement traduit par particule de Dieu) ».

Les théori­ciens se sont dorénavant fixé une abso­lue priorité : Prou­ver l’existence du boson de Higgs. Ce n’est pas le bo­son de Higgs qui donne leur masse aux particules élémen­taires. Le boson de Higgs se matérialise uniquement lors­qu’une parti­cule in­teragit avec le champ de Higgs.

Quand la vi­tesse d’une parti­cule interagissant avec le champ de Higgs est influencée, son énergie to­tale demeure inchan­gée. Elle a donc moins d’éner­gie de mouve­ment. Mais l’énergie totale étant in­changée, la dif­férence en éner­gie se manifeste par sa masse. (On a compa­ré l’effet du champ de Higgs à une viscosité de l’espace ralentissant plus ou moins le déplace­ment des corps, le frei­nage si­mulant alors la masse).

Mais, pas de Higgs, pas de matière !

 

Début juillet 2012, le CERN a annoncé avoir dé­tecté un bo­son présentant les principales caracté­ristiques théo­riques du boson de Higgs (avec ce­pendant une masse étonnante, d’en­viron 133 fois celle du proton, alors qu’on l’attendait nulle). On ne sait plus à quoi cela  ressemble !

En fait, il semble qu’on ne sache pas très bien ce qu’on a découvert.

Il faudra donc travailler encore plusieurs années pour confir­mer définitivement cette découverte  en respectant tous les cri­tères en phy­sique des par­ticules. Si on ne pouvait pas ob­server le vrai bo­son de Higgs, cela pourrait signifier que la solu­tion pro­posée le modèle standard n’est pas exacte. (On continuerait pourtant à l’utiliser car il permet de dé­crire pré­cisément le compor­tement des parti­cules élémentaires). Á haute  énergie, ce­pendant, des désaccords apparaîtraient entre les prédic­tions du modèle et les résultats expérimen­taux.

En réalité, la controverse a déjà commencé et des cher­cheurs proposent des alternatives au boson de Higgs. Pour certains physiciens comme Ste­phen Hawking, par exemple, le Higgs n’existe pas en tant que particule élé­mentaire. Il serait en fait une particule composite. Pour d’autres, il existerait plu­sieurs bosons de Higgs (par exemple dans les théo­ries super-symétriques. Pour d’autres encore, le bo­son de Higgs n’existe réellement pas et la so­lution consisterait à tra­vailler dans un espace à cinq di­mensions ou plus. (Théories des cordes, des multi-univers,  etc..)

L’enjeu de la recherche n’est pas seulement de dé­montrer l’existence du boson de Higgs, mais aussi de trancher entre les différentes alternatives pos­sibles afin de com­prendre les comportements à très grande énergie produits dans des phé­nomènes cos­miques tels que le Big Bang par exemple.

 

Mais le malicieux démiurge sourit encore !

 

Et donc, pour la première fois dans l’histoire de la phy­sique mo­derne, il semble que l’on ait décou­vert une enti­té éton­nante qui ne paraît être ni une parti­cule de matière (un fer­mion), ni un vec­teur d’une force fonda­mentale (un bo­son stan­dard). Le bo­son de Higgs pourrait donc ou­vrir un do­maine de recherche entiè­rement nouveau.

Le mystérieux démiurge va continuer à nous éton­ner. Il a en réserve bien d’autres fantaisies. Et l’ex­périence de Young va révéler d’autres mys­tères en­core plus stupé­fiants. Elle nous a déjà montré que la lumière change de  nature selon le type d’expé­rience menée pour l’étudier. Si on ne l’observe pas, elle se comporte comme une onde, mais elle de­vient parti­cule quand on l’observe. Cela pourrait si­gnifier que la ma­nière dont se comporte la réa­lité est modifiée par la seule obser­vation.

Spinoza disait : « L’espace est le champs de la puissance des hommes ; le temps, celui de leur impuissance. ». Il serait moins convainquant au­jourd’hui !

 

 

 

 

 

 

5 Les ondes de probabilité

 

Comme on le voit, tout cela n’est pas très simple. Avant d’aller plus loin, je vous propose de récapi­tuler un peu ce que l’expérience de Young nous a jus­qu’alors appris, afin de clarifier, (au­tant que faire se peut), l’avan­cement de la science en ce do­maine.

Cette expérience, (dite de la double fente), a dé­montré qu’un photon est à la fois une particule et une onde de lu­mière, la­quelle est même capable de passer par deux trous en même temps tout en réali­sant l’effet logique­ment im­possible d’interfé­rer avec elle même.

En mécanique ondulatoire, forme initiale de la mé­canique quantique, l’image de la particule ex­pliquait parfai­tement  l’effet photoélectrique qui est la base même du concept des quanta.

L’image de l’onde associée considér­ait accessoire­ment les par­ticules comme des ondes réelles, c’est-à-dire maté­rielles, (théorie de la dualit­é de L. de Broglie). La mécanique quan­tique leur sub­stitue mathématiquem­ent d’hypo­thétiques ondes imma­térielles de probabili­té pour expliquer que le pho­ton peut pas­ser si­multanément par deux trous à la fois, ce qu’une parti­cule ne pourrait faire.

Vous savez qu’on a réalisé la même expérience avec des quanta maté­riels, électrons, neutrons, atomes, ou même mo­lécules, lesquels ont provo­qué des interfé­rences mon­trant qu’ils présen­taient aussi un comportement ondula­toire, quoique l’on puisse aussi démontrer un compor­tement particu­laire asso­cié.

Il est ici nécessaire de préciser ce que veulent pré­cisément dire les mots employés. Rappelons que lorsque l’on parle de particules élé­mentaires, on se situe généralement dans le cadre du modèle stan­dard de la physique des par­ticules qui en est l’ou­til de base.

Ce mo­dèle décrit un uni­vers sub-atomique com­prenant deux classes de par­ticules, les fer­mions (ba­ryons, mé­sons et lep­tons) et les bosons. Ce sont les nou­velles particules élé­mentaires, consi­dérées au ni­veau sub­atomique.

A - La première classe  est donc celle des FER­MIONS : Ils sont les particules constitutives de la matière. Ces par­ticules com­posites sont consti­tuées de quarks et six anti­quarks correspon­dants. Les quarks et les antiquarks sont tou­jours grou­pés par deux ou par trois pour former des parti­cules plus grosses. Dans ces fermions, on dis­tingue :

1/ Les hadrons, qui se répartissent en deux groupes :

Les baryons, formés de trois quarks, (neu­trons, pro­tons).

Les mésons, formés d’un quark et d’un anti­quark.

2 / Les leptons sont les autres particules élémen­taires.

Il y en a six dont l’électron. Les autres leptons sont le muon, le tau et les neutrinos.

 

B - La deuxième classe est celle des BOSONS, (plus exac­tement bossons de jauge), aussi appe­lés « particules de rayonnement ».

Les bosons sont des transporteurs d’éner­gie, (des projec­tiles), qui permettent aux fermions d’interagir dans le cadre des quatre forces phy­siques fonda­mentales, (gravi­té, force nucléaire forte, force nu­cléaire faible et force électromagné­tique.

La classique expérience de Young a dé­montré qu’un pho­ton est à la fois une particule et une onde.

Cependant, en utilisant des atomes entiers puis des molé­cules, les résul­tats sont res­tés iden­tiques, à sa­voir des ondes quand on n’observait pas, des parti­cules quant on obser­vait. Hors l’ob­servation, la ma­nifestation basale des consti­tuants du monde micro­scopique serait donc de na­ture ondulatoire.

 

C’est l’observation même qui ferait appa­raître la na­ture corpusculaire observée.

 

Une autre notion fondamentale, celle de la non lo­calité des particules, est induite par la théorie quan­tique, qui différen­tie les propriétés de notre monde macroscopique, clas­sique, (accessible aux sens), de celles du monde mi­croscopique quan­tique, (essen­tiellement accessible aux cal­culs). Il a été établi que les électrons sont ponctuels (sans vo­lume), indis­cernables et non locali­sables. Or, les quarks, qui forment les protons et les neu­trons, sont ana­logues à l’élec­tron. Toutes ces particules sont considé­rées comme des points géomé­triques.

 

Et donc, les constituants essen­tiels de la ma­tière, les atomes, constitués de parti­cules sans volume, seraient en­tièrement vides. Nous sa­vons que l’an­cien modèle micro­cosmique de l’atome de Bohr re­produisait en miniature le sys­tème so­laire du ma­crocosme. La nouvelle théorie pro­pose un mo­dèle ré­volutionnaire fondé sur le concept com­plexe de sous parti­cules géo­métriquement ponc­tuelles et non lo­cales, duales car  as­sociées à de mysté­rieuses ondes de probabilité.

 

Mais, et ceci est es­sentiel, personne ne sait ce que sont ces très mys­térieuses ondes de probabilité.

 

Le vo­lume d’un atome est actuellement défini comme ce­lui dans lequel on peut trouver son noyau et ses électrons, et nous avons pu en conclure que la matière était consti­tuée d’atomes emplis de vide (!) centrés sur des noyaux faits de sous-particules sans volume (!), et contenant des nuages probabi­listes (!) d’électrons indiscern­ables (!) et non locali­sables (!), en retenant bien à ce ni­veau, que, hors l’observa­tion, la manifestat­ion ba­sale des consti­tuants primaires du monde micro­scopique se­rait de nature ondulatoire et que c’est leur observation même qui fait apparaître leur na­ture corpusculaire. 

 

L’Univers est  modelé par des forces en interac­tions qui se manifestent à toutes les échelles. Tous les processus de l’Univers, physiques, chi­miques ou biologiques, peuvent être expliqués à l’aide de seulement quatre forces en inter­actions fondamen­tales. La théorie décrit leur appari­tion après le Big Bang dans l’ordre suivant.

 

La gravitation s’exerce à toutes distances et structure le cosmos, les planètes, les étoiles et les galaxies. La force de gravitation exercée par un corps est inverse­ment pro­portionnelle au car­ré de la distance qui nous sé­pare de ce corps, Quand la distance double, la force est di­visée par 4, etc. La théorie de la relativité dit que la gravitation n’est pas une force, mais la manifes­tation de la cour­bure de l’espace-temps au voisi­nage d’un corps.

La force nucléaire forte maintient les nu­cléons en­semble dans le noyau ato­mique, ainsi que les quarks dans les nucléons.

Elle est extrême­ment intense, avec  une por­tée fort ré­duite, à l’échelle du noyau de l’atome.

La force nucléaire faible est respon­sable de la désinté­gration des noyaux radioactifs. Son in­tensité est dix mil­lions de fois plus petite que celle de l’interaction forte et sa portée n’agit pratique­ment qu’au contact de deux par­ticules. C’est ce­pendant elle qui régit les réac­tions ther­monucléaires de toutes les étoiles.

La force faible s’ap­plique à tous les fermions, y compris les insai­sissables neutrinos qui ne ré­agissent à aucune des autres interactions. Elle se singula­rise par deux points: elle se transmet par des particules très massives: les bo­sons in­termédiaires et elle viole la symétrie de parité dont nous parlerons plus tard.

La force électromagnétique maintient les élec­trons en orbite au­tour du noyau atomique. Elle est respon­sable de beaucoup de phéno­mènes dont les réactions chi­miques et  toutes les mani­festations électriques et ma­gnétiques.

Comme celui de la gravitation, son effet dé­croît avec le carré de la distance qui sépare deux par­ticules concer­nées. Mais la force électromagné­tique est plus intense que la gravitation.

Les quatre forces fondamentales, sources théo­riques de l’Univers matériel, interagissent par des échanges de vec­teurs d’énergie, (ou des messa­gers), qui sont théorique­ment des bosons : Ces bo­sons sont comme des projectiles en mouve­ment qui portent l’énergie des forces. Chacune des 4 forces fondamentales pos­sède donc ses propres transporteurs d’énergie, ses projectiles en mouve­ment, ses bo­sons atti­trés.

Pour la force électromagnétique, ce sont les pho­tons.

Pour la force nucléaire forte, ce sont les 8 parti­cules appe­lées gluons.

Pour la force faible, on les ap­pelle les bosons W ou Z.

Pour la gravi­té, on ne les a jamais mis en évi­dence, et en cette attente,  on les ap­pelle provisoi­rement gravitons.

En résumé :

 

Les photons transmettent la force électromagné­tique,

Les gluons transmettent la force nucléaire forte,

Les bosons W et Z transmettent la force nu­cléaire faible,

Et les gravitons, s’ils existent, transmettrait théo­riquement la force gravitation­nelle.

La force gravitationnelle est décrite par la théorie de la rela­tivité géné­rale, tandis que les trois autres forces sont décrites  par le modèle stan­dard. Les équations associées au Modèle Stan­dard ne pro­duisent en principe que des particules sans masse. Le véritable problème est que nous savons bien que la plu­part des particules en ont une. Ce mo­dèle sug­gère ce­pendant que les masses de tous les fermions élé­mentaires sont ré­sultat d’une interac­tion, entre ces fer­mions et un bo­son théorique, le bo­son BEH (le fameux boson de Higgs.

Ce boson n’a été obser­vé que fort récem­ment.  Son impor­tance est énorme, mais il est très parti­culier, et il est encore difficile de dire si cette nou­velle in­teraction cor­respond à ce que la théorie avait imagi­né. Selon le cas, cela pourrait si­gnifier qu’il existe une cin­quième interac­tion fondamen­tale et que le modèle stan­dard serait à re­voir.

Ce n’est d’ailleurs pas le boson de Higgs, (la 25ème parti­cule), qui donne une masse aux parti­cules élé­mentaires. Il mani­feste seulement l’exis­tence du champ de Higgs ainsi que le méca­nisme corrélatif d’interaction qui leur donne cette masse. Il me semble que les physi­ciens ont ici, en quelque sorte, réin­venté l’Ether des anciens philosophes qui croyaient que l’espace était em­pli de ce fluide uni­versel.

Aujour­d’hui, on consi­dère à nouveau que l’espace ne serait pas vide, mais que, lieu d’expression uni­verselle du champ de Higgs, il serait en fait entiè­rement empli des fa­meux bo­sons de Higgs qui per­mettraient de com­prendre l’origine et la nature de 96% de la masse de l’Univers

Nous avons dit qu’en 2012, le CERN avait annon­cé avoir peut être détecté un boson présentant les ca­ractéristiques théo­riques principales du bo­son de Higgs mais aussi des propriétés inatten­dues comme une masse étonnamment éle­vée. On ne sait pas en­core si c’est le boson attendu. Si ce ne l’est pas, cela signifierait que la solution, pourtant bien utile, actuellement proposée le mo­dèle stan­dard ne serait pas exacte et qu’il fau­drait, à terme, la réviser.

Vous devez trouver que ce chapitre contient bien des re­dites du contenu du chapitre précédent. C’est en partie vrai, mais je le fais bien consciem­ment avec l’intention affirmée de vous faire prendre conscience de l’absolue étrangeté du Monde micro­cosmique par rapport aux as­pects macrocos­miques du Monde perceptible aux sens.

Tout se passe en fait comme si l’Homme se trou­vait concep­tuellement piégé entre deux entités aussi in­compréhensibles l’une que l’autre, un nano Monde des micro­particules élé­mentaires aux pro­priétés déconcertantes et un macro Monde de ga­laxies aux énergies et dimensions inconce­vables.

Les diverses théories en cours se révélant parfois incohé­rentes, les physiciens ont bien évidemment voulu les conci­lier en travaillant sur de nouveaux concepts visant à leur unification. L’unification des forces de la nature est devenue l’objectif ma­jeur de nombreux physiciens qui voudraient condenser ces théories en quelques équations gé­niales.

Le mécanisme de Higgs a d’abord été intégré au modèle standard de Glashow par l’Américain Weinberg et le Pakistan­ais Salam pour composer sa forme actuelle, inté­grant la masse des parti­cules. Le modèle standard a en­suite été à nou­veau corrigé par l’unifi­cation de la chromodyna­mique quantique avec l’interac­tion élec­trofaible, afin d’y in­tégrer l’in­teraction forte.

D’autres théo­riciens rêvent pourtant d’une nou­velle et ul­time théorie pouvant uni­fier tous les phéno­mènes phy­siques, et ils y travaillent en élar­gissant diverses hypothèses. En physique, par exemple, une sy­métrie définit une pro­priété qui est conservée lorsqu’on modifie les données du pro­blème.

Toutes les particules qui constituent la matière ont théori­quement une contrepartie « anti-particu­laire ».  Les posi­tons ont ainsi toutes les caracté­ristiques des élec­trons mais ils sont chargés positi­vement.

La rencontre entre une particule et son anti-parti­cule homo­logue pro­voque l’annihilation simulta­née des deux en­tités qui  libèrent toute leur éner­gie de masse dans une explosion d’une extrême violence (l’équivalent de 21 000 tonnes de TNT par gramme).

La brisure de symétrie matière antimatière pré­sente donc un intérêt tout particulier et son étude a dé­bouché sur un  prix Nobel de physique en 2008. La symétrie matière an­timatière stipule qu’un monde d’antiparticules possède exacte­ment les mêmes ca­ractéristiques qu’un monde fait de parti­cules car les lois de notre physique ne font pas de différence entre particules et antiparticules, entre la matière et l’anti-matière.

En principe, au premier de tous les instants, au mo­ment créateur du Big Bang, les quantités de matière et d’antima­tière étaient exactement les mêmes. Or, puisque notre uni­vers de matière existe, il faut que soit une différence quel­conque entre une particule et son antiparticule. Aussi pe­tite soit-elle,  cette dif­férence a cependant privilé­gié la ma­tière contre l’antimatière, et cela  suffi­samment pour qu’elle ait pu per­durer au-delà des premières secondes de la création.

Et le Trickster s’amuse toujours !

 

Les travaux des trois lauréats des prix Nobel de physique 2008 ont permis d’expliquer cette bri­sure sponta­née de la symétrie matière antimatière il y a 15 milliards d’années, la différence fonda­mentale qui a alors enfanté l’Univers dans lequel nous vi­vons aujourd’hui.

Ainsi, par son existence même,

 

l’Univers montre qu’il n’est pas aussi symé­trique que nos équations le disent.

C’est pour cela qu’une partie de la communauté scienti­fique continue ardemment d’essayer d’uni­fier la relativité géné­rale et la méca­nique quan­tique, (en principe inconci­liables), dans une grande « théorie du tout », recherche qui se semble se profi­ler actuellement dans ce que l’on appelle la « théo­rie des cordes ».

Cette dite théorie des cordes se présente sous plu­sieurs as­pects particulièrement complexes. Elle se fonde sur l’idée que toutes les particules élémen­taires sont des modes de vi­bration d’une corde fon­damentale qui existe­rait en 10 (1ère théorie), 11 (la théorie M), et jus­qu’à 26 di­mensions (dans 2 des 5 pré-théories M).

« A l’heure actuelle », affirme Brian Greene, de l’univer­sité de Columbia (Etats-Unis). « C’est la seule théorie ca­pable d’uni­fier deux approches de­meurées longtemps inconci­liables, d’une part, la re­lativité générale, qui décrit le fonc­tionnement de la gra­vité, et d’autre part, la méca­nique quan­tique, qui per­met de comprendre comment marchent les trois autres forces connues : la force électroma­gnétique, et les forces nu­cléaires forte et faible ».

Voyons donc en quoi consiste  cette théorie révo­lutionnaire. Elle postule que les briques élémen­taires de l’Uni­vers, les particules de ma­tière comme celles de force ne sont pas des points mais des cordes vibrantes. Et c’est le mode de vibra­tion propre à chacune de ces cordes qui déterm­ine leur na­ture : quark, électron, gravi­ton, pho­ton, etc.

Mais pour que les équations de la nouvelle théo­rie unifica­trice soient cohérentes, les physiciens ont du y ajouter plu­sieurs hypothèses complémen­taires in­attendues, telles des dimensions supplé­mentaires et des univers parallèles. L’Univers se­rait donc encore bien plus bi­zarre que la fiction ne l’aurait jamais imaginé.

C’est en 1968 que la théorie des cordes est appa­rue quand Gabriele Ve­neziano, un jeune physicien ita­lien aujourd­’hui chercheur au CERN, a élaboré une éton­nante équa­tion pour dé­crire les colli­sions de par­ticules subato­miques.  En exami­nant ce tra­vail, ses confrères ont constaté que les particules élé­mentaires décrites ressemblaient non pas à des points mais à des cordes pouvant vibrer. C’est ain­si, presque par ac­cident, que la théorie des cordes est initialement née

A l’origine, elle ne passionna guère car elle n’est pas unificat­rice et générait de nombreux pro­blèmes annexes. De plus, elle impliquait l’exis­tence de dix dimensions et celle de nou­velles par­ticules sans masse en­core jamais observées. Ce­pendant, deux physiciens, Joël Scherk et John Schwarz, s’y inté­ressèrent et s’interrogèrent. Se pour­rait-il que l’équation écrite par Vene­ziano dé­crive en fait la gravité au niveau quantique ? Les parti­cules sans masse pourraient-elles être les fa­meux gravitons per­dus, les véhi­cules de la gravité à l’échelle sub­atomique ?

Dans sa formulation première, la théorie nécessi­tait de nou­veaux développements pour ouvrir sur cette interpré­tation audacieuse. En particulier la masse nulle attribuée à la nou­velle particule impo­sait de revoir très à la baisse la taille des cordes (qui deve­naient minuscules par rap­port à l’atome). Nous sommes en 1974 et la théorie de 1968 de­vient alors soudainement intéressante pour de nombreux phy­siciens. Bien évidemment les ano­malies gênantes demeurent et il faudra en­core beaucoup de tra­vail et d’imagination pour les ré­soudre. Nous reviendrons là dessus au pro­chain chapitre.

 

 

 

 

 

 

6 La théorie des cordes

 

 

Je vous propose un large condensé d’un entretien avec Ga­briele VENEZIANO, l’inventeur de la pre­mière théo­rie des cordes. Ce physicien du CERN, est maintenant ti­tulaire de la chaire « Par­ticules élé­mentaires, gravitation et cosmolo­gie » au Collège de France. Ses propos ont été recueillis par Guillaume Jacquemont et publiés dans (Pour la science N°62 – en Janvier 2009).

L’idée sur laquelle se fonde la théorie résulte d’un proces­sus parti de l’observation, dit G. VENE­ZIANO. Au mi­lieu des années 1960, en étu­diant les in­teractions nu­cléaires entre protons et neu­trons, nous avons élaboré des modèles mathéma­tiques pour dé­crire les données expériment­ales.

 

L’analyse fine de ces modèles a montré qu’ils ne dé­crivaient pas des particules sans dimension (des points), ayant cha­cune une masse propre, mais des entités à ex­tension finie, des sortes de cordes, ca­ractérisées par un seul pa­ramètre : la tension uni­verselle de cette corde (quantité d’énergie par uni­té de longueur).

 

Les protons et les neutrons ne sont pas élémen­taires. Ils sont constitués de quarks reliés par l’in­teraction forte. L’intensité de celle-ci augmente lorsque les quarks s’éloignent l’un de l’autre, pré­cisément comme s’ils étaient attachés par une corde, un ressort.

Cette ancienne théorie des cordes, très approxima­tive, était tombée dans l’oubli. On s’est ensuite ren­du compte, qu’en changeant notablement la va­leur at­tribuée à la ten­sion, elle pouvait fournir une des­cription quantique de la gravité, et ainsi récon­cilier la mécanique quantique avec la relati­vité gé­nérale d’Einstein. C’est ce qui a mar­qué le véri­table dé­but de son succès.

 

Dans la théorie des cordes, chaque parti­cule est un état spé­cifique de vibration de la corde. Or l’un de ces modes de vi­bration correspond au médiateur de la gravité si re­cherché en physique quantique, la particule de masse nulle et de mo­ment cinétique (ou spin) deux, le fameux gravi­ton. La théo­rie des cordes nous offre aussi une parti­cule de masse nulle et de spin un, le photon, ce qui carac­térise une théo­rie quan­tique de l’élec­tromagnétisme.

 

Cette capacité de la corde à donner des particules de masse nulle et de spin non nul, est d’ailleurs une des rai­sons de l’abandon de l’ancienne théo­rie. En effet, ces par­ticules n’appartiennent pas au monde des interactions nu­cléaires. Mais, quand on réinter­prète la corde en termes de photons et de gravitons, (des bosons), plutôt que de pro­tons et de neu­trons, (des fermions), la théorie devient beaucoup plus at­trayante.

 

Cependant, une question importante demeure, celle des par­ticules qui ont une masse, comme les quarks. La théo­rie des cordes définit une échelle in­trinsèque de masse très éle­vée, directe­ment liée à la tension. Au premier niveau d’approxi­mation, les états quantiques possibles de la corde ont, soit une masse nulle, soit une masse absolument énorme. On ne sait donc pas com­ment expliquer les parti­cules de petite masse, comme décrites dans le mo­dèle standard de phy­sique de particules.

 

Actuellement, aux faibles énergies, nous savons établir les équa­tions de cette théorie des cordes, mais nous consta­tons qu’elles admettent une mul­titude de solutions. Cer­tains phy­siciens pensent que cette multiplicité pour­rait impliquer que plu­sieurs mondes soient possibles. L’un d’eux se­rait le nôtre, et nous cherchons donc à re­trouver notre modèle stan­dard de la physique des parti­cules à partir de la solu­tion spé­cifique cor­respondante.

 

Tant que l’on restera dans le contexte traditionnel de trois dimensions d’espace perceptibles, (plus celle de temps), les solutions abou­tiront toutes à des mondes « particu­laires », où des inter­actions lient des particules via un échange d’autres parti­cules, même si ce ne sont pas exac­tement les mêmes forces ni les mêmes particules. Aux très hautes éner­gies, proches de celles du Big Bang, le problème est diffé­rent. Nous ne connais­sons pas les équations exactes, et nos pre­mières pistes théo­riques sont très préliminaires.

 

Notre description de la physique pour­rait cepen­dant faire ap­pel à des concepts complètement dif­férents où les no­tions mêmes d’espace et de temps devien­draient inutiles.Dans notre actuelle théorie des cordes, l’espace  com­prend dix di­mensions, neuf d’es­pace et une de temps. Nous n’en perce­vons pourtant que trois, soit parce que les dimen­sions sup­plémentaires sont trop petites pour être perceptibles, soit parce qu’elles sont vraiment très grandes.


Dans ce se­cond cas, notre Univers serait un sous-es­pace à trois dimen­sions, (que nous nommons 3D-brane), auquel nous serions « collés ».

 

Les six dimensions d’espace supplémentaires aux trois di­mensions usuelles constituent ce que nous appelons l’espace interne. La géométrie de cet es­pace, (sa forme et sa taille, respective­ment carac­térisées par une topologie et une mé­trique), condi­tionne la physique que nous ob­servons dans notre habituel espace tridimensionnel, où, par exemple, cer­tains nombres caractérisant la topo­logie sont liés au nombre de fa­milles de quarks.

 

Dans la « théorie M », que nous exposons plus loin, les par­ticules élémentaires de la physique  ne sont donc pas repré­sentées par des billes, mais par des cordes extrême­ment pe­tites (100 mil­liards de mil­liards de fois plus pe­tites qu’un noyau d’hydro­gène) évoluant dans un espace étrange à 10 ou 26 dimen­sions, et pouvant vibrer à diffé­rentes fré­quences.

 

Mais, la plupart des ef­fets spécifiques des cordes ne se ma­nifesteraient qu’à des énergies colos­sales (au­tour de 1028 élec­tronvolts). Il n’y a alors que trois grandes voies pour tenter de vérifier ou d’in­valider la théorie.

 

La première consiste à la développer jus­qu’au bout. Elle prédit l’existence de parti­cules problé­matiques, comme le dilaton, un compagnon théo­rique du gra­viton, lui aussi de masse nulle en pre­mière approxi­mation. L’échange de dila­tons crée­rait une force qui briserait l’universalité de la chute libre (Deux corps soumis à la pesanteur chutent à la même vitesse). Si l’éventuel dilaton n’a pas de masse, la théorie sera invalidée. Dans cette recherche, les mathématiques à consi­dérer sont toutefois extrê­mement complexes, et si cette piste devait aboutir un jour, ce ne serait sans doute pas avant 10 ou 20 ans.

 

La deuxième voie consiste à considérer l’Univers primor­dial comme notre plus puissant accéléra­teur. Les tempé­ratures et les énergies en jeu étaient alors gigantesques. Si la théorie des cordes arrive à mo­déliser l’Univers pri­mordial, ses pré­dictions seront véri­fiables, et pourront ai­der la cosmologie à ré­soudre certains de ses problèmes, comme la singu­larité du Big Bang. De gros pro­grès théo­riques res­tent à réaliser aux très hautes énergies, mais sur le plan observationnel, nous avons les outils néces­saires.

 

La dernière voie possible dépend de la taille des di­mensions supplémentaires prédites par la théo­rie des cordes. Si elle est très supérieure à l’échelle de Planck (10–33 cen­timètre) ce qui est improbable, nous serons peut-être en mesure d’ob­server leurs ef­fets au LHC (Large Hadron Collider de Ge­nève). 

 

Si elle était vérifie, la théorie des cordes permet­trait d’at­teindre une compréhension fondamentale de la nature. Celle-ci repose aujourd’hui sur deux piliers incomplets. D’une part, la relativité géné­rale, une théorie de la gravita­tion. D’autre part, le modèle standard de la physique des par­ticules, qui décrit les trois autres interactions à partir d’une pe­tite sous-classe des théories quantiques des champs : les théories de jauge.

 

Si la nature est consti­tuée de cordes, on retrouve à la fois cette sous-classe et la gravitation, le tout dans un contexte cohé­rent et complè­tement quan­tique. L’’intérêt pour la théo­rie des cordes est donc justifié. Elle en est en­core à un stade trop pré­coce pour que l’on puisse affirmer qu’elle dé­crit bien la nature, et il ne faut pas tout miser sur cette seule voie. Fascinante à l’origine, la théorie des cordes perd pourtant un peu de sa cré­dibilité au fil des années, car les scien­tifiques réalisent bientôt qu’ils ont éla­boré cinq ver­sions de la théo­rie d’unifica­tion, im­pliquant cinq univers diffé­rents.

Cependant, en 1995, Edward Witten de l’univer­sité de Prin­ceton montre que ces cinq ver­sions ne sont que cinq points de vue différents d’une seule et même théo­rie, qu’il appelle la théo­rie M. dans celle-ci, un rema­niement des équa­tions décrit un Univers non plus à dix, mais à onze dimensions.

Si la théorie initiale des cordes basiques consi­dère que seules 3 dimensions spatiales nous sont acces­sibles (les autres sont repliées sur elles mêmes et donc trop petites pour l’être), cette théorie M en ac­cepte une 4ème implication : la structure de notre univers res­semblerait à une membrane souple (la brane) et au­torisant la présence d’autres branes évo­luant en pa­rallèle à la nôtre.

 

Cette théorie s’appuie sur le mystère de la ma­tière noire, une matière encore inobservable mais dont on constate pourtant les effets, et qui l’es­sentiel de notre univers (près de 90%). La théorie suppose que la matière noire serait la matière composant des branes parallèles voisines  dont les effets gra­vitationnels agiraient sur notre uni­vers.

Il se­rait ici inclus dans une gigan­tesque on­zième dimension, l’espace externe, un en­semble exté­rieur bien plus vaste,  comprenant d’autres uni­vers paral­lèles voisins (appelés mem­branes ou branes), comptant chacun entre zéro et dix di­mensions.

L’Univers serait situé sur une 3D-brane, que pour simpli­fier, on appelle simplement brane. Cette brane, ou plus pré­cisément, l’univers constituant ce brane, flotterait donc li­brement dans un super-uni­vers constitué d’immenses di­mensions supplé­mentaires.

Toutes les galaxies contenues dans l’Univers et toute la lu­mière qui en nous parvient font partie de cette « brane » et ne peuvent en sortir, hormis, (peut être),  la gravitation. Car, dans la théorie M, la gra­vitation, « verrait, si l’on peut dire » toutes les di­mensions de l’espace-temps total.

La Théorie M décrit donc le réel comme un Su­per Uni­vers aux multiples dimensions, une entité ab­solument gigan­tesque dans laquelle flottent d’im­menses voiles appe­lées branes, et compo­sées d’in­nombrables galaxies, donc, en fait, des univers lo­caux différents aux caractéristiques particu­lières, dont le nôtre.  La seule gravitation relierait ces branes entre elles.   

En ce qui nous concerne, nous serions donc locali­sés dans un feuillet interne d’univers (compor­tant quatre di­mensions vi­sibles, ainsi que peut-être d’autres microsco­piques), totale­ment hermé­tique aux autres feuillets.

« Pas totale­ment », nuance ce­pendant Gabriele Veneziano. Il envi­sage que, sauf les gravitons, toutes les particules élé­mentaire sont bien des cordes ouvertes dont les extrémi­tés sont accro­chées à notre brane, (et donc captives). Les gravi­tons sont différents car ils sont, eux seule­ment,  des cordes fer­mées sur elles-mêmes, donc plus libres et ca­pables de ga­gner d’autres univers, et donc, de les influencer. Rappelons que Stephen Hawking approuvait l’idée du Multivers et qu’il. Pensait même qu’il était possible depuis notre Univers de détecter ceux qui coexistent avec le nôtre.

Grâce au Large Hadron Collider (LHC), le plus puis­sante des accélérateurs actuels de particules, les physiciens  par­viendront peut-être, à partir d’un bi­lan énergé­tique après colli­sions, de consta­ter un éventuel manque de l’énergie. Ce serait la preuve que des gravitons se sont échap­pés dans un ailleurs différent.

Mais, semble dire Brian Greene, avec ce même LHC, les physiciens espèrent également prouver l’existence de la su­per-symétrie. Entre autres étran­getés, la théorie des cordes prévoit aussi qu’il exis­terait, pour chaque parti­cule, une par­ticule ap­parentée, de même charge mais dont la masse et le spin dif­férent. Au quark correspon­drait ainsi le squark, au photon, le photino, etc. Les au­teurs de science-fiction, dit-il, devront beaucoup tra­vailler pour in­venter des mondes plus étranges que la réa­lité dé­crite par la Théorie M.

Le mystérieux Trikster

nous taqui­ne encore

 

Car une nouvelle sous particule, un « tétra­quark » a récem­ment étonné les physiciens des particules. Le LHC de Ge­nève a peut être trouvé un nouveau bo­son, mais il est rarem­ent acces­sible et les cher­cheurs doivent rechercher des équi­pements plus disponibles.

Ils se sont en par­ticulier intéressés aux données in­exploitées re­cueillies par son prédéces­seur, le Te­vatron qui était aussi un instrument très perfor­mant. Et, ils annoncent y trouvé la possible décou­verte d’un nouveau hadron exotique, un tétra­quark, dont le taux de production est anormale­ment haut de plusieurs ordres de grandeur.

Le Tevatron était un accélérateur circulaire de par­ticules du Fermilab, situé à Batavia dans l’Illi­nois aux USA. C’était le deuxième plus puissant colli­sionneur au monde, avant le LHC de Ge­nève. Sa construction, fort coûteuse, (120 mil­lions de dol­lars), s’est achevée en 1983, et il fut ensuite régu­lièrement amélioré. L’amélioration la plus impor­tante a concerné l’injecteur princi­pal, construit de 1994 à 1999, pour le coût énorme de 290 millions de dol­lars. Le Tevatron a néanmoins été fermé le 30 septembre 2011, faute de cré­dits et de la trop forte concurrence du LHC2.

Le Tevatron du Fermilab, est pourtant un instru­ment fort performant. Il fait partie d’un sys­tème com­plexe composé de cinq accéléra­teurs qui peuvent travailler en série en accé­lérant les parti­cules les uns à la suite des autres.

Le premier de la chaine est un pré accéléra­teur Cock­croft-Walton de 750 keV qui ionise un gaz d’hydro­gène et accé­lère les ions hy­drogène néga­tifs.

Ceux-ci passent alors dans un accélérateur li­néaire de 400 MeV.

Puis, les protons sont séparés des noyaux d’hydro­gène et in­jectés dans le synchrotron nommé Boos­ter de 8 GeV.

Les protons sont ensuite injectés dans l’injec­teur prin­cipal qui les accélère jusqu’à 150 GeV.

Pour produire des antiprotons, les protons de l’in­jecteur principal sont dirigés vers une cible en ni­ckel, puis sont re­froidis et réinjec­tés dans l’injec­teur prin­cipal.

En effet, les protons et les antiprotons, une fois ac­célérés à 150 GeV, peuvent être réin­jectés en sens in­verse dans le té­vatron. Les protons et les anti­protons sont accélérés par le tevatron jus­qu’à 0,98 TeV et pro­duisent des collisions de 1,96 TeV au ni­veau des détect­eurs Collider De­tector at Fermi­lab (CDF) et DØ experiment (DØ). Ils peuvent égale­ment être utilisés pour d’autres ex­périences, via des collisions sur des cibles fixes.

Ainsi, le 2 mars 1995, des chercheurs du Teva­tron avaient annoncé la découverte du quark top1 dont la re­cherche avait été lancée en 1977, (sa décou­verte avait  tardé en raison d’une masse plus im­portante qu’attendue).

Ce quark top1 a une très faible durée de vie, et il est impos­sible de le détecter directement. Ce n’est que grâce aux par­ticules créées par sa désintégra­tion ou quand il in­teragit avec d’autres particules, que son existence peut être détectée.

Quoique le Tevatron américain ait du laisser la place au LHC dans la chasse au boson de Higgs, et en dépit de son arrêt en septembre 2011, il est en­core paradoxale­ment ca­pable de permettre des dé­couvertes car toutes les données qu’il a collec­tées restent disponibles.

Les cher­cheurs conti­nuent à dé­pouiller ces don­nées tout en raffi­nant leurs mé­thodes d’analyse. Leurs recherches portent évi­demment sur les in­formations concer­nant les par­ticules créées dans des collisions de faisceaux de protons et d’anti­protons.

Et, plus préci­sément, il ap­paraît main­tenant que la campagne expérimentale menée de 2002 à 2011 a permis de faire la décou­verte d’un nouvel ha­dron exo­tique.  On entend par là une nouvelle particule qui, bien que dé­crite par les équations de la chro­modynamique quantique (QCD), ne rentre pas fa­cilement dans le modèle des quarks initialement dévelop­pé au cours des années 1960 par Murray Gell-Mann et George Zweig. Dans le cadre théo­rique initial, il semblait naturel de ne considérer que des parti­cules formées de paires ou de tri­plets de quarks.

On avait cependant fini par considérer qu’il pou­vait exis­ter des hadrons exotiques formés de quatre et même cinq quarks, (des tétraquarks et des penta­quarks). Ces objets sont restés long­temps hypothé­tiques mais l’on considérait que plusieurs exemples de ces particules avaient pu être décou­verts sous la forme de ce que l’on avait appelé des mésons XYZ.

Le nouvel hadron a été baptisé X(5568), pour in­diquer que sa masse, en unité d’énergie, est de 5568 MeV. Tout semble indiquer qu’il est compo­sé de quarks u et b, ainsi que d’anti­quarks d et s et donc qu’il s’agit d’un tétra­quark. Si la dé­couverte est confirmée, il s’agirait bien du premier hadron du genre, avec quatre types de quarks (on parle de sa­veurs et il y en a 6) différents.

Mais on a encore quelques incertitudes concernant sa struc­ture. Plu­tôt que sous la forme de quatre quarks formant une seule particule, on pourrait être en présence de deux mésons, contenant des paires de quarks et d’antiquarks, formant donc l’équi­valent d’une mo­lécule dans le monde des ha­drons.

Alors que certains tétraquarks et pentaquarks ci­tés précé­demment contenaient une paire de quark et d’antiquark dit charmés pouvant constituer une sorte de cœur central. il n’en est pas de même ici car tous les quarks sont diffé­rents. Cela signifie­rait, selon les théoriciens, que la pré­sence d’un tel cœur ne peut être invoquée pour expliquer l’exis­tence de ces hadrons exotiques. On a donc bien du mal à dé­crire ce qui peut se passer à l’in­térieur de tels ha­drons d’autant que les calculs en chromody­namique quantique sont extrême­ment compliqués. Il reste donc encore beaucoup de choses à com­prendre dans le cadre de la phy­sique du modèle stan­dard.

Les chercheurs demeurent perplexes devant l’écart entre le calcul prévisionnel des taux théo­riques de production des hadrons X(5568) et ce que donnent leurs mesures. L’écart serait de plusieurs ordres de grandeur. Il se pourrait alors qu’il s’agisse de l’ex­pression d’une nouvelle physique. Mais les membres de la collabo­ration LHCb qui ont aussi recher­ché X(5568) sont revenus bredouilles et mettent en doute son exis­tence même.

 

Et puis, il y a maintenant la fameuse et récente dé­couverte des ondes gravitation­nelles. Elle n’est pourtant pas tel­lement récente pourtant, car sa dé­couverte indirecte en est ancienne. Les ondes gra­vitationnelles avaient déjà découvertes de­puis long­temps, en étudiant les variations de pé­riode orbit­ale dans le système bi­naire de Hulse-Taylor, un pulsar tournant autour d’une étoile à neutrons.

 

La varia­tion de période or­bitale observée était ex­pliquée correctement par l’émission d’ondes gra­vitationnelles, d’où l’attribu­tion d’un prix Nobel en 1993. La détection d’ondes gravitationnelles avait donc déjà eu lieu. Leur histoire com­mença en 1916 lorsque  Albert Ein­stein essaya d’imagi­ner comment formuler le champ gra­vitationnel dans la nouvelle théorie de la gravitation qu’il était en train de construire, (la théo­rie de la relati­vité géné­rale). L’article qu’il écrivit alors conte­nait pourtant une er­reur qu’il ne corrigea qu’en 1918. Les ondes gravitationnelles sont l’un des fonde­ments de sa théorie dite « de la relativité gé­nérale ». La théorie postule que tout corps qui se dé­place provoque une défor­mation de l’espace-temps. Elle modifie à la fois les dis­tances et le temps, et cette déformation se propage dans l’uni­vers en ondes successives, à la vitesse de la lu­mière comme une vague à la surface de l’eau.

 

Il faut de véritables cataclysmes cosmiques pour que se pro­duisent des ondes détectables, comme la formation d’une étoile dans un trou noir, l’explo­sion d’une superno­va ou la collision de deux étoiles à neutrons. Aucune de ces ondes n’avait jusqu’ici été détectée direc­tement, et ce­pendant, les scienti­fiques continuaient à les rechercher  fort active­ment.

Actuellement, deux laboratoires s’y consacrent, Virgo, à Pise sous l’égide du CNRS et de l’Insti­tut italien INFN, et Ligo de la National Science Foun­dation aux USA. Virgo et Ligo ont d’ailleurs contracté un accord pour mettre en com­mun leurs données.

En septembre 2015, les interféromètres améri­cains ont affir­mé avoir capté directement des si­gnaux fort éphé­mères, (une courte fraction de se­conde), résul­tant de la fusion de deux trous noirs géants situés à environ un mil­liard d’années-lu­mière de la Terre. Les perspectives qu’ouvre cette décou­verte sont im­menses : Sonder par exemple l’énergie noire,  la force étrange qui ex­pliquerait l’expansion de l’Uni­vers, ou explorer le cosmos en re­montant son passé jusqu’à 14 mil­liards d’an­nées.

 

Les physiciens auraient donc capturé le signal émis par des ondes gravitationnelles, mais ils au­raient aussi obser­vé, et cela pour la première fois, la fu­sion de deux trous noirs. Ce serait la preuve de l’existence de ces ogres dé­voreurs de lu­mière, qui détiennent peut-être le secret de la nais­sance de notre Univers.

 

 

 

 

 

 

 

7  La causalité  rétroactive

On pourrait continuer longtemps à exposer toutes les avan­cées de connaissance qui explosent actuel­lement dans toutes branches des sciences. D’im­menses progrès sont en cours dans toutes les disci­plines.

Nous allons plutôt choisir de revenir aux débuts de notre discours, pour retrouver d’autres dévelop­pements de l’ex­périence connue sous le nom de « Double slit expe­riment », l’expé­rience de la double fente d’Young qui a en­core bien des choses à nous apprendre.

Une équipe de chercheurs diri­gée par le physi­cien An­drew Truscott (Université Natio­nale d’Austra­lie à Cam­berra, Aus­tralie) a mené une expérience qui semblerait montrer que c’est bien le fait de dé­cider d’observer, (ou de ne pas obser­ver), une par­ticule, (et même un atome), qui influe effective­ment sur sa na­ture. Il nous faut d’abord rappeler ici ce que nous avons précédem­ment exposé.

Dans la description du monde propo­sée par la physique quantique, une particule peut se compor­ter, soit comme une onde immatérielle, soit comme une particule matérielle C’est la célèbre dualité onde particule Si on ne l’ob­serve pas, elle se comporte comme une onde imma­térielle, mais elle de­vient particule matérielle quand on l’ob­serve.

Or, A. Truscott et ses col­lègues ont mis au point un pro­cédé permettant d’émettre des atomes d’hé­lium un par un, en orientant ensuite chacun de ces atomes vers une bifurcation ouvrant sur un itiné­raire déterminé ou sur un autre. C’est l’émission de rayons laser qui agit ici comme une « grille », ca­pable de dévier chaque atome dans l’une ou l’autre direc­tion, un disposi­tif d’aiguillage assez complexe que je résu­merai plus loin pour lequel le mot « grille » n’est pas adé­quat.

Remarquez bien ici que cette expérience portait sur des atomes matériels (en l’occurrence de l’hé­lium), et non pas sur des photons, (de simples par­ticules), comme dans les pre­mières expé­riences de Young.

Le but initial de l’expérience de Truscott était d’amener ces atomes d’hélium isolés à se compor­ter soit une onde, en pas­sant donc par les deux iti­néraires en même temps (comme une vague ma­rine qui heurte un pylône, continue ensuite sa course en passant simultanément par les deux cô­tés), soit comme une particule, en passant sélecti­vement par un seul des deux itiné­raires proposés. Á cette phase préparatoire de l’expérience, les chercheurs ont constaté que les atomes iso­lés pas­saient par un seul de ces deux itiné­raires, (l’un où l’autre, non pas les deux comme le fait une onde), se com­portant donc fort classiquement comme des particules maté­rielles.

Mais, dans sa configuration spécifique finale, l’ex­périence en question faisait ensuite intervenir un dispositif complé­mentaire, (en l’occurrence l’ad­jonction d’une se­conde « grille » de rayons la­ser), dont l’effet était de réuni­fier les deux itiné­raires sé­parés.

L’activation de cette seconde « grille » était aléa­toirement décidée après, (et seulement après), le pas­sage de chaque atome au delà de la bifurca­tion et ses deux itinéraires (la première « grille » de rayons laser). Normalement, (et logi­quement), l’activa­tion aléatoire de cette se­conde grille laser n’aurait pas du in­fluencer le comporte­ment des atomes qui, jus­qu’alors, se compor­taient banale­ment comme des parti­cules en passant par l’un seule­ment, ou par l’autre, des deux itinéraires.

Ce n’est pourtant pas ce que les faits ont montré. L’ajout de la deuxième grille a eu un effet impré­vue et déconcert­ant : un phénomène évident d’in­terférence a été observé.

Cela semblait signifier que les atomes étaient pas­sés non pas par l’un ou l’autre des deux itinéraires proposés, mais par les deux en même temps. Ilse seraient donc com­portés comme une onde, et non plus comme une particule.

L’ajout du deuxième dispositif la­ser aurait donc « changé » la nature des atomes d’hé­lium, ces der­niers cessant de se comporter comme des parti­cules, (leur nature au début du trajet), pour se com­porter comme des ondes (au delà de la grille). Il faut bien comprendre la portée du phénomène constaté. En effet, l’expérience suggère que bien le fait d’avoir « mesuré ou contrôlé » a posteriori le comportement pas­sé des atomes qui a modifié leur nature. Ces atomes ma­tériels auraient-ils donc re­monté le temps ?

« Les atomes n’ont pas voya­gé d’un point A à un point B, explique A.Truscott. Ce n’est que lors­qu’ils ont été mesurés à la fin de leur tra­jet que leur état ondulatoire ou leur état par­ticulaire a été ré­vélé. La grande leçon de l’expérience, dit il,  est que nous ne pouvons pas appliquer notre intuition clas­sique aux systèmes quantiques car ils ne re­connaissent pas les idées humaines telles que le pas­sé ». « L’expérience dit qu’il y a certaines choses, telles que la trajectoire suivie par une par­ticule, que l’on ne peut pas pré­voir, On ne peut pas parler de la probabilité que la particule soit dans un en­droit particulier à un mo­ment donné. ».

Joan Vaccaro, un physicien quantique à l’Univer­sité Grif­fith, dit une grande partie de la confu­sion se pose parce que les gens insistent sur ​​la descrip­tion des objets quantiques comme des parti­cules ou des ondes. Elle suggère de ressus­citer après 90 ans idée de la Colombie-physicien Sir Ar­thur Ed­dington: « Il avait in­venté le terme «  wavicle «  pour don­ner aux systèmes quantiques un nom diffé­rent, au lieu de se référer à eux comme étant soit particule ou vague ».

Pour Ionicioiu, étudier la mécanique quantique est comme entrer dans un autre monde, « Un monde avec des règles dif­férentes.» Et il cite Richard Feynman, un étudiant de docto­rat de Wheeler, qui a dit dans ses conférences sur la phy­sique: « Le para­doxe n’est qu’un conflit entre la réalité et notre sen­timent de ce qu’elle de­vrait être ».

Revenons cependant à l’expérience de Truscott, où tout s’est en fait passé comme si, en défini­tive, la réa­lité ma­térielle n’existait pas vrai­ment jus­qu’à ce qu’elle soit mesurée par un observa­teur.

Notez que ces travaux ont été publiés le 25 mai 2015 dans la revue Na­ture Physics, sous le titre « Whee­ler’s de­layed-choice gedan­ken expe­riment with a single atom ».

 

L’objet de l’expérience peut sembler complexe, di­sait Trus­cott, mais elle tente seulement de ré­soudre une question simple. Si un objet qui peut se mani­fester soit sous la forme soit de par­ticule, soit d’onde, à quel mo­ment précis cet objet a-t-il la ca­pacité d’en décider ?

La logique voudrait que dans l’absolu, l’objet soit sous forme d’onde ou de particule du fait de sa na­ture propre, et que nos mesures soient sans aucun rapport avec cette nature.

Mais selon la théorie quantique, le résultat dépend de la fa­çon dont l’objet est mesuré à la fin de son voyage. Et c’est précisément ce qu’a découvert l’équipe de l’Université na­tionale d’Australie.

« Cette constatation prouve que la procédure de me­sure est capitale. Au niveau quantique, la réali­té n’est rien d’autre qu’une illusion tant que vous ne l’obser­vez pas », a déclaré Andrew Truscott, cher­cheur et phy­sicien princi­pal lié à ce projet, dans un communiqué de presse.

Serait-il donc possible, « au moins pour les atomes indivi­duels de matière », de remonter le temps. Les physiciens de l’Univer­sité nationale australienne ont ainsi confirmé l’une des hypo­thèses les plus avan­cées de la phy­sique quan­tique, en montrant que des ac­tions pré­sentes semblaient pouvoir  af­fecter les évé­nements passés. Remar­quez cependant que je mets pour l’instant l’essen­tiel de mes phrases au condition­nel.

En fait, A. Truscott et son équipe ont montré que si l’on  of­fre deux chemins possibles à un atome d’hé­lium accéléré, la route qu’il prend semblerait être rétro­activement déterminée par le fait consis­tant à exa­miner l’atome à la fin de son voyage.

L’équipe a d’ailleurs signalé son étrange décou­verte dans Nature Physics. « C’est un fantastique tour de force expéri­mental », a dit Radu Ionicioiu, physi­cien du Horia Hulubei Institut natio­nal de Bucarest pour la physique et de génie nu­cléaire. « Mais com­ment l’interpréter? Si vous demandez à 10 per­sonnes, vous aurez 11 avis. ». 

Nous avons déjà vu que les particules quan­tiques telles les photons ont aussi une double apparence. Les pho­tons se comportent parfois comme des par­ticules, en re­bondissant contre un obstacle, mais ils peuvent aussi se comporter comme des ondes. Et, étrange­ment, c’est l’observateur qui semble déter­miner l’aspect qu’adopte actuelle­ment un pho­ton. Si on en contrôle l’ondulation, il se com­porte comme une onde, et si l’on en attend un comporte­ment de parti­cule, c’est alors sous cet aspect qu’il se manifeste.

Radu Ioniciou résume ainsi le paradoxe: « La ques­tion est : Comment la même chose peut se compor­ter dans les deux sens, en fonction du genre de ques­tion que vous posez ? »

Rappelons qu’à la fin des années 1970, John Whee­ler, l’un des géants de la physique du 20e siècle, en approfondissant la théorie, avait réalisé qu’un com­portement réelle­ment quantique de la particule im­pliquait une possibilité extrême­ment étrange, à sa­voir que la présence  d’un obser­vateur semblait in­fluencer le comportement d’un photon dans le pas­sé de son voyage temporel.

En 1978, Weeler avait d’ailleurs conçu une expé­rience théo­rique qu’il avait appelée « delayed-choice thought expe­riment », en français « choix retardé ». Il pro­posait d’émettre un photon en lui offrant une sorte de « choix », c’est-à-dire la libre possibi­lité de se com­porter comme une parti­cule ou comme une onde. Le photon serait « me­suré » plus tard pour connaître quel choix il avait fait.

Wheeler avait alors imaginé d’envoyer un photon vers un carrefour, réalisé avec un miroir semi ré­fléchissant, (donc à deux voies). Il pensait qu’en  re­combinant ensuite les deux voies avec un se­cond mi­roir disposé plus loin sur le tra­jet, cela de­vrait ré­troactivement déterminer le che­min pris par le pho­ton au carre­four. Il avait émis l’hypo­thèse que quand l’expérimen­tateur recombin­erait les che­mins, le photon se comporterait comme une parti­cule so­lide, en pas­sant par un seul des che­mins. Mais quand l’expéri­mentateur NE les re­combinerait PAS, le photon agirait alors comme une onde. Quand une vague pénètre dans un canal en forme de fourche, elle se divise et l’ondulation pro­gresse à la fois sur les deux chemins. En prin­cipe, le pho­ton de­vait faire de même.

Lorsqu’elle fut imaginée, en 1978, l’expérience théorique de Wheeler semblait irréalisable, et même im­possible, en rai­son de la vitesse de la lu­mière, car elle impliquait que l’on puisse interve­nir sur l’appareil pendant que le pho­ton était en vol. La chose devint finalement possible et fut en fait réa­lisée en 2007 quand une équipe française réus­sit à construire un cheminement de 48 m de long pour le faisceau de lu­mière. Cela permettait enfin de dispos­er de juste assez de temps pour commuter l’équipe­ment après que le photon ait dé­passé les carre­fours de mi­roirs, mais avant qu’il ait atteint les détect­eurs.

Les physiciens de Truscott ont aujourd’hui repris la même expérience, à un ni­veau différent et avec d’autres moyens (en particulier matériels et statis­tiques). Ils ont finale­ment montré que l’expé­rience de Wheeler fonctionne non seule­ment avec des pho­tons de lu­mière im­matériels, (les photons sont des bosons), mais aussi avec des atomes indivi­duels de matière, confirmant ainsi que l’on peut égale­ment démontrer la dualité onde parti­cule pour des atomes isolés.

Le dispositif imaginé par Truscott et son équipe pour réali­ser cette expérience, était extrêmement sophistiqué. Il consistait à isoler d’abord environ un millier d’atomes d’hé­lium en les immobilisant avec des lasers, puis à les re­froidir à un milliar­dième de degré au-dessus du zéro absolu. Á l’époque actuelle, les physiciens sa­vent parfaite­ment manipuler, ra­lentir et immobiliser des pho­tons de lu­mière dans des structures particulières, ( des condensats de Bose-Einstein ), et ils pen­saient que des structures analogues pou­vaient être réali­sées et utilisées avec des atomes matériels, comme de l’hélium superfluide.

Maintenant, on sait aussi refroidir des gaz à moins d’un mil­lionième de degré du zéro absolu en im­mobilisant leurs atomes à l’aide de lasers et de champs magnétiques. Les atomes de certains gaz adoptent alors tous un même état quantique col­lectif, comme une sorte d’onde quantique géante, (C’est aussi cela qui est appelé condensat de Bose-Einstein), des objets quan­tiques modèles très utili­sés en phy­sique.

On s’en sert dans les laboratoires d’optique quan­tique et de physique atomique pour simuler cer­taines situa­tions com­plexes dans les so­lides, ainsi que pour étudier certaines pro­priétés quantiques fondamen­tales, non seulement comme celles de l’hélium su­perfluide mais aussi celles de maté­riaux placés dans des champs magné­tiques élevés, (les supracon­ducteurs par exemple).

Dans le piège optique et glacé de Truscott, les atomes du pack, sont bombardés par des lasers, et s’échappent un à un. Cet atome isolé est ensuite dé­vié par des impulsions laser qui les poussent dans un dispositif qui offre un choix égal entre deux che­mins, (un système magnétique utilisant une diffé­rence de phase ré­glable). C’est l’équi­valent des mi­roirs de Wheeler. Ayant, à ce stade, pris un chemin unique déter­miné, l’atome est, en principe, en l’état de particule.

Après ce premier « séparateur », les chercheurs se sont don­né la possibilité d’appliquer ou non une se­conde impulsion avec un second laser, afin de re­combiner les deux états pos­sible (et même de créer des états mixtes, comme celui formé par l’ad­dition des deux ondes ou celui formé par leur soustrac­tion), en utilisant un générateur quantique de nombres aléatoires pour appliquer l’impulsion laser finale. Il devenait donc impossible de prédire lequel des deux chemins l’atome allait emprunter. Les expérim­entateurs ont longuement répété l’ex­périence, en fai­sant largement varier la différence de phase entre les fais­ceaux.

Truscott et son équipe ont alors constaté que, lorsque la se­conde impulsion la­ser n’était pas ap­pliquée du tout, la pro­babilité de la pré­sence de l’atome détectée dans chacun des états du moment était de 0,5, quel que soit le retard de phase entre les deux déflecteurs. Cela si­gnifiait que les atomes choisissaient chacun des deux chemins pos­sibles dans des proportions égales, ce qui était en confor­mité avec ce qui se passe pour les photons. 

Cependant, l’application de la deuxième impul­sion interve­nant après que l’atome soit engagé dans un chemin détermi­né, (parmi les deux pos­sibles), a modifié les choses en pro­duisant une ré­sultante si­nusoïdale d’interférence.

Lorsque les ondes appli­quées au  séparateur étaient parfaite­ment en phase, elles ont interféré de ma­nière toujours constructive, en produisant constam­ment l’état for­mé par leur  addition.

Mais, lorsque les ondes étaient en opposi­tion de phases, elles ont  interféré de façon toujours des­tructive en reprodui­sant régulièrement l’état for­mé par leur soustrac­tion.

Ce résultat a une signification extrêmement im­portante. Cela signifierait qu’accepter notre inter­prétation intui­tive clas­sique, (les particules voyagent sur des che­mins bien définis), implique que nous ac­ceptions aussi que ce renversement puisse avoir une causalité temporellement rétro­active.

« Je ne peux pas prouver que ce n’est pas ce qui se passe», disait Trus­cott, « Mais 99,999% des phy­siciens diraient que : La mesure, (en fait, la mise en action ou pas du re-combinateur de fais­ceau), contraint l’observable à passer dans la réalité, et à ce mo­ment la particule décide d’être une onde im­matérielle ou une particule matérielle ».

En fait, deux interprétations, tout autant étranges que fantas­tiques, peuvent être tirées des résultats étonnants des expé­riences de Truscott.

Dans l’une, ils montre­raient que l’état de la parti­cule de­meure fort proba­blement indéterminé entre l’aspect d’onde immaté­rielle ou celui de particule matérielle jusqu’à ce que la mesure soit effectuée. Ce serait donc la mesure volon­taire, (la volonté de l’ex­périmentateur), qui déterminerait l’aspect fi­nal.

L’autre option, encore moins probable, serait celle d’une ré­tro causalité, la particule ayant alors reçu des in­formations provenant de l’avenir, (mais cela impliquerait  l’en­voi d’un mes­sage plus rapide que la lumière, ce qui est interdit par les règles de la re­lativité).

Le Trickster farceur est donc de retour.

 

Les scientifiques australiens ont confirmé que les prévisions bizarres de la physique quantique concernant la nature et la réalité, montrent que la réalité n’existe pas réellement jus­qu’à ce que nous la mesurions, du moins, pas à très petite échelle.

Mais cela soulève la vraie question : Qu’est ce qui déter­mine pourquoi et quand un photon, un élec­tron ou même un atome doit se comporter comme une onde ou comme une particule ? (Ou bien : quoi ? Ou même qui ?). 

Comment exprimer, sinon de façon folle­ment an­thropomorphique, comment ces choses « dé­cident », si l’on peut dire, de la forme qu’elles adoptent dans une situa­tion ou à un mo­ment don­né?

La réponse dominante type en mécanique quan­tique est de consi­dérer que c’est quand une me­sure est prise que la « dé­cision » a lieu, et donc, si j’ai bien compris, que c’est la vo­lonté de l’expéri­mentateur qui est le fait déclenchant.

Personnellement, cela me semble être une vaine échappa­toire pour éviter une question encore bien plus troublante : Les « objets » traversant les dis­positifs expérimentaux « savent ils ? » qu’ils ont ob­servés. Autrement dit : Quel est leur degré de conscience ? 

 

 

 

 

 

8 Le champ est l’unique réalité

 

Quel est donc le degré de conscience des « ob­jets » traver­sant les dispositifs expérimentaux ? Savent ils qu’ils ont ob­servés ? 

Nous avons eu, au fil des pages précédentes, des éléments de réponse à cette interrogation trou­blante. Souvenez vous de ce que vous avez lu dans les précédents chapitres. Dans les alinéas sui­vants, je ne fais que reprendre des éléments déjà rencon­trés dans cet ouvrage.

« Comprenons bien, vous ai-je dit, que le percept est tou­jours un objet pu­rement mental.  Il  ne fait pas de véritable référence à la chose réelle, mais il en si­gnale la pré­sence, en particulier par référence au connu. L’objet mental n’est ja­mais que la re­présentation interne élec­trique de l’objet ex­terne ob­servé et il n’en de­meure toujours qu’une image. Il faut absolument comprendre que ces images sont créées dans notre cerveau. Elles sont inté­rieures  et la réa­lité exté­rieure est différente. ».

« Nous avons appris qu’il nous ne pouvons pas dé­couvrir l’Univers au présent, nous le voyons tou­jours au passé. Nos connaissance ne sont que des théories, des images du Monde réel, des objets mentaux issus de cerveaux humains, et il nous faut en accepter une formulation très humble et bien mo­deste : La véritable nature de l’Univers nous échappe to­talement. ».

« Il semblerait que la conscience crée en partie la réali­té. Dans le cadre cité de l’étude des corpus­cules, l’ob­servateur n’a donc pas un rôle neutre et on constate que l’appa­reil de mesure influence le ré­sultat. Nous savons bien ce qu’est la particule, à la source, lors­qu’elle est créée, et nous savons ce qu’elle est, à l’arrivée, quand elle est en­registrée par les dé­tecteurs. Mais nous n’avons aucune idée de ce qui se passe entre temps. Nous ne sa­vons pas décrire cela dans notre lan­gage habituel. ».

« On doit logique­ment conclure que notre géomé­trie macro­scopique est défi­nitivement inadaptée et incom­pétente à l’échelle de l’atome, et de toute par­ticule élémentaire. ».

« Le noyau atomique est très compact, cent mille à un mil­lion de fois plus petit que l’atome  lui-même (10-15). Les électrons sont ponctuels, ils n’ont pas de dimension. On les consi­dère comme des points géométriques de rayon qua­si nul, (plus petit que 10-18). La méca­nique ondula­toire pro­pose un nou­veau mo­dèle de l’atome dans le­quel les électrons ne sont plus des billes localisées en or­bite, mais des nuages de probabilité de pré­sence dans cette zone. Mais personne ne peut dire ce que signifient ces mots : « Nuage ou Onde de probabi­lité » ? 

 

« Avec un noyau aussi petit et des électrons ponc­tuels qui gravitent dans un espace atomique un mil­lion de milliard de fois plus grand, on peut considé­rer qu’un atome est (spatia­lement parlant) vide. De plus, les particules (les quarks) qui forment en théorie, les protons et les neutrons, sont comme l’électron, des particules ponctuelles, (sans dimen­sion ni vo­lume). Un atome, constitué entièrement de particules sans vo­lume est donc, (géométrique­ment), entièrement vide ! En théorie, bien sûr. ».

 

« En résumé, la dure matière serait donc, à l’échelle micro­cosmique, constituée d’atomes em­plis de vide ( !), centrés sur des noyaux fait de sous -articules sans volume ( !), et conte­nant des nuages probabi­listes ( !) d’électrons indiscer­nables et sans dimen­sion ( !), et de plus ils sont non loca­lisables ( !).

La méca­nique quantique est en effet non lo­cale. La no­tion de non localité des particules in­duite par la théorie quan­tique est essentielle, car elle diffé­rentie les proprié­tés de notre monde macrosco­pique, classique et ac­cessible aux sens, de celles du monde microsco­pique, quantique, lequel n’est  essentiellem­ent accessible qu’aux cal­culs. ».

Le sourire du Trickster devient ambigu.

 

Car cette notion de non localité implique évidem­ment que l’univers est un tout, et ceci s’établit comme un concept ab­solument fondamental.

Einstein lui-même, malgré ses restrictions,  consi­dérerait que la matière est constituée de régions de l’espace dans les­quelles le champ est extrêmement dense. Et dans la nouvelle physique, en effet, il n’y a pas de place pour deux entités, à la fois pour le champ et  pour la matière, parce que le champ y est l’unique réalité.

Comprenons que cela signifie que les objets maté­riels  ne peuvent jamais être définis comme des en­tités dis­tinctes, ni être d’aucune façon dissociés de leur environnement, ce qui implique que leurs pro­priétés sont constamment en interac­tion avec l’uni­vers total.

En conséquence, nous devons considérer que chaque objet (au sens le plus large donné à ce terme), n’existe que comme une manifestation lo­cale d’un champ  global étendu à la to­talité de l’univers. Cela est vrai dans l’infiniment petit, (l’es­pace microcosmique), comme dans l’infini­ment grand, (l’es­pace macrocosmique).

Le physicien français Alain Aspect, (Pro­fesseur à l’Ecole Polytechnique), a démontré que les parti­cules sub-atomiques ne sont pas des éléments sé­parés, mais des aspects d’un en­semble extrême­ment vaste qui leur permet de se manifester de manière corrélée, quelle que soit la distance qui semble les séparer, que ce soit deux centimètres ou deux années-lu­mière. Nous avons antérieure­ment évoqué toutes les particu­larités de cette cor­rélation.

Les physiciens David Bohm, (Université de Londres), et Karl Pribram, ont manifesté leur ac­cord sur ce point essen­tiel, et David Bohm, a dé­duit des travaux d’Aspect que la réalité dite objec­tive n’existe pas. En dépit de sa matérialité appa­rente, l’univers ne serait qu’un fantasme, un gi­gantesque hologramme magnifiquement détaillé. (Pour éclair­cir ce propos de David Bohm, rappe­lons simple­ment que chaque morceau d’un holo­gramme contient la totalité de l’information origi­nale).

Nous devons donc rejeter la démarche scientifique et analy­tique classique qui consiste à scinder la chose ob­servée un maximum de parties. L’image de l’ho­logramme signifie que l’univers ne peut pas être compris de cette manière. Si l’on frag­mente une chose constituée comme un holo­gramme, on n’ob­tient pas des parties distinctes mais chaque frag­ment re­présente la totalité en plus réduit.

David Bohm a même tenu à expliquer sa pensée. Il a propo­sé l’image d’un aquarium dans le­quel nage un poisson. L’image de l’aquarium est trans­mise par deux caméras, l’une de face, l’autre de côté. En regardant les deux écrans de contrôle, on voit évo­luer deux poissons de manière totalement syn­chrone, et l’on pourrait se demander comment ils se communiquent leurs changements de direc­tions. Selon lui, c’est exactement ce qui se passe quand on observe les particules sous l’angle pro­posé par Alain Aspect.

Il n’y a pas de transmis­sion d’informa­tion mais seulement un niveau diffé­rent de réa­lité. Les parti­cules sub-atomiques nous paraissent distinctes uni­quement parce que nous ne percevons qu’une partie de leur réalité. Elles ne sont pas des élé­ments dis­tincts mais des facettes d’une unité pro­fonde et indi­visible comme une image dans un ho­logramme.

En fait, la réalité de David Bohm ressemblerait à un super holo­gramme dans lequel le passé, le pré­sent, et le futur, existent simultanément.

Dans un tel univers de nature holographique, où rien n’est vrai­ment séparé, le temps et l’es­pace ne sont pas des don­nées distinctes et irréduc­tibles. Des concepts comme la loca­lisation n’ont plus au­cun sens. Le temps et l’espace tridi­mensionnel, doivent être conceptuellement considérés comme des pro­jections d’un agencement plus profond.

L’astronome F. Hoyle pense que : « Les dévelop­pements ac­tuels de la cosmo­logie en sont arrivés à suggérer../.. que les situations quoti­diennes ne pour­raient persister sans les par­ties éloi­gnés de l’univers, et toutes nos idées d’espace et de géo­métrie seraient entièrement in­validées si les par­ties éloi­gnées de l’uni­vers en étaient exclues. ».

Einstein, réaliste et déterministe, restait néan­moins persuadé qu’il existe une réalité objective indépen­dante de nos obser­vations. Par contre, son ami et contradic­teur habituel, Niels Bohr le cé­lèbre physi­cien quan­tique danois disait que « la seule réalité sur laquelle nous avons prise consiste dans l’en­semble des phé­nomènes accessibles à nos sens.

Les lois que nous en tirons ne sont qu’une manière com­mode et efficace de résumer l’ensemble des faits expérimen­taux et d’en effec­tuer la générali­sation vers l’inconnu. La méca­nique quantique donne, sous forme probabiliste, la des­cription phy­sique la plus complète du monde que l’on puisse concevoir ».

Niels Bohr soutiendra même que le concept de par­ticule iso­lée n’est qu’une simple abstrac­tion com­mode mais sans réelle signification. Le seul fait fondamental auquel nous soyons confronté, est en réalité l’interaction dynamique de tous les phéno­mènes de l’univers, c’est à dire celui de l’uni­té de l’Univers.

La physique quantique délaisse donc la notion tra­ditionnelle selon laquelle les « parties élémen­taires » du monde en constituent la réalité fonda­mentale, les divers sys­tèmes étant seulement des figures et des combinaisons particulières de ces parties. Dans la nouvelle physique, rien n’existe séparé­ment et in­dépendamment. C’est l’intercon­nexion quantique de l’univers dans son ensemble qui est la réalité fondamen­tale et ses par­ties appa­remment interdépendantes sont sim­plement des formes particulières et fortuites à l’inté­rieur de l’ensemble  général.

L’interconnexion quantique de l’uni­vers serait en fait sa réa­lité fondamentale. Dans cette optique, l’idée même de partie ou de fragment, n’est qu’une décomposition parfaitement conceptuelle, donc un pur objet mental. Si tous les phéno­mènes physiques sont des modifications à l’intérieur  d’un champ où tout est corrélé, la séparation sujet/objet que nous pratiquons dans l’observation du réel devient une simple fic­tion.

Un physicien comme John Wheeler a fini par dire que le terme « observateur », au sens de la phy­sique classique de­vrait remplacé par celui de « par­ticipant ». Il a précisé l’ex­pression de sa pensée en considérant que : « Le plus impor­tant dans le prin­cipe des quanta, est que la théorie détruit la notion de monde extérieur à un observateur séparé de lui../.. La mesure modifie l’état de l’électron../.. Pour décrire ce qui s’est produit, il faut rayer l’an­cien mot d’observateur et lui substituer le terme de participant. D’assez étrange façon, il faut ad­mettre que cet univers est un univers de participa­tion ». 

La théorie quantique conforte cette position : « Le fait que nous parlons d’une particule ou de tout  autre élément obser­vé montre bien que nous avons à l’esprit quelque entité phy­sique indépendante qui est d’abord préparée puis mesurée ». L’idée même d’observation d’une entité est « une mani­festation de l’interac­tion entre les processus de prépara­tion et de mesure ».

Pour donner un exemple, (mais seulement un exemple), de la difficulté créée par une perception toujours intérieure à l’objet observé, imaginons que nous tentions de percevoir l’extérieur de notre maison sans jamais pouvoir en sortir. Ca sera une perception évidemment imparfaite, largement ima­ginaire, mais c’est exactement ce qui se passe quand nous tentons de percevoir la réalité de l’univers dans lequel nous demeurons enfermé.

L’entité « observateur, observation, observé » est  un tout qui demeure toujours insécable. Tout ce que nous concevons en observant l’univers est re­latif à la conscience que nous en avons. Rappelons ici qu’au final, la représentation que nous en fai­sons est un objet mental. La théorie quan­tique se fonde sur le modèle d’une objectivité faible. Elle casse le postulat de l’objectivité forte, préconisé par la phy­sique classique qui dit que la nature pos­sède une réalité objec­tive indépendante de nos perceptions sensorielles et tous nos moyens d’investi­gation. (Ce qui signifierait que le monde objectif de la phy­sique resterait identique et constant, même sans aucun ob­servateur. ). Or, si l’objectivité forte est un simple postulat fondé sur une illusion, la question de l’objectivité scienti­fique doit être remise en cause. Ce que nous appelons « science » ne serait que l’expression de la conviction collec­tive des savants de l’époque.

Ainsi, la théorie quantique abolit-elle la notion d’objets sé­parés en introduisant la notion de parti­cipant pour remplacer celle d’observateur ; il de­vient désor­mais nécessaire d’in­clure la conscience humaine dans sa description du monde qui appa­raît comme un tissu de relations mentales et phy­siques, dont les éléments ne se définissent que dans leur rap­port à l’ensemble.

En physique quantique, l’homme n’est plus un simple obser­vateur objectif indépendant. Bien au contraire, il est impli­qué dans le monde qu’il ob­serve, au point d’influencer les caractéristiques des phénomènes examinés.

La physique quantique voudrait dé­crire l’interac­tion de l’ob­servateur avec le monde mais le réel demeure cependant in­accessible. A son égard, on ne peut que prédire une probabi­lité d’existence. L’observation n’est jamais vraiment « neutre », car toute mesure influence la gran­deur mesurée Il n’y a pas de moi isolé indépendant, tout est inter­dépendant, et même au niveau de macrocosme, observer, c’est peut être perturber.

Et pourtant, le physicien pense souvent le Monde avec ses propres certitudes, avec l’idée que son concept de temps est le même pour tous les obser­vateurs. Mais il n’y a pas de temps universel com­mun. L’espace est différent pour tous les observa­teurs, le temps également, seul l’espace-temps est le même pour tous.

La théorie quantique abolit la notion d’objets sé­parés et in­troduit la notion de « participant » pour remplacer celle d’observateur. En physique ato­mique, nous ne pouvons ja­mais parler de la nature sans, simultanément, parler de nous-mêmes. Il est désormais indispensable d’in­clure la « conscience humaine » dans la compréhension du monde…

La nuance est fondamentale car elle modifie l’image, la re­présentation que nous pouvons avoir de notre « monde céré­bral » à partir du « monde sensible ». Parce que, au lieu d’y être soumis, qui peut être interprété comme une condition irréver­sible, nous serions sous condition de la connais­sance de l’organisation de ces forces, de cette in­formation.

Nous serions un être « conditionnel », conditionné à ce qu’il est capable d’en com­prendre.

Qu’est ce que nous appelons la « Réalité » si ce n’est notre propre perception du monde ?

Il n’y a pas de « substance », mais seulement des « parti­cules » qui, en s’associant, véhiculent aussi bien la lu­mière, l’énergie, l’information, et consti­tuent notre propre corps. Si nous considérons que l’univers est la circulation d’une infor­mation de­puis son origine, nous sommes cette information dans l’information, et produisant nous-mêmes de l’informa­tion, non pas seulement soumis à en re­cevoir.

Ici, le Trickster sourit.

 

On voit qu’à ce niveau, ce n’est plus seulement le secret de la matière que recherche la science, c’est celui de l’informa­tion, mais c’est aussi surtout la conscience qui est l’objet vé­ritable de la quête. Certains cher­cheurs, on va le voir, iront encore plus loin. C’est maintenant l’esprit qu’ils tentent de trouver au cœur de la matière.

 

Parmi tous ces chercheurs, il nous faut d’abord évoquer ceux que le Pr. Raymond Ruyer  a impro­prement dénommés les « Gnostiques de Prince­ton », dans le titre un  peu raco­leur d’un de ses ou­vrages, alors qu’eux-mêmes ne se sont ja­mais identifiés à cette appellation de fantaisie.

 

La gnose traditionnelle naquit en Méditerranée orientale aux alentours du 1er siècle de notre ère. De nature philosophique, elle se fondait sur la né­cessité d’une parfaite connaissance de soi et du Monde. Dans ce contexte, au niveau phénomé­nal du fonctionnement du monde, elle pouvait aussi être considérée comme une science impliquant un principe divin, nouménal, et universel, fournissant l’énergie motrice à toute existence.

La « gnose de Princeton », de Raymond Ruyer n’a pas cette simplicité. C’est un courant de pensée, une ap­proche bien plus savante qui s’appuie sur toutes les découvertes de la science expérimentale. Elle dédouble cependant le postulat fondamental de la science selon lequel tout est phénomène.

Outre l’envers d’où nous les observons, il existe­rait un en­droit des êtres et des choses que révèle la conscience. Car tout ce qui est vu l’est d’abord en soi et par soi, donc par la conscience ; il est aussi vu hors de soi comme un phéno­mène qui est la matière, l’objet courant de notre perception.

L’étude des propriétés comportementales des sous particules et des champs essentiels de la matière ont conduit, à Prince­ton et Pasadena, un certain nombre physiciens (parmi les plus éminents comme Einstein ou Openheimer) à considérer qu’il existe une base, un endroit unique, qui fonde les êtres et des choses. Et, de cet « endroit fonda­mental », nous ne voyons toujours que l’envers. Comprenons évidemment que cette base est une Conscience cos­mique omnisciente.

Ces physiciens, ayant constaté la nature véritable­ment im­matérielle de la Matière et la prépondé­rance qu’occupe « l’Endroit » de l’Univers par rap­port aux apparences de l’Envers « de surface », ont naturellement abouti à la conclusion qu’il n’y a en réalité qu’un acteur ultime : « le Sujet Cos­mique », qui est aussi Conscience Cosmique. Il est l’unique réalité ultime des êtres et des choses, et il n’y a ni choses, ni objets séparés, ni corps tels que nous les éprou­vons de façon illusoire.

« Le monde est dominé et fait par l’Esprit, dit le professeur RUYER ».

« L’homme, par la science, mais par une science supérieure, transposée peut accéder à l’Esprit Cos­mique ».

« L’Esprit, c’est la Conscience Cosmique ».

« L’Esprit constitue la Matière, il en est l’étoffe ».

« La Matière, les corps matériels n’en sont que l’apparence (pour un autre esprit) ou le sous-pro­duit par effet de multi­plicités désordonnées ».

« L’Univers est, dans son ensemble et son unité, conscient de lui-même. Il n’est pas fait de « choses », de « corps maté­riels ». Ses énergies ne sont pas physiques ».

« Tous les êtres sont conscients, signifiants — ou plus exac­tement pleins de sens — informants et s’informant. Non seulement leur « corps » (leur envers visible) n’est qu’un as­pect superficiel pour un « observateur » extérieur à eux, mais ils n’ont pas de corps, ils ne sont pas corps ? »

« Ils sont tout endroit. Ils n’ont un « envers », un corps, que les uns pour les autres. Ils se voient et, se voyant, ils se transforment mutuellement en choses vues »...

« L’existence corporelle n’est jamais qu’une illu­sion, un sous-produit de la connaissance percep­tive ».

« Le monde spatio-temporel est fait de l’intérieur, comme la coquille de l’escargot qui pourtant l’ha­bite. Il est fait par tous les « je » qui y agissent.

« L’Univers spatial est un système d’apparences observées d’une infinité « de points de vue (d’ob­servateurs-sujets). »

« L’espace métrique est une construction intellec­tuelle qui permet la communication entre les ob­servateurs.

Ces nouveaux Gnostiques se sentiraient d’une cer­taine façon reliés par une « participation directe » à l’Endroit de l’Uni­vers, c’est-à-dire à la Conscience Cosmique divine. Les Gnostiques de Princeton insistent précisément sur le fait que les molécules ou les infusoires « s’entendent beau­coup mieux à leurs propres affaires que la plupart des êtres hu­mains ».

Dans son livre, Raymond RUYER s’élève contre le préjugé de l’inintelligence des constituants ul­times de la matière ou du caractère vague et confus de ces derniers, et il s’efforce d’élargir le concept d’intelligence en déclarant : « Un chien est aussi intelligent qu’un homme, un infusoire aussi intelli­gent qu’un chien, une molécule aussi intelligente qu’un in­fusoire ».

« Par « intelligent » nous entendons trop souvent, dit-il, non pas un être qui s’entend à ses propres affaires mais un être qui pourrait comprendre les nôtres, et, dont nous pourrions nous-mêmes com­prendre les affaires ».

« La thèse de l’universalité de l’intelligence doit être prise à la lettre, et elle s’oppose à l’idée radi­calement fausse…/…d’un psychisme inférieur, vague, affaibli, évanescent, à me­sure qu’on s’éloigne de l’intelligence humaine vers les formes inférieures de la vie ».

« La conscience intelligence d’un Infusoire, d’un végétal, d’une macromolécule, il n’y a aucune rai­son de la considé­rer comme plus vague, plus confuse que celle d’un techni­cien aux prises avec un problème technique. L’infusoire ou la molécule travaille sur les données de ses propres édifices moléculaires ou atomiques, sur les parties pré­sentes de son champ d’auto-vision ».

Pour les Gnostiques, dont la majorité sont des physiciens, ce « champ d’auto-vision dans son uni­té » est l’expression di­recte de la Conscience Cos­mique formant l’essence ultime du monde ma­tériel.

 

 

 

 

 

 

 

 

 

9  Un autre regard

 

Dans ce chapitre, nous allons un peu changer de registre et entrer dans une autre dimension de la pensée. Á ce point du développement, je voudrais commencer par citer quelques paroles d’Albert Einstein, extraites d’un essai publié en 1934, dont le titre était : « Comment je vois le Monde ».

 

Einstein, israélite né en Allemagne en 1879, fut naturalisé Suisse en 1900. Professeur à l’Universi­té de Berlin, et pas­sionné de physique théorique, il commença à faire connaître ses théories concer­nant l’équivalence masse  énergie, les principes de la relativité des mouvements et les lois de la gravi­tation, à partir de 1916. Il reçut le prix Nobel en 1921. Il  prit la nationalité américaine en 1940. Il tenait une chaire à Prince­ton, (où naquit le mouve­ment de pensée dénommé Gnose de Princeton). Ses travaux concernant la physique eurent une in­fluence absolument consi­dérable, et la philoso­phie contemporaine en fut également fortement mar­quée. Après Einstein, le concept théorique du pro­grès des sciences bascula dans le relativisme. Voyons ici ce qu’il disait des re­lations établies entre la science et la religion.

 

« Combien curieuse est la situation de nous autres, enfants de la terre ! Chacun est là pour une courte visite. Il ne sait pas pourquoi, mais il croit parfois le sentir. Mais on sait du point de vue de la vie journalière, sans réfléchir davantage, qu’on est là pour les autres hommes.(...). Chaque jour, je pense que ma vie intérieure et extérieure repose sur le travail des hommes vivants et sur celui des hommes déjà morts, que je dois m’efforcer de donner dans la même mesure que j’ai reçu et que je reçois encore.(...). Je ne crois pas du tout à la li­berté de l’homme, dans le sens philosophique. Chacun agit non seulement sous la contrainte ex­térieure, mais aussi conformément à une nécessité intérieure.(...). Se préoccuper du sens ou du but de sa propre existence, ainsi que de celle des créa­tures en général, cela m’a toujours paru, au point de vue objectif, absurde. Cependant, tout homme a certains idéaux qui dirigent son effort et son ju­gement. Dans ce sens, le plaisir et le bonheur ne me sont jamais apparus comme une fin en soi. (J’appelle aussi cette base morale l’idéal du trou­peau de cochons). Les idéaux qui brillaient devant moi et m’ont continuellement rempli d’un joyeux courage de vivre ont été le bien, la beauté et la vé­rité.(...) ».

 

« La plus belle chose que nous puissions éprouver, c’est le coté mystérieux de la vie. Ce sentiment fondamental se trouve au berceau de l’art et de la science véritables. Celui qui ne le connaît pas et ne peut plus éprouver ni étonnement ni surprise, est pour ainsi dire mort et ses yeux sont éteints. » .

 

« L’expérience intime du mystérieux, même mêlé de crainte, a aussi créé la religion. Savoir qu’il existe quelque chose qui nous est impénétrable, connaître les manifestations de la rai­son la plus profonde et de la beauté la plus éclatante, qui ne sont accessibles à notre entendement que dans leurs formes les plus primitives ; c’est cette connaissance et ce sentiment qui constituent la vraie religiosité. C’est en ce sens, et seule­ment en ce sens, que j’appartiens aux hommes profondé­ment religieux. ».

« Un contemporain a dit, non sans raison, qu’à notre époque généralement vouée au matéria­lisme, les savants sérieux sont les seuls hommes qui soient profondément religieux (...). Vous trou­verez difficilement un esprit scientifique, fouillant profondément la science, qui ne possède pas une religiosité caractéristique. Mais cette religiosité se distingue de celle de l’homme simple. Pour ce dernier, Dieu est un être dont on espère la sollici­tude et dont on craint le châti­ment, un sentiment sublimé de même nature que le rapport de l’enfant à son père, un être avec lequel on entretient des rapports personnels, aussi respectueux qu’ils soient. Mais le savant est péné­tré du sentiment de la causalité de tout ce qui ar­rive. L’avenir n’est pas pour lui moins nécessaire ni déter­miné que le passé. ».

 

«  Il y a encore un troisième degré de la vie reli­gieuse, bien qu’il soit rare dans sa pure expres­sion. Je veux l’appeler re­ligiosité cosmique. Il est difficile de la rendre intelligible à qui n’en sait rien, d’autant plus qu’aucune idée d’un Dieu ana­logue à l’humanité n’y correspond. L’individu res­sent l’inanité des désirs et des objectifs humains et la sublimité de l’ordre admirable qui se manifeste dans la nature ainsi que dans le monde de la pen­sée. L’existence lui donne l’im­pression d’une es­pèce de prison et il veut éprouver la totalité de l’existence cosmique comme une unité pleine de sens. (...) Les génies religieux de tous les temps se sont distingués par cette religiosité cosmique qui ne connaît ni dogmes, ni Dieu conçu à l’image de l’homme. ».

 

« Comment la religiosité cosmique peut-elle se communi­quer d’homme à homme, puisqu’elle ne peut conduire à au­cune notion déterminée de Dieu ni à aucune théologie ? Il me semble que c’est la fonction la plus importante de l’art et de la science d’éveiller et de maintenir vivace ce sentiment par­mi ceux qui en sont susceptibles. ». 

Après ces surprenantes citations d’Einstein, je me propose d’exposer l’essentiel de la pensée d’un autre physicien, un personnage étonnant nommé Jean Charon, que ses lecteurs appelaient parfois « l’Ein­stein français de la physique de l’esprit ». Ray­mond Ruyer, dans la revue Question de jan­vier / février 1978 disait d’ailleurs que Jean Emile Cha­ron, mort en 1998, était, dans la continuation d’Einstein, le pre­mier physicien à avoir démontré - en théorie du moins - l’existence de l’esprit par la Physique.

 

Charon cherchait à prolonger les idées d’Einstein vers ce qu’on appelle maintenant une « théorie de grande unifica­tion », dont l’objectif est de décou­vrir un formalisme global et cohérent pour la re­présentation de tous les phénomènes physiques, des parti­cules au cosmos entier. Il proposait, en 1977, dans sa « Relativité com­plexe », un tel for­malisme unificateur. Cette théo­rie remarquable n’unifiait pas seule­ment  les phé­nomènes dits « ob­servables » (ceux de la phy­sique tradition­nelle), mais elle s’élargissait à la représenta­tion d’un es­pace « invisible »,  caractérisé par des pro­priétés très proches de celles associées au fonc­tionnement de l’Es­prit (propriétés dites  néguen­tropiques).

Ce que montrait « La Relativité complexe », de Jean Cha­ron, c’est qu’une théorie de « grande uni­fication » ne saurait être sans qu’y soit incluse l’existence de l’Esprit, ce conte­nant de tous les phé­nomènes qu’il unit précisément parce qu’il les contient tous.  Sans rejeter le probabilisme, il dési­rait l’englober dans une description plus générale mais aussi plus complète des phénomènes.

Si l’on veut faire inter­venir l’idée de deux es­paces, l’un ob­servable et l’autre adjacents mais in­visible, dans la représen­tation des phénomènes physiques, il faut d’abord en suppo­ser l’existence, et cela signifie en Phy­sique leur appor­ter des axes de référence qui per­mettront de localiser les points si­tués dans l’invi­sible, et aussi exprimer les quali­tés de l’es­pace en ces points.

C’est ce qu’a fait la Relativité complexe : elle a d’abord ad­mis l’existence de cet espace inobser­vable côtoyant partout l’espace observable, et elle a prolongé la Relativité générale d’Einstein en la développant dans un tel double espace, compre­nant un dehors observable et un dedans de nature différente, caractérisé notamment par son invisibi­lité. Le mot « invisibilité » doit être pris ici dans son sens large: quand nous parlons d’un espace in­visible, nous pensons à un espace qui, par nature, ne peut adresser directement à l’ob­servateur que nous sommes aucune information susceptible d’être captée par ses organes des sens, même si ces organes sont aidés par les meilleurs instru­ments de détection de la technique actuelle ou à venir. Par définition, et par nature, cet espace est complète­ment invisible, car indétectable et inac­cessible.

« La Relativité, (disait Jean Charon, en parlant de celle d’Einstein), tendait en quelque sorte la perche au chercheur physicien pour étendre de cette manière l’espace des phéno­mènes à une ré­gion « invisible ». Einstein avait en effet déjà ad­mis, dans ses deux premières versions de la Rela­tivité (restreinte et générale), que le temps pouvait être considéré comme une dimension imaginaire d’espace, le mot « imagi­naire » devant être pris dans son sens mathématique, qui permet de distin­guer sans ambiguïté une dimension imagi­naire d’une dimension réelle. Mais ceci introduisait une sorte de dissymétrie entre l’espace et le temps, fai­sant de l’espace un milieu réel et du temps un mi­lieu imaginaire. »

« La Relativité complexe va réintroduire la symé­trie totale de l’espace et du temps (et c’est là, en fait, la troisième « ré­volution » que nous avons annoncée sur la nature de l’es­pace et du temps: L’espace comme le temps sont des dimen­sions à la fois réelles et imaginaires, ce sont ce que les ma­thématiciens nomment des « dimensions com­plexes ». L’es­pace temps de notre Univers est donc bien, comme en relati­vité d’Einstein, à quatre dimensions, trois d’espace, et une de temps ; mais ces quatre dimensions doivent être suppo­sées complexes, au moins si on veut décrire complète­ment les phénomènes faisant l’objet du probabi­lisme. D’où le nom de Relativité com­plexe.

En clair, cela veut dire que l’on admet au départ que les phé­nomènes de la Nature ne se déroulent pas uni­quement dans l’espace observable qui était ce­lui de la Relativité générale, mais qu’elles se manifestent aussi dans un es­pace invisible par nature (avec le sens donné ci-dessus au mot invi­sible), ce nouvel espace invi­sible côtoyant partout l’espace obser­vable. ».

Jean Charon, à la fois physicien et philosophe, a construit une grande partie de sa théorie sur les analogies constatées entre les trous noirs et les  électrons. Il a donc élaboré son propre concept des propriétés ca­chées de l’électron, à partir de l’as­pect fractal de l’univers. Le modèle (dépassé) de l’atome de  Ru­therford avec son noyau central analogue au soleil et ses électrons tournant comme des planètes au­tour de ce noyau l’a incité à cher­cher dans l’es­pace de quoi sou­tenir sa pen­sée.

 

On y avait décou­vert des étoiles très denses et en pul­sation, les pul­sars. Leur étude avait conduit à des « modèles » de nucléons, noyaux atomique cen­traux qui, à leur échelle, sont aussi des objets (sphériques  ?) en pulsation avec une densi­té ana­logue à celle des pulsars.

Une caractéristique essentielle des électrons est le fait qu’ils possèdent une masse non nulle mais des dimensions géomé­triques nulles, ce qui conduit à les assimiler à des points ma­thématiques, de vo­lume nul. L’électron traverse les nucléons sans su­bir d’interactions fortes ; ils passent donc au tra­vers de la matière comme un projectile sans vo­lume. Cependant, la logique nous conduit à refu­ser d’accep­ter qu’une masse non nulle soit conte­nue dans un volume nul, et l’on est donc amené à penser que le volume de l’élec­tron se dissimulerait « en dehors » de l’espace ordinaire, dans un es­pace sé­paré mais restant relié  au reste par un seul point de contact.

 

Notre univers aurait donc alors un « dehors » dans le­quel se­rait logé le volume de l’électron qui n’au­rait plus alors qu’un point (mathématique) de contact avec le « dedans » ordinaire, seul espace  accessible aux organes des sens. On re­joint ici, me semble-t-il, le concept des branes extérieurs de la théorie des multi univers.

 

Y aurait-il, se disait donc Jean Charon, dans le cosmos, des objets qui ressembleraient aux élec­trons, et nous aideraient à mieux les comprendre ? La ré­ponse scientifique est affirma­tive : ces objets ont été baptisés « trous noirs ». 

 

Un trou noir est la dernière étape de la mort d’une étoile. Quand elle a brûlé tout son combustible, elle se refroidit et les forces de la gravitation, qui attirent la matière vers le centre, ne sont plus com­pensées par la pression de dilatation  des gaz en transmutation. L’étoile se contracte donc de plus en plus, et sa matière devient simultanément de plus en plus dense. Au stade final, la contraction deviendra telle que l’es­pace va « se refermer » complètement autour de l’étoile. En se contrac­tant, l’étoile mourante va provoquer une annexe étrange, comme une poche enfermée dans notre espace ordi­naire. Et cela constitue un véritable « dehors » de notre es­pace observable, n’ayant plus aussi avec celui-ci qu’un seul point de contact.

 

C’est cette « annexe », située hors de notre espace ordinaire, que l’on appelle un « trou noir ». Le trou noir est comme ex­tirpé de notre univers, et forme un espace particulier dans le­quel le temps et l’espace échangent leurs rôles. Le temps y est in­versé, et il y a néguen­tropie ». (NDRL - L’entro­pie (ou désordre) est  une propriété de l’univers toujours croissante. Le désordre s’accroît indéfini­ment en engendrant une uni­formité de plus en plus générale. ).

 

Les physiciens pensent donc que dans un trou noir, les pro­priétés de l’univers sont inversées, le temps s’écoulerait à l’envers, et l’ordre de la ma­tière et de l’information croîtrait au lieu de se dé­grader.

L’espace est plus complexe que l’on l’avait  long­temps cru. Il possède bien évidemment un « de­dans » accessible à nos sens, mais il a aussi un « dehors », (au moins localement), où peuvent se trouver des objets « pratiquement invisibles » qui peuvent avoir une influence plus ou moins percep­tible sur notre espace obser­vable.

 

On peut alors lo­giquement penser que, si l’on at­tribue à l’électron un volume nul en l’observant directe­ment, c’est parce qu’il développe ses di­mensions non pas dans l’espace observable mais dans le « dehors » de cet espace. « Il fau­drait, di­sait Jean Charon, partir de cette idée que l’électron est un micro trou noir, un mi­cro univers fermé, en pulsation cy­clique. L’une de ses  caractéristiques serait de re­monter le cours du temps avec en parti­culier des qualités néguentro­piques. ».

«  Tout comme les trous noirs, les électrons ont leur espace propre, et ils sont capables de mémori­ser les informations reçues, de les ordonner et d’acquérir de plus en plus de conscience. ».

Les électrons ne vivent pas le temps d’une façon compa­rable à celui qui règle nos vies, mais ils se tiennent dans le temps à l’échelle de l’infini. Selon Jean Charon, depuis la naissance de l’Univers, les électrons ont donc acquis une ex­périence qui est celle du vivant depuis le commencement de la vie. Ils sont donc appelés à connaître des états et des ni­veaux de conscience de plus en plus élevés. La vie infinie de l’électron est la base sur laquelle re­pose la spiritualité et l’immortalité universelles.

Les études les plus récentes de physique théorique ont mon­tré que l’on pouvait proposer un « modèle » rendant compte de manière satisfaisante des ob­servations relatives à l’élec­tron en l’assimilant à un micro trou noir.

 

Et les propriétés dé­couvertes pour les trous noirs, que ceux-ci soient ou non ob­servés, seraient donc valables pour l’élec­tron mi­cro trou noir, dont on est maintenant pratique­ment certain de l’exis­tence. Voyons donc ce que se­raient les pro­priétés de l’espace et du temps dans ce « dehors » de notre Univers où se trouveraient les électrons et les trous noirs.

 

L’espace et le temps semblent échanger leurs rôles, dit-on, quand on passe du de­dans au dehors de l’es­pace observable. Dans ce dehors étrange, c’est l’espace qui « coule » continû­ment, comme le fait ici notre temps habituel. Dans ce même de­hors in­connu,  on « se déplacerait » dans le temps, al­lant même éventuellement vers des événements pas­sés, tout  comme on peut choisir différentes di­rections dans notre es­pace ordinaire.

 

Á l’inté­rieur d’un trou noir, ou d’un électron, un voyageur hypothétique verrait cycliquement défi­ler toutes les informa­tions contenues dans cet es­pace, et y aurait accès comme nous avons accès aux informations mémorisées dans notre Esprit. Dans les trous noirs, (et aussi dans les électrons), les lois de la physique s’écriraient donc en inver­sant le signe du temps. Nous savons que, dans notre es­pace, les choses évoluent toujours en se dégradant, sauf quand l’Esprit intervient pour y remettre de l’ordre, (c’est le principe bien établi de l’entropie crois­sante).

 

Mais dans l’espace intérieur aux trous noirs ou aux  élec­trons, l’évolution cyclique conduit à « or­donner » toujours plus les informa­tions les unes par rapport aux autres (prin­cipe co­rollaire de la néguen­tropie croissante). Les pro­priétés de re-mé­morisation de ces es­paces particu­liers dans ces « dehors » de notre espace ordinaire seraient exacte­ment celles qu’on pourrait espérer d’un espace ou se tiendrait l’Esprit.

 

Or, dit Jean Charon, ces pro­priétés si particulières sont pré­cisément celles de cet espace interne qu’enferme en elles les parti­cules présentes en abondance dans le minéral, dans le végé­tal, dans l’animal et dans l’humain : les électrons.

 

Comme tous les corps matériels, biologiques  ou pas, notre corps contient par milliards de milliards des élec­trons assi­milables à des mi­cro trous noirs. Ils auraient donc, notam­ment, la possi­bilité de mé­moriser et ordonner tou­jours plus, au cours de leur vie quasi-éternelle, les infor­mations reçues du monde extérieur.

 

En effet, les électrons, possèderaient aussi un « dedans », et non pas seulement un dehors, défini par leurs propriétés physiques. Leur « dedans », serait caractérisé par des pro­priétés spirituelles, et pour­rait être porteur de l’Esprit. Et, puisque les in­formations mémorisées par l’électron ne peuvent ja­mais se perdre,  (Comme la lumière enfer­mée dans un trou noir ne se perd jamais), le niveau de conscience de cet Esprit s’élève sans cesse.

 

Peut–on pour autant dire que « notre » Esprit (per­sonnel), tel que nous le connaissons chez l’homme, est l’Es­prit contenu dans certains, sinon dans tous les électrons de notre corps ?

On peut assez facilement accepter l’idée que si nous avons en nous des électrons porteurs d’Es­prit, il est fort probable que ce que nous nommons « notre Esprit » soit globalement constitué de l’Esprit des électrons de notre corps, sans que nous ayons donc à le chercher ailleurs.

 

Mais il nous faut alors accepter toutes les consé­quences de cette hypothèse, et ad­mettre que l’aventure de l’Uni­vers est avant tout l’aventure spirituelle des élec­trons, et non plus celle des  ma­chines minérales, végétales, animales, ou hu­maines auxquelles les électrons participent après les avoir « inventées. Ce sont ces particules por­teuses d’es­prit que Jean Charon ap­pelle éons, un terme utilisé par les gnos­tiques du premier siècle de notre ère. L’éon réunit les pro­priétés phy­siques et les pro­priétés spiri­tuelles de la particule que les physi­ciens nomment actuelle­ment électron.

 

La démarche consistant à ne plus séparer la ma­tière et l’es­prit dans l’approche scientifique de l’Univers est apparue à Princeton et Pasadena, aux USA, vers les années 1970. D’éminents physi­ciens en étaient à l’origine. Ils ont été re­joints de­puis par des biolo­gistes, des médecins, des psy­chologues, puis par des théologiens.

 

La pensée des néo-gnostiques de Princeton est que ce que nous nom­mons « Esprit » est indissociable des autres phéno­mènes, physiques ou psychiques, de l’Univers. Il convient cependant, pour être co­hérent, de le décrire en termes scien­tifiques, en y adaptant le langage de la science.

 

Pour pouvoir dé­crire l’Esprit en tant que phéno­mène scienti­fique, les néo-gnos­tiques re­fusent d’emblée de placer l’homme à la base de la pen­sée. Selon eux, il existerait, par­tout dans l’Uni­vers, une réalité pro­fonde capable d’engen­drer la pensée de la même façon qu’un électron fait naître un champ électrique ou ma­gnétique autour de lui, dans l’es­pace. La pensée est donc par­tout pré­sente, aussi bien dans le miné­ral, le végé­tal ou l’animal que dans l’homme.

 

L’at­titude néo-gnostique, en axant toute l’aventure spiri­tuelle de l’Univers sur un « immense peuple d’éons », non pas autour de l’homme, n’en  conclut pas que l’homme soit spirituellement as­servi par ce peuple des éons. Ce ne sont pas les éons qui « pilotent » mon esprit, car « Je » suis ces éons eux-mêmes, et ce « Je », qui est ma per­sonne est  pré­sent dans chacun de ces éons.

 

Notre personne participe ainsi directement à toute l’aventure spirituelle du monde, depuis l’origine de notre Univers, il y a quelque quinze milliards d’années, et qui se termi­nera si l’Univers doit finir un jour. (Jean Charon – J’ai vécu quinze milliards d’années).

 

Selon Jean Charon, l’esprit est né dès les premiers ins­tants du big bang, et a donc très largement pré­cédé l’apparition du premier neurone.  L’éon est l’esprit de ou dans l’électron. Comme un trou noir, l’électron est un univers en soi, inaltér­é, fer­mé, où, en principe, rien ne rentre ni sort. Com­ment l’élec­tron peut-il alors produire ce que nous appe­lons la Création ? Par le pouvoir d’un esprit qui puisse agir au ni­veau de l’électron, répond Charon. Et cet esprit immatériel agit sur un élec­tron maté­riel en se comportant lui-même en  élec­tron ! Il ne parle pas alors d’un électron solide ou maté­riel, mais d’un corps éthérique, qui par pro­jection vir­tuelle (télépathique) entre en contact avec un autre électron, pour produire un effet sur la matière. (Nous développerons cela un peu plus loin).

Ce pouvoir de l’esprit, infiniment petit et ignoré par la phy­sique traditionnelle, est pour Jean Cha­ron l’em­bryon de toute conscience. C’est ce qu’il a baptisé « éon ». Ces éons, projections inversées im­matérielles des électrons matériels, conservent la totalité des informations reçues télépathique­ment d’un autre éon. Chaque éon garde intacte sa propre mé­moire et son propre « spin » (paramètres de rota­tion), mais emmagasine aussi la mémoire et le spin de l’autre. Ainsi chaque éon crée sans cesse des configurations mieux ordonnées plus propices à la vie consciente.

Notre esprit humain est fait d’un océan d’éons, in­décelables depuis notre di­mension, qui semblent tous mus par un désir de vie consciente. Selon Charon, seuls les éons ont pu pro­voquer, par psy­chokinésie et à travers à un nombre immense de tentatives, les réactions électrochimiques indis­pensables à l’avè­nement de la première cellule vi­vante. Depuis cette époque, récente pour eux, chaque éon perfectionne les « vé­hicules » que sont tous les vivants terrestres, (et peut être même ex­traterrestres).

Depuis ces premières heures du monde les éons auraient ain­si, progressivement, accumulé et or­donné l’infor­mation. Ils auraient in­venté des ma­chines orga­niques que l’on ap­pelle l’ADN, les vi­rus, la cel­lule, le végétal, l’animal, et l’humain. Et ils conti­nuent. Les éons ont le temps total pour eux, et puisque leur durée de vie est illi­mitée, ils ont aussi préparé la défaite de la mort qu’ils ont inventée. (Jean Cha­ron - Mort ! Voici ta défaite).

L’espace du monde électronique est fait de ma­tière très dense, et il est rempli d’une « lumière » à très haute tempé­rature (de l’ordre de mille mil­liards de degrés). Ces chiffres, sont ceux des cos­mologies de la Relativité géné­rale. Ils caractéri­saient notre Univers observable autour des ins­tants de sa nais­sance.

« Aucun physicien ordinaire ne sera étonné d’ap­prendre que l’univers-trou éonique renferme des photons de lu­mière et des neutrinos : ils avaient déjà été re­connus dans les proprié­tés physiques de l’électron, et les nommées respectivement interac­tions élec­tromagnétiques et in­teractions faibles. Mais on avait jus­qu’ici considéré que lumière et neutrinos interve­naient seulement de manière « passive », un peu au hasard, quand les électrons interagissaient avec leur milieu exté­rieur. ».

Les photons composant le gaz de lumière enfermé dans le corps de l’électron (ce que les physiciens nomment un rayonnement noir) ne peuvent pas sortir de l’électron, puisque cette particule possède un espace clos, refermé sur lui-même, d’où rien ne peut sortir, et dans lequel d’ailleurs rien ne peut entrer non plus. C’est bien ceci qui nous fait dire que l’électron est un véritable univers en soi, un uni­vers-trou.

L’électron peut néanmoins communiquer avec les mondes autres que le sien propre. Les physiciens diront qu’il s’agit d’une communication (ou une in­teraction) « virtuelle ». Quand un électron com­munique avec le monde extérieur (notre Uni­vers ordinaire), il n’y a en effet aucun  message qui transite du monde électronique vers l’Univers ob­servable ; mais si un photon du monde électro­nique change sou­dain de sens, alors il faut qu’un photon du monde exté­rieur observable vienne exactement « compenser» ce qui a eu lieu dans l’électron, et un photon du monde ex­térieur chan­gera donc lui aussi de sens.

(NDRL -Nous avons antérieurement vu cette pro­priété des parti­cules corrélées. Jean Charon pos­tule ici que toutes les particules ont une jumelle corrélée.).

C’est le gaz de lumière qu’enferme l’électron qui va être le support de toutes les interactions psy­chiques de cette parti­cule. Nous venons de voir comment les photons de ce gaz de lumière per­mettaient des communications « virtuelles » avec le monde extérieur, par échange virtuel d’impul­sions entre un photon du monde électronique et un photon du monde extérieur. Nous ne parlons ce­pendant ici que d’une propriété physique, tout comme l’in­teraction entre deux élec­trons qui se re­poussent (p.ex. interaction électrosta­tique).

Mais les interactions « psychiques » sont d’un autre ordre. Nous savons que la lumière enfermée dans l’électron diffère de la lumière ordinaire, car elle est enfermée dans un espace où l’évolution est néguentropique,  (et non pas entropique comme dans l’espace observable). La lumière peut ici  s’or­ganiser sans cesse, (comme la lumière noumé­nale de New­ton ou celle des alchimistes).

Jean Charon explique comment cette lumière nou­méale peut le faire. Ces photons, dit-il, vont pou­voir accroître leur spin. Alors que ceux du monde observable demeurent invariable­ment au spin le plus bas, (le spin 1, dans l’électron), les pho­tons vont ici pouvoir élever leur spin, par échanges vir­tuels avec le milieu extérieur.

Les photons du corps électronique vont ainsi pou­voir monter aux spins 2, 3, etc, indéfiniment. Cette éléva­tion de spin cor­respond à une élévation de l’action (au sens de la Physique) associée à l’électron et c’est cette ac­tion totale qui, précisé­ment, va per­mettre à son tour de définir le niveau de né­guentropie de chaque électron, considéré in­dividuellement.

Le principe de néguentropie non décroissante ca­ractérisant l’espace invisible de l’électron fait que le niveau d’action des photons de l’électron ne peut pas diminuer, et c’est ce phénomène de né­guentropie non décroissante qui va être le princi­pal méca­nisme de l’électron pour exercer ses pro­priétés psychiques, notamment ses propriétés de mémori­sation et de réflexion.

La mémorisation consisterait donc en une éléva­tion du spin de certains des photons constituant la lumière nouménale enfer­mée dans l’univers-trou éonique. L’élévation du ni­veau psychique est l’ac­croissement de néguentro­pie qui survient quand, au cours de ces élévations de spins des photons « nouménaux », l’action (au sens de la Physique) du gaz nou­ménal s’élève dans le corps éonique.

Chaque éon possède des milliards de ces informa­tions élé­mentaires mémorisées par le spin des photons indi­viduels de sa lumière nouménale. Et dès que l’on considère un orga­nisme un peu com­plexe, une cellule vivante par exemple, ce sont aussi naturellement des milliards d’éons qui vont parti­ciper au fonctionnement de la cellule, grâce à l’apport de leurs qualités psy­chiques indivi­duelles Les informations ain­si stockées par nos propres éons se rappor­tant à leur vie vé­cue avant notre naissance consti­tuent notre inconscient. Cer­taines données de notre inconscient remontent parfois, de manière symbolique, jusqu’à notre conscient (c’est-à-dire qu’elles sont partagées et mises en commun par nos éons). Cette « voix intérieure », provenant du plus profond de nous, peut aussi nous trans­mettre des fragments d’une vie vécue antérieure s’étalant sur un passé de millions d’an­nées. Elle pourrait être la source de la sagesse na­turelle et de la connaissance intuitive.

Et puis, bien sûr, il y a cette conséquence qui nous intéresse tous, car elle répond à notre angoisse la plus authentique, celle de notre propre Mort : notre vie spirituelle ne se termi­nerait pas avec notre mort corporelle, puisque nos éons sont par mil­liards de milliards  à emporter avec eux, quand notre corps sera retourné à la poussière, notre Moi com­plet, c’est-à-dire la totalité des souvenirs ac­cumulés pendant notre vie terrestre, ces souvenirs qui forment notre Conscient. Jusqu’à la fin des temps.

Et voici que le Trickster sourit !

 

En effet, des chercheurs seraient parvenus à sec­tionner un électron en deux quasi particules en 1996, puis en trois en 2012, se déplaçant toutes trois à différentes vitesses et dans différentes di­rections dans la matière.

Les électrons isolés ne peuvent pas être divisés en éléments plus petits, c’est la propriété des parti­cules fondamentales. Mais, dans les années 1980, des physiciens ont prédit que les électrons d’une chaîne unidimensionnelle d’atomes pourraient ce­pendant être divisés en trois quasi particules, à sa­voir : un «holon» portant la charge de l’électron, un «spi­non» portant son spin (une propriété quan­tique intrinsèque liée au magnétisme) et un «orbi­ton» portant son localisation orbitale.

« Ces quasi particules pourraient se déplacer dans la ma­tière, avec des vitesses différentes et même dans des direc­tions différentes», explique Jeroen van den Brink, un physi­cien de la matière dense à l’Institut de Physique théorique de Dresde. Les électrons atomiques ont cette capacité parce qu’ils se comportent comme des vagues lorsqu’ils sont confinés dans un matériau. Dans cet état, la vague se divise en plusieurs vagues, portant chacune des caractéristiques différentes de l’électron; mais ils ne le peuvent pas indépen­damment à l’extérieur du matériau », explique t-il.

 

En 1996, les physiciens ont réussi à séparer un électron en un holon et un spinon. Actuellement, Van den Brink et ses collègues ont cassé un élec­tron en un orbiton et un spinon, tel que rapporté dans la revue Nature. L’équipe a créé les quasi particules en tirant un faisceau de photons de rayons X sur un seul électron dans un échantillon unidimensionnel de cuprate de strontium. « La prochaine étape sera de produire le holon, le spi­non et l’orbiton en même temps», dit van den Brink ».

Andrew Boothroyd, physicien à l’Université d’Ox­ford, Royaume-Uni, a salué les prouesses techno­logiques de l’équipe, mais d’autres interve­nants ont cependant fait d’in­téressantes re­marques.

A la question : Quelle est précisément la significa­tion phy­sique de cette expérience ? Le professeur Claessen de la Wuerzburg Universitae répond par une intéressante analogie avec des bulles dans une coupe de champagne. La scission apparente de l’électron en différentes parties n’est pas réelle, dit-il, mais c’est un effet coordonné de tous les électrons dans le solide mis expérimenté.

Il faut commencer par introduite le concept de la masse électronique effective. Dans un solide, la masse de l’électron peut fortement différer de celle d’un électron libre (à savoir, dans le vide).

Selon la mécanique quantique un électron est une onde qui peut se propager librement dans le vide, mais, dans un so­lide, elle est diffractée par le ré­seau des ions chargés positi­vement, comme la lu­mière est diffractée par un réseau op­tique. Il en ré­sulte des effets d’interférence qui modifient forte­ment la relation entre la longueur d’onde de dis­persion d’électrons et la fréquence (ou de ma­nière équivalente, l’impulsion et l’énergie).

La masse effective, qui est essentiellement la déri­vée se­conde inverse de la relation de dispersion, décrit l’inertie de l’électron contre des champs ex­térieurs ou des forces en pré­sence du réseau cris­tallin, qui diffère alors généralement de celle d’un électron libre. Cette re-normalisation de masse peut aller de 1/10 d’une masse d’électrons libres (m0) dans les semi conducteurs typiques jusqu’à 1000 x m0 dans des composés fermions lourds.

Il faut aussi savoir que les nombreux électrons d’un solide peuvent coopérer de telle sorte que leur comportement col­lectif peut être décrit par l’émergence d’une nouvelle (quasi) particule. Un exemple évident est la notion d’un «trou» (ou un défaut électronique) dans les semi conducteurs qui se comportent comme si les particules chargées positivement se déplaçaient à travers le solide et transportaient un cou­rant.

Ce qui se passe réellement est comparable au comportement d’une bulle dans un verre de cham­pagne. Dans le cham­pagne, ce n’est pas vraiment la bulle qui se dé­place, mais plutôt le mouvement des molécules autour d’elle qui donne cette appa­rence de mouvement.

Le fractionnement d’un électron en orbitons et spi­nons dans un solide est un phénomène très si­milaire. L’interaction de Coulomb forte entre les électrons chargés conduit à un état fortement cor­rélé mécanique quantique de tous les électrons de conduction dans le solide, qui donne l’impression que le spin et les degrés de liberté orbitaux se meuvent séparément avec des vitesses différentes.

Cela n’est pas vraiment le fractionnement d’un électron in­dividuel, mais un effet émergent résul­tant de la coopération de tous les électrons. Ces effets qui se produisent fréquem­ment dans les ma­tériaux avec des électrons, lorsque l’inter­action de Coulomb est particulièrement impor­tante, consti­tuent un domaine de recherche fasci­nant, tant du point de vue de la physique fonda­mentale, ainsi que pour des appli­cations poten­tielles dans la mi­croélectronique à venir.

Par contre, un autre intervenant est beaucoup plus intuitif. « Dans chaque particule que l’on arrive à diviser, dit-il, il doit y avoir des particules plus pe­tites, et encore plus pe­tites, et cela à chaque ni­veau jusqu’à ce que, finalement, il n’y ait plus rien.

L’humanité a une intelligence finie, ce qui im­plique une ca­pacité limitée à comprendre. Tout ce que nous examinons dans notre environnement se réduit à des entrées sensorielles qui traversent notre système nerveux et finissent dans un appa­reil cérébral.

C’est notre cerveau qui crée la repré­sentation du monde. Cela se produit quelque part dans l’obscu­rité du crâne. Notre monde, apparem­ment solide, n’est rien de plus, (ou rien de moins), que la per­ception d’un être holographique exponentielle­ment bien plus grand que tout ce que l’homme peut concevoir. En fait, il n’y a probable­ment pas d’uni­vers, au sens que nous donnons à ce mot. ».

 

Et rien d’autre, peut-être !

Que le sourire ambigu du Trickster.

 

 

 

 

 

 

10 Les mystères du macro univers

Nous allons maintenant quiter les concepts relati­vement complexes de Jean Charron et revenir aux idées tout aussi étranges des astrophysiciens ac­tuels. Nous allons donc aban­donner les instru­ments so­phistiqués et parfois gigantesques qui scrutent l’infiniment petit, et nous allons braquer d’autres   moyens tout aussi énormes vers l’im­mensité com­plexe du cosmos.

 

Comme je l’ai dit au chapitre premier, j’ai beau­coup cherché mais je n’ai trouvé au­cune image qui permette de représen­ter l’étendue de l’univers et les distances im­menses qui sé­parent les galaxies les une des autres. La di­mension de l’uni­vers ob­servable, exprimée en kilomètres, s’écrit avec 24 zé­ros. (Et notez bien ici qu’il ne s’agit que de la partie obser­vable de l’Univers). Il n’y a que la re­présentation mathéma­tique qui puisse l’exprimer, mais c’est une abstraction qui ne parle absolument pas à l’imagina­tion ordinaire. J’ai égale­ment cité Krisnamurti qui posait le problème en forme de question et qui pensait qu’on ne pouvait pas y ré­pondre po­sitivement.

« Le cer­veau humain, disait-il, peut-il com­prendre la véri­table di­mension de l’espace ? ».

Un premier mystère apparaît immédiatement à nos yeux, (en tous cas aux miens). Comment un uni­vers apparemment im­mense peut-il être constitué de sous particules géométrique­ment sans dimen­sion ? La réponse nous a été donnée : Les champs sont la seule réalité. Ils n’ont pas non plus de di­mension géométrique même si leurs propriétés peuvent être exprimées sous une forme mathéma­tique ; et il faut donc en tirer toutes les consé­quences dans notre conception de la matière.

La matière se définit par un équilibre temporaire­ment locali­sé de champs de forces en interaction. Divers facteurs inter­viennent pour permettre le prolongement momentané de cet équilibre tou­jours fragile dont nous savons qu’il sera un jour rompu.

Concernant le macro univers cosmique, les quatre forces qui en ont permis la naissance à l’origine demeurent encore et toujours en interactions au­jourd’hui. L’influence de la plus puissante en étendue, la gravitation, continue et continuera à concerner tous les constituants du cosmos, quelles que soient ses dimensions futures, et elle détermi­nera donc son devenir ultime. Et, en effet, la gra­vitation est déjà pratique­ment le facteur détermi­nant  de la structure cosmique ac­tuelle.      

 En effet, les constituants matériels qui appa­raissent comme les plus essentiels du cosmos sont les étoiles. Et qu’est ce que c’est une étoile ?

Je ne vais pas reprendre ici tout ce que j’ai exposé au début du livre et je ne reviendrai donc que sur l’essentiel. « Une étoile se présente comme un im­mense globe de gaz chaud », dit Jean-Paul Zahn. « Elle se dis­tingue par sa source d’éner­gie interne de fu­sion thermonucléaire à l’œuvre dans son cœur ». Ces réactions proviennent essentiellement de la trans­mutation des atomes d’hydrogène qui consti­tuent la matière originelle de l’univers. Car l’hy­drogène est le plus simple de tous les élé­ments, et ce sont les forces de gravita­tion qui ont constitué les étoiles en attirant les uns vers les autres ces atomes d’hydrogène originels.

                                                              

La structure d’une étoile résulte de l’équilibre dé­licat établi entre deux forces concurrentes : D’une part, la pression in­terne provenant de la chaleur des réactions nucléaires in­ternes qui la dilate ; d’autre part, la gravité qui la contracte. L’équilibre se maintient tant que la chaleur contrebalance la gravité, mais, inévitablement, par l’effet du rayon­nement, une partie de la chaleur fuit vers l’exté­rieur. La matière en­vironnante gêne cet effet et les photons ne s’échappent que relativement lente­ment ; le temps passe et les étoiles brillent. Mais dans les  instruments des astronomes, elles ont des couleurs différentes. L’équilibre des forces en ac­tion reste longtemps assez stable, car, quand les réactions de fusions croissent, le dia­mètre grandit et la pression faiblit.

Cependant, lorsque l’hydrogène originel vient à manquer et que les ré­actions de fusion s’éteignent, la température de l’atmosphère stellaire baisse, la gravité contracte encore le cœur tandis que l’at­mosphère se dilate, et l’équilibre se mo­difie avec des consé­quences qui dépendent de la taille de l’étoile. Pour les étoiles plus petites que notre So­leil, et ori­ginellement assez jaunes, la combustion de l’hy­drogène se poursuit dans une mince zone autour du cœur, et l’étoile de­vient temporairement ce qu’on ap­pelle une géante rouge.

Un équilibre différent s’y installe : La température du coeur remonte jusqu’à 100 mil­lions de degrés, puis une nouvelle réaction s’amorce : L’hélium transmute violemment en car­bone et oxygène et les dimensions de l’astre enflent énormé­ment.  De­venant instable et variable, l’astre souffle son at­mosphère dans l’espace puis se transforme en né­buleuse pla­nétaire. Pour les étoiles moyennes, approchant la taille du  Soleil,  un cœur incandes­cent sub­siste cependant au centre. Cette naine blanche va encore luire des milliards d’années avant de s’éteindre pour deve­nir une naine noire invisible à nos yeux. Elle ne rayonnera plus, mais restera tout aussi  dense. Sur le plan gravifique, elle est pour toujours une étoile et son destin n’est pas clos.

Mais que se passe-t-il pour les étoiles plus grosses. Souve­nons nous qu’à l’origine, comme je l’ai ex­posé au premier chapitre, l’univers ne contenait que des atomes froids d’hy­drogène et d’hélium (3/4 et ¼. C’est ce que l’on a appelé la matière noire. La gra­vitation l’a progressivement rassem­blée en im­menses nuages formant ainsi les pré­misses des ga­laxies. Les gaz se sont  concen­trés en nombreux amas lo­caux et, sous la pression, ces gaz se sont réchauffés. Les pre­mières étoiles sont apparues lorsque la fusion thermonu­cléaire s’est allumée en leur sein. Aux premiers temps, elles se sont im­mensément dilatées, jusqu’à mille fois plus que le Soleil,  puis elles ont explosé.

Or, de nombreuses transmutations advenues dans ces étoiles avaient produit de nouveaux atomes chimiques ; le carbone, l’azote, l’oxygène, le sili­cium, et surtout le fer, et ils ont aussi été dispersés dans l’espace. Puis, la gravitation a pour­suivi son œuvre, rassemblant de nouveau tous les produits éparpillés un peu aléatoirement, et le même phé­nomène s’est répété depuis, enrichissant progres­sivement le contenu, jusqu’à former toutes les étoiles du ciel. 

Nous avons vu que celles qui ressemblent au So­leil se trans­forment finalement en naines blanches puis noires. Les étoiles plus massives sont aussi les plus chaudes. Elles évoluent en devenant d’abord des géantes bleues. Elles ne peuvent pas finir en naines blanches car leur cœur résiduel franchirait alors la limite dite de Chandrasekhar, (1,44 masse solaire), et s’effondrerait sous son propre poids. En théorie et finalement, au cœur d’une étoile ayant une masse initiale comprise entre 8 et 25 fois celle du Soleil, un nouvel état, extrêmement comprimé de la matière, apparaît. Le cœur est alors écrasé, et les électrons pé­nètrent les protons en les convertissant  en neu­trons. Une transmutation inconnue se produit et l’astre flamboie alors temporairement en su­pernova puis devient un minuscule et assez mystérieux objet  hyperdense : une étoile à neutrons. Sa densité est inouïe, (de l’ordre de 1000 mil­liards de tonnes au dm3).

Certaines étoiles à neutrons deviennent des ‘pul­sars’. Outre leur densité, leur particularité, c’est la puissance énorme de leur champ magnétique. Composées essentiellement de neu­trons, ces étoiles possèdent un champ magnétique gigan­tesque provocant des émissions  d’ondes et de ma­tière aux pôles de leur axe magnétique. Les pul­sars tournent à de très grandes vitesses, (jus­qu’à 1000 tours/ seconde), et leur axe de rotation peut différer de leur axe magnétique. Ces fais­ceaux sont donc émis et reçus périodiquement dans des di­rections données de l’espace. Nous les perce­vons sur Terre comme des pulsations d’où le nom donné à ces astres.  

Cepen­dant, les astrophysiciens sont convaincus qu’un autre sort attend les énormes étoiles dont la masse originelle dé­passait une autre limite, à l’en­tour de 25 masses solaires en-deça de laquelle, la pression subie par les neutrons parvient à résister au poids de l’astre  qui demeure stable. L’actuelle théorie actuelle postule que la force du champ gra­vifique surpasse alors les trois autres forces : Il dé­montre là qu’il demeure effectivement la seule réalité. La gravité  provo­que l’effondrement sou­dain de l’astre. Toute sa matière tombe vers son centre. Même les particules élé­mentaires présentes au cœur de l’étoile sont écra­sées et déstructurées. Pour tenter de donner une image de ce qu’il se passe, je dirai que les sous particules libérées n’étant pas localisables et n’ayant aucune dimen­sion géométrique, le centre n’en a pas non plus ; l’étoile s’effondre donc dans un puit sans fond : Elle devient l’un de éléments les plus étranges du peuplement galactique, un trou noir.

Voici que le Trickster lève le sourcil !

 

Nous avons vu que les étoiles primordiales étaient gigan­tesques et que la plupart ont rapidement ex­plosé. Elles ont laissé des résidus fort massifs, évoluant souvent en trous  noirs. D’autres astres plus jeunes se sont finalement effon­drés eux aussi en trous noirs.

Les trous noirs sont des singularités cosmiques dont le rayon est nul en principe et dont la densité peut croître indéfini­ment. Ils sont si massifs que leur capacité d’attraction gravi­fique s’étend à des distances considérables et qu’ils sont ca­pables de d’influencer ou de capturer tout ce qui est à leur portée, y compris les porteurs d’énergie comme les photons de lumière.  Pierre Kohler les a  appe­lés gouffres du cosmos. Tout ce qui se trouve ou passe à proximité subit les effets de leur force d’attraction et commence  à tomber vers lui avec une accélération croissante. Selon les masses et les vitesses en cause, les lois de  la mécanique spatiale génèrent une inexorable chute en spirale ou bien une situa­tion de gravita­tion orbitale, les objets se mettant à graviter comme des sa­tellites s’ils ont atteint leur vitesse critique de libération. 

La vitesse de libération d’un corps est celle que ce corps doit atteindre pour échapper à l’attraction gravitationnelle de la masse qui l’attire. Pour la surface de la Terre, la vitesse de libération Cette vitesse est d’autant plus importante que la masse de l’astre est importante et que l’objet est proche de son centre. Depuis la surface de la Terre, sa va­leur est de 11,2 km/s (40 320 km/h). Depuis les surfaces de la Lune ou de Mars qui sont moins massives les chiffres tombent à 2,4 et 5 km/s. Pour le Soleil,  elle atteindrait  617,5 km/s. Un objet lancé à cette vitesse, ou à une vitesse su­périeure ne retombera jamais. (Nous faisons abs­traction ici de la résis­tance de l’air).

 

Cette vitesse est supé­rieure à la  vitesse de satelli­sation  né­cessaire pour que l’objet puisse se placer en orbite au­tour de l’astre.  La vitesse de libéra­tion d’un trou noir est supérieure à celle de la lu­mière. Comme rien ne peut aller plus vite que la lumière, rien ne peut s’échapper d’un trou noir, pas même la lumière, et tout ce qui est capturé augmente simplement sa masse. Par contre des objets peuvent demeurer en orbite autour d’un trou noir pourvu qu’ils s’en maintiennent à une distance convenable. Quelle que soit leur taille, les trous noirs capturent continûment de la matière et de l’éner­gie et leur influence sur l’environnement  s’accroît sans limite.

 

On appelle  ‘horizon’ d’un trou noir la limite de la zone à partir de laquelle la vitesse de libération des objets en orbite atteint celle de la lumière. C’est le rayon de Schwarzschild. D’une certaine façon, cet horizon définit l’exten­sion spatiale du trou noir et peut être considéré comme sa taille, laquelle est variable car détermi­née par sa masse actuelle et son mo­ment ciné­tique. Cette idée originelle du trou noir résultait de calculs ba­sés sur la Relativité Générale, dus au physicien Schwarzschild. En se fondant sur la Relativité Gé­nérale, il a conclu que la masse du trou noir défor­mait l’espace-temps à proximité, et que tout mo­bile suivait dans cet espace-temps une trajectoire géodésique.

Il faut bien considérer qu’aux environs d’un trou noir, la gravité est tellement élevée qu’à une cer­taine distance la vi­tesse de satellisation est égale à celle de la lumière ; on l’ap­pelle la sphère des photons, puisqu’ils sont seuls à pouvoir atteindre la vitesse de la lumière et orbiter en ce point au­tour  du trou noir.  Bien que dépourvus de masse, les photons suivent  la règle générale. Mais il ne faut pas confondre ma­tière et rayonnement. Pour qu’un corps s’échappe d’un trou noir, il devrait se déplacer à l’égard du centre à une vitesse supé­rieure à la vitesse de libération, et donc qu’il soit déjà au-delà de son rayon de Schwarzschild. Un rayon lumineux immatériel, par contre, se dépla­cera toujours à la vitesse li­mite de la lumière même à  proximité du trou noir.

Dans un champ très intense, son énergie de rayon­nement (e = hν) diminuera  et sa fréquence  tendra vers le rouge puis vers 0 à l’horizon du trou noir. En conséquence, toute lu­mière émise à l’horizon du trou noir a une longueur d’onde infinie ; elle est complètement figée. Le temps semble alors ar­rêté pour un éventuel observateur extérieur. Les calculs établissent que cette sphère des photons : se situe à 1.5 fois le rayon de Schwarzschild.

Quant à ce que l’on appelle ‘l’horizon des événe­ments, c’est la ‘frontière’ du trou noir. Nous avons dit que sa distance à la singularité est appelée rayon de Schwarzschild. La ‘singu­larité’ elle même n’est qu’un point où l’espace et le temps possèdent théoriquement une courbure infinie. La théorie de la relativité générale d’Einstein décrit en effet la gravitation comme une courbure de l’es­pace-temps. Plus la masse est concentrée, plus cette courbure est prononcée, et dans le cas d’un trou noir, la déformation n’aurait peut-être pas de fin car il pourrait y avoir une déchirure dans la trame de l’espace-temps.

     Voyez que le Trickster
déteste la simplici­té.

 

Exposée de cette façon, la représentation d’un trou noir de­vient déjà à peine compréhensible, inso­lite et très hypothé­tique. Or nous avons décrit un trou noir immo­bile mais les trous noirs sont en ro­tation car les moments cinétiques de leurs origines sont conser­vés dans cette évolution. L’image origi­nelle du trou noir résultait de calculs dus à Schwarz­schild qui avait calculé la taille de l’hori­zon d’un trou noir statique. Kerr a perfectionné ces calculs dans le cas général du trou noir est en rota­tion.

Dans le trou noir de Kerr, la singularité n’est plus concen­trée sur un point mais sur un cercle à l’inté­rieur de l’horizon. Dans ce cas, l’espace-temps est non seulement déformé ‘en entonnoir’, mais en plus, il s’en­roule pour suivre la rotation du trou noir. Cela reste théorique, et la solu­tion de Kerr est incomplète car elle correspond à un trou noir entouré de vide absolu. Tout apport de matière dé­stabilise le trou noir et il faut utiliser la mécanique quantique  pour continuer d’étudier le comporte­ment de la singularité. Le principe d’incertitude de la mécanique quan­tique ne permet pas que la sin­gularité ait une taille nulle en provoquant une courbure infinie de l’es­pace-temps.

D’autres physiciens ont avancé d’autres représen­tations, par exemple en figurant l’espace autour d’un trou noir statique à l’aide d’un dia­gramme dit ‘espace-temps de Penrose (sys­tème de coordon­nées de Kruskal).

Un premier dia­gramme y repré­sente un univers ne possédant qu’un seul trou noir éter­nel, (ne prove­nant donc pas de l’ef­fondrement d’une étoile. Sur le diagramme, on voit alors ap­paraître une ré­gion symé­trique de notre univers, ce que l’on pourrait appeler un uni­vers parallèle, ces deux univers ne pouvant avoir de contact, qu’à l’intérieur de l’ho­rizon du trou noir. La deuxième chose intéressante dans cette représentation, c’est qu’il y apparaît une autre sin­gularité vers le passé : c’est un trou blanc, par­fois appelé fontaine blanche, où rien ne peut ren­trer. A l’in­verse du trou noir, il n’est pos­sible que d’en sortir, puis­qu’on ne peut pas re­monter le temps. Mais les dia­grammes montrent aussi qu’il peut en résulter un univers négatif et même une succession d’univers alternativement positifs et négatifs.

Et comment, diable !

Peut-on représenter un univers négatif ?

 

Mais si l’on représente un trou noir qui n’apparaît qu’à par­tir de l’ef­fondrement de l’étoile, il n’y a plus ni trou blanc ni univers parallèle. Les re­cherches ne se sont pas arrêtées à cette hypothèse. Deux physiciens de l’université Aix-Mar­seille, Carlo Rovelli et Hal Haggard, ont aussi modélisé l’évolution d’un trou noir et ils en tirent une autre déduction. Selon eux, au-delà d’une certaine den­sité, les effets quan­tiques de la gravité se tradui­raient par une force répulsive qui s’oppose à la contraction indéfinie. Selon eux, (vue de­puis le trou noir et cette nuance est importante), la ma­tière serait alors éjec­tée en une explosion accom­pagnée d’un flash lumi­neux. Le trou noir devient soudainement un trou blanc. Les trous noirs de­viendraient donc à terme des sortes de « fontaines blanches », autres énigmatiques ré­gions de l’es­pace d’où rien ne rentrerait et dont tout ressorti­rait.

Carlo Ro­velli a voulu démontrer que cette hypo­thèse était crédible. La relativité générale décrit bien comment les trous noirs se forment à partir d’étoiles qui ses on effondrées sur elles-mêmes. En concentrant leur matière elles ont atteint une densité si forte que l’espace-temps s’est courbé au­tour d’elles et que plus rien, pas même la lu­mière, ne peut en sor­tir. Reste la question posée par Car­lo Rovelli : « Tout tombe dedans, mais ça va où » ? « Cela ne pourrait-il ressurgir en de pro­digieuses ‘fontaines blanches’ » ? Ce serait ce qu’au­gurent de complexes calculs conciliant théo­ries quantique et re­lativistes, qui envisagent un tout autre destin.

Le physicien suggère que tous les trous noirs dont rien ne peut s’échapper, pourraient être en train d’exploser. Leur noirceur ne serait qu’une illusion gigan­tesque et l’effet tem­porel d’un fantastique ra­lenti qui nous masquerait la réalité véritable. En effet, dit-il, Lorsque la matière parvient au centre du trou noir, les équations d’Einstein montrent que le densité de la matière et la courbure de l’es­pace-temps de­viennent infinies. Peut-on dire alors que la matière va s’an­nihiler en un point où ni l’espace ni le temps n’existeraient plus ?  Et Haw­king a montré que les trous noirs rayonnaient.

« Nous sommes convaincus que ce qu’il se passe est beau­coup plus simple, assure Carlo Rovel­li, matière et lumière rebondiraient en une gigan­tesque explosion, transformant le trou noir en trou blanc ». Quand la densité augmente à l’ex­cès, la théorie d’Ein­stein rencontre la mécanique quan­tique qui régit l’infiniment petit. Celle-ci dit que l’on ne peut pas concentrer la matière au-delà d’un certain degré. Et, lorsque toute la masse de l’étoile initiale se retrouve confinée au de­là de cette limite, la densité atteint une nouvelle limite dite de Planck. Les théories de gravitation quan­tique prédisent alors l’apparition, dans cette étoile de Planck, d’une force qui va empêcher toute compression supplémentaire en créant un mur quantique infranchis­sable.

Le résultat est que ce qui arrive à cette étoile res­semble à ce qui arrive à un ballon qui cogne un mur : il rebondit. « Et comment va-t-il remonter : simplement à l’inverse de sa chute », observe Car­lo Rovelli ». Encore faut il montrer qu’au moins  mathémati­quement, c’est possible et que l’on peut construire une métrique décri­vant ce rebond tant dans les équations d’Ein­stein que dans la méca­nique quantique. « La grande difficulté était de faire coller l’effondrement et le rebond. À notre grande sur­prise, on s’est aperçu que c’était pos­sible », ex­plique le chercheur, en constatant que l’on peut construire une solution générale (celle d’un effon­drement suivi d’une explo­sion) totale­ment conci­liable avec les équations d’Ein­stein, et tout à la fois valable à l’extérieur comme à l’inté­rieur du trou noir.

La jonction se fait grâce aux équations de la méca­nique quantique, qui prennent un court ins­tant le relais sur une ré­gion très limi­tée. Ce relais quan­tique permettrait la transfor­mation d’une mé­trique de trou noir en mé­trique de trou blanc. La barrière théorique qui in­terdit, en relativité géné­rale, de passer de l’un à l’autre, était pourtant  incontour­nable sauf si les équations d’Einstein sont pertur­bées par les effets quantiques de perturba­tions in­fimes qui, accumu­lées sur un temps très long, vont altérer ces ri­gueurs relati­vistes.

Carlo Rovelli est convaincu que ces ef­fets quan­tiques cumu­lés finissent par être actifs au-delà de l’horizon, cette zone d’où rien ne peu plus (en prin­cipe) ressortir, transformant alors un trou noir en trou blanc. Mais si les trous noirs de­viennent un jour des trous blancs, pourquoi ne les voit-on pas flamboyer dans le ciel ? « C’est là que vient l’idée la plus belle », s’exclame Carlo Rovelli. « En rela­tivité géné­rale, le temps n’est pas le même pour tout le monde. A notre échelle, c’est impercep­tible, mais dans un trou noir la diffé­rence de­vient énorme. « Un temps très bref à l’intérieur cor­respond à un temps très long à l’extérieur », explique-t-il. « La déformation de l’espace-temps dans un trou noir est telle qu’un effondrement d’une milli­seconde à l’inté­rieur - temps que met un trou noir de quelques masses solaires pour se contracter - correspond à plusieurs milliards d’an­nées à l’exté­rieur ».  Si l’on ne voit pas de gros trous noirs ex­ploser dans le ciel, c’est simplement parce que, dans notre espace-temps à nous, ils n’en ont pas encore eu le temps.

Il n’est ici question que d’une intuition car il reste à décrire ce qui se passe au niveau microsco­pique en se basant sur une théorie de la gravitation quan­tique et ce modèle n’en est pas là. Cependant, Au­rélien Bar­rau, du Labora­toire de phy­sique subato­mique et de cosmologie (CNRS-IN2P3) pense qu’il n’est pas impossible qu’on puisse mettre, en prime ce mo­dèle à l’épreuve. Il espère que l’on puisse bientôt détec­ter des indices de telles explo­sions. « Non pas pour les gros trous noirs, ni ceux créés par des étoiles de quelques masses solaires ; ils ne de­vraient exploser qu’au bout d’un temps su­périeur à l’âge de l’Univers ! Mais certains-mini trous noirs plus récents ont peut-être déjà explo­sé. ».

Ceux-ci perdent constamment une partie de leur masse à cause d’un phénomène d’éva­poration dit de Hawking. « Par un effet de couplage avec les fluctuations quantiques du vide, ils rayonnent de la lumière, de la matière et leur masse diminue  ra­pidement » explique l’astrophysicien, mais non pas jusqu’à disparaître. « Dans le modèle de Carlo Rovelli, cette évaporation va être rapidement arrê­tée par une explo­sion qui libérera toute la masse », explique Aurélien Barrau. Et, une telle explosion libé­rant un flot de photons gamma qui, selon ses calculs, devraient avoir une énergie de 100 MeV, accessible aux instruments actuels. « Il n’est pas im­possible que certains sursauts gamma observés, très rapides et très énergétiques, soient l’explosion d’une étoile de Planck », souligne prudemment le chercheur.

« J’ai calculé, dit-il, que la distance maximale à la­quelle on pouvait voir l’explosion d’une étoile de Planck est d’environ 200 années-lumière et au-de­là, on ne voit plus rien. Or, les sursauts gamma sont émis, en prin­cipe, à plusieurs milliards d’an­nées-lumière », note-t-il. Il devrait donc être pos­sible de les distinguer, s’ils existent. Car les seuls trous noirs suffi­samment petits pour subir une évaporation assez rapide sont les trous noirs pri­mordiaux, qui se seraient formés juste après le big bang. « Pour être honnête, reconnaît Aurélien Bar­rau, on n’en a jamais vu ». Il faudrait donc à la fois révé­ler l’existence de ces trous noirs primor­diaux, et confirmer l’étonnante intuition qu’ils pourraient être en train d’explo­ser.

Il ne faut pas oublier de parler ici d’une autre énigme cos­mique ; celle posée par les quasars ; un mot signifie ‘quasi-stellaire radio source’. En fait, on ne sait pas ce que c’est. Ils sont tous situés a des millions, voire à des milliards d’an­nées lu­mière de nous, extrêmement loin dans l’espace et dans le temps. D’eux, nous ne savons pratique­ment rien. Peut être sont ils des trous noirs super mas­sifs, de plusieurs milliards de masses so­laires. On a pourtant détecté à leur proximité des jets re­lativistes qui pourraient être des jets de parti­cules ac­célérées par le champ magnétique du quasar à des vitesses proches de celle de la lumière, éjec­tées le long de leur axe ma­gnétique.

Au fil du temps et  de l’évolution et de la mort des étoiles, le cosmos s’est peuplé d’un nombre im­mense de trous noirs de plus en plus massifs qui finissent théoriquement par fusion­ner. Les cher­cheurs pensent que notre galaxie, la Voie lac­tée, comme beaucoup d’autres, serait peuplée d’in­nombrables trous noirs. Il est probable que la plu­part des ga­laxies spirales cachent en leur centre  un trou noir géant qui régit leur forme et leur des­tin. Nous sa­vons que les galaxies dérivent dans l’espace jus­qu’à se rencontrer. Le cosmos n’a donc pas fini  d’évoluer.

 

 

 

 

11 Épilogue

Vous avez peut être remarqué que dans le macro univers des actuels physiciens, et contrairement à ce que l’on trouve dans le micro univers des sous parti­cules, la spiritualité ne trouve guère de  place, à tel point qu’il n’est même plus question d’une forme quelconque du vivant. Cet univers mathé­matique me semble incomplet, et   humaine­ment in­vivable.

C’est pourquoi j’ai cru utile, dans les chapitres 8 et 9 comme en exposant la vision si particulière de Jean Charron, de rap­peler qu’une saine vision du monde me semblait nécessaire­ment intégrer d’autres approches que cette seule conception ma­thématique et matériaaliste.

Albert Einstein qui était profondément croyant, (à sa façon très personnelle), protestait d’ailleurs contre cette approche qu’il estimait imparfaite ou incomplète. Il n’était pas le seul, et rappelons ici la genèse de la Gnose de Princeton.

Il faut d’abord savoir qu’il s’agit d’une affabula­tion imagi­née par Raymond Ruyer pour étayer la publication de sa propre pensée. Raymond Ruyer est un philosophe profes­sionnel, de l’Université de Nancy, proche de Jacques Mer­leau-Ponty. L’objet essentiel de leur commune réflexion est la science.

Ruyer prétend qu’un grand renversement de pers­pective phi­losophique a commencé dans les mi­lieux scientifiques les plus connus, surtout  aux USA, à Princeton, ou au Mont Pa­lomar, et ailleurs. Ce serait pour cela qu’il a appelé son livre «La Gnose de Princeton ».  

D’après lui, beaucoup d’astronomes et de physi­ciens  au­raient découvert que l’interprétation pure­ment matérialiste de l’univers en rendait impos­sibles les réalités les plus évi­dentes. A partir de ce constat, ils auraient élaboré la forme renouvelée de la pensée scientifique qui constitue le fonde­ment du livre. En s’éloignant du matérialisme presque doc­trinal qui caractérisait les chercheurs du 20e siècle, cette nouvelle approche, appelée Gnose par l’auteur, (du grec : sagesse et connais­sance), postule que l’Esprit constitue la seule véri­table trame de la matière.  Les corps matériels n’en seraient que l’apparence, et, ceci est impor­tant, seulement pour un autre esprit. L’univers ne serait donc que la conscience ; celle que ces formes es­sentiellement spiri­tuelles ont d’elles-mêmes et des interactions qu’elles ont entre elles.

Á l’échelle astronomique, les mécanismes cos­miques tra­vaillent évidemment à la des­truction complète du cosmos, mais aucun d’eux ne peut re­monter dans le temps au-delà d’une quinzaine de milliards d’années. Qu’y avait-il donc avant ? Et la destruction progressive de l’univers contreba­lance-t-elle simplement l’apparition de la conscience et de la pensée qui, en ce sens, élabo­reraient le véritable avenir cos­mique.

La matière constituerait donc seulement le dehors visible de la réalité totale dont le dedans serait la conscience. « Il fau­drait alors « remettre la science à l’endroit » en découvrant le dedans des choses, nouvel objectif des chercheurs éclairés. Cette nou­velle interpréta­tion cohérente de la science intè­grerait maintenant la spiritualité.

Elle énoncerait que l’évolution du monde a un but, et que tout vivant participe à un acte créateur di­vin, dans la mesure de sa propre liberté. On voit tout de suite combien les ré­centes décou­vertes dans le domaine des sous particules ont pu gran­dement influencer la rencontre de la science avec la philosophie et la religion. L’histoire nous en­seigne bien que la religiosité, au sens noble du terme, est une constante de la pensée métaphy­sique humaine. Ne nous étonnons pas qu’elle re­trouve une place  temporairement oubliée. Bien des penseurs ne s’y sont pas perdus.

La religion est l’intuition de l’Univers.

Friedrich Schleiermacher-Discours sur la re­ligion

 

Finalement le masque énigmatique du Trickster ne m’appa­raît plus maintenant si étrange, hostile ou mo­queur. Tout bien considéré aujourd’hui, il me semble au contraire chargé d’une grande ten­dresse avec peut-être un peu de tristesse ; comme un cache posé à regret pour assurer le destin des hommes, et derrière lequel transparaît à mes yeux un tout autre visage, débordant tout à la fois d’amour et de compas­sion, le véritable visage de Dieu. 

 

 

    

 

 

Voici la dernière question
posée au Tricskter

 

    Et elle est éternelle !

 

    

 

 

      D’où vient Dieu ?

 

 

 

 

 

 

 

 

 

TABLE DES CHAPITRES

 

 

 

1  le Tricskter..................................................................... 5

2  Les particules sont éternelles                   17

3  L’expérience de la double fente                   33

4  Fermions et Bossons                                              49

5  Les ondes de probabilité                                    61

6  La théorie des cordes                                           79

7  La causalité  rétroactive                                  95

8  Le champ est l’unique réalité...........        109

9  UN AUTRE REGARD                                                       125

10  Les mystères du macro univers                151

11  Epilogue....................................................................... 169

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

@ Jacques Prévost - Cambrai - France - 2018


Jacques Henri Prévost

 

Le sourire malicieux de l’Univers

 

Selon l’auteur, notre découverte de l’Univers semble se dérouler comme un jeu indéfini­ment renouvelé. Un mysté­rieux démiurge s’in­génierait à démon­ter chaque théorie expliquant l’ori­gine du Monde, en ouvrant une nouvelle hypo­thèse incompatible avec la précé­dente. C’est ce qu’il appelle le sourire mo­queur Trickster, ce génie mythique et trompeur, tout à la fois bon et mau­vais, qui se si­tuerait entre le di­vin et l’homme.

Á l’origine de l’univers macrocosmique, une mys­térieuse et in­concevable énergie aurait provoqué l’émergence d’un inconce­vable chaos qui s’est structuré dans le temps et l’espace en don­nant naissance aux innombrables galaxies et à tous les astres étonnants qui peuplent le Cosmos.

L’exploration de l’univers microcos­mique réserve ici aussi bien des surprises. Avec d prodigieux outils, nous  avons essayé de percer les mysté­rieux se­crets des plus ultimes constituants de la matière, et nous avons là aussi rencontré le sourire ironique du dé­miurge mo­queur.

Mais c’est notre cerveau qui crée la représentation du monde, dans l’obscurité du crâne. Notre monde ne serait-il que la per­ception men­tale et imaginaire d’un  hologramme bien plus grand que tout ce que l’homme peut concevoir. Peut être n’y a-t-il rien autre dans la réalité ultime que le sourire ambigu du Trickster ?