lundi 20 novembre 2017 - par Zevengeur

« ΛCDM », grandeur et décadence du modèle standard de la cosmologie

Décadence {JPEG}

Nous avons vu dans cet article [1] que l’Univers qui nous entoure est dynamique et que celui-ci possède une histoire et donc une origine. Les observations astronomiques ont mis en évidence que ce dernier est actuellement dans une phase d’expansion isotrope généralisée.
A partir des années 1970, les physiciens sont arrivés à établir un scénario probable de son histoire appelé « Modèle standard de la cosmologie » renommé récemment modèle « ΛCDM » pour « Lambda Cold Dark Matter ». Ce modèle est basé sur les théories de la relativité générale, de la physique quantique [2] et de la physique des particules [3].

L’un des aspect les plus remarquables du modèle cosmologique est qu’il explicite les mécanismes de la création des éléments connus qui constituent l’ensemble des atomes de matière que l’on rencontre dans l’Univers.
L’Hélium et l’Hydrogène sont les premiers éléments fabriqués dès les trois premières minutes de la vie de l’Univers, des étoiles se sont ensuite constituées à partir de ces deux composants avant que ces dernières ne « fabriquent » les atomes lourds par fusion nucléaire.

Dans cet article, les différentes étapes de la vie de l’Univers seront décrites en précisant les limites particulièrement importantes du modèle ΛCDM sur certains points. En effet, à plusieurs reprises, des hypothèses lourdes on du être effectuées pour assurer le sauvetage du modèle à la suite de nouvelles observations.

 

A. UNE HISTOIRE QUI S’ÉCHELONNE SUR 14 MILLIARDS D’ANNÉES

Toute la matière connue est constituée d’atomes dont les composants de base sont identiques : un noyau construit avec des Protons et des Neutrons autour duquel gravitent des électrons. La constitution de ces atomes obéit à des règles précises qui ont donné lieu à une classification avec la table de Mendeleïev, qui liste les 118 éléments connus aujourd’hui.

Les règles qui déterminent cette table sont liées au comportement quantique des électrons qui ne peuvent occuper que sept positions possibles autour du noyau. Toutes les combinaisons de noyaux et d’électrons ne sont donc pas réalisables car la plupart ne sont pas stables. En particulier, il n’existe que deux éléments qui possèdent un seule couche d’électrons en orbite : l’Hélium et l’Hydrogène.
La chimie est la branche des sciences qui s’est appuyée sur la physique des particules pour renseigner les règles d’assemblages des composants en atomes ainsi que des atomes entres eux sous forme de molécules.

Les principaux constituants matériels de l’Univers visible sont l’hydrogène (74%) et l’hélium (24%), les 116 autres tels que l’oxygène ou le carbone représentent moins de 1% du total.
Vient s’ajouter à ces constituants un fond diffus cosmologique consistant en une mer de photons émise très tôt dans l’histoire de l’Univers, ainsi qu’un autre fond très similaire mais moins connu, le fond de neutrinos primordiaux, ce dernier étant hélas presque indétectable.
Nous verrons par la suite que l’Univers visible ne représente qu’une petite fraction (moins de 5%) d’un ensemble beaucoup plus vaste non détecté de matière et énergie dites « noires » qui représenteraient donc 95% du contenu !

Le modèle standard de la cosmologie s’est donc penché sur la quasi totalité de l’histoire de l’Univers durant une période de 14 milliards d’années, âge estimé de ce dernier.
L’objectif du modèle est de décrire les phase ayant conduit à l’Univers d’aujourd’hui.

Le problème de « l’instant zéro »
La question du fameux « instant zéro » a déjà été évoquée ici [1] et le physicien Étienne Klein a rédigé un des rares ouvrages sur le sujet [4].
D’après la Théorie Quantique ou TQ, l’Univers est « pixelisé ». En effet, cette théorie indique que l’espace serait subdivisé en minuscules pavés insécables de volumes constants et de même pour le temps.
Le démarrage de l’histoire sera donc fixé par les limites de nos connaissances, à savoir à la fin du premier « pavé » ou temps de Planck d’une durée de 10-43 secondes.

 

B. INTRODUCTION AU MODÈLE STANDARD DE LA COSMOLOGIE

Dans un premier temps, quelques points permettant de comprendre la suite vont être précisés en commençant par ce que l’on entend avec le terme « Univers ».

Qu’entend-on par Univers ?
Dans la littérature, l’utilisation du terme « Univers » recouvre plusieurs significations qu’il est nécessaire de discriminer. En effet, la cosmologie ne traite en général pas de l’Univers entier, chaque notion évoquée ne concerne qu’une partie finie de sa totalité.

. Univers entier
On peut d’abord entendre l’Univers dans son entier associé à sa topologie ou forme extérieure, ce dernier nous est à l’heure actuelle complètement inaccessible car nous n’en observons qu’une petite partie.
Nous ne savons même pas s’il est fini ou infini.

. Univers observable
L’Univers observable [5] est la partie d’Univers visible depuis la Terre à travers la lumière des objets qui nous est parvenue à l’issue d’un voyage effectué à vitesse constante c de 300 000 kilomètres par seconde.
Chaque seconde qui s’écoule augmente donc la profondeur observable de 300 000 kilomètres.

La frontière de l’Univers observable se nomme « horizon cosmologique ».
Il s’agit d’une sphère centrée sur la Terre.

Un photon parti de cette frontière dans le passé aura voyagé durant 14 Milliards d’années avant d’arriver jusqu’à nous.
Cependant, durant son trajet l’Univers se sera agrandi grâce à l’expansion.
La distance réelle parcourue par ce photon aura donc augmenté, cette dernière appelée « distance comobile de l’horizon », aura alors triplé pour atteindre environ 42 Milliards d’années lumières (*).
Pour chaque objet détecté à longue distance, une « distance comobile » peut être calculée correspondant à la position théorique actuelle du point de départ de sa lumière.

La galaxie la plus éloignée de la terre découverte jusqu’ici se nomme GN-z11, sa lumière a voyagé 13,4 Milliards d’années avant d’arriver jusqu’à nous. Sa distance réelle ou comobile est estimée à 32 Milliards AL (*).

(*) AL = Année Lumière, unité de distance astronomique correspondant à la distance parcourue par un grain de lumière pendant un an à vitesse c. A titre d’exemple, le soleil se trouve à environ 8 minutes.lumières de la Terre.

. Fond diffus cosmologique
Le fond diffus cosmologique est la limite absolue de l’Univers observable, il est lié à la date où l’Univers est devenu d’un seul coup transparent 380 000 ans après le Big Bang.
Il correspond donc exactement à la distance maximum observable depuis la Terre sur l’horizon cosmologique dont l’apparition sera expliquée plus loin.

. Univers primordial
L’Univers primordial est évoqué lors des premières fractions de secondes de son histoire, il correspond à une partie de l’Univers entier beaucoup plus étendue que celle de l’horizon cosmologique.
Cette étendue est cependant systématiquement laissée dans le flou, personne ne sait la définir précisément.

En synthèse et dans l’ordre croissant de taille considérée :
Univers observable ⇒ Univers primordialUnivers entier

Les particules fondamentales, déplacement et interactions
L’article ici [6] a présenté le « modèle standard de la physique » à ne pas confondre avec celui de la « cosmologie ». Cet article évoque en particulier le bestiaire de toutes les particules de base avec leurs règles d’interaction, permettant de « construire » toute la matière/énergie connue dans l’Univers.

1) Particules
Pour la suite, nous allons avoir besoin de trois types de particules :
→ photons = particules d’énergie pure de masse nulle, famille des bosons
→ fermions = particules de matière de masse non nulle
→ les antiparticules (*) de ces dernières qui possèdent une charge électrique négative (sauf le photon qui est sa propre antiparticule)
Les fermions sont subdivisés en deux familles :
→ leptons = électrons et neutrinos (**) de masse faible
→ hadrons = protons et neutrons de masse plus élevée (constitués eux même des hypothétiques quarks)

(*) Lorsqu’un fermion heurte son antiparticule, les deux s’annihilent en produisant deux photons
(**) La masse des neutrinos est probablement nulle, ils n’ont pas de charge électrique et n’interagissent quasiment pas avec les autres particules, ils sont donc très difficiles à détecter.

2) Déplacements des particules
Pour la question du déplacement des particules, une différence fondamentale entre les particules d’énergie et les particules de matière concerne leur vitesse.
En effet, les photons ne peuvent se déplacer qu’à vitesse constante c dans le vide (vitesse de la lumière).
Les particules de matière (fermions), quand à elles, peuvent être au repos ou se déplacer à n’importe quelle vitesse à condition que cette dernière soit inférieure à c !

3) Interactions des particules
Les interactions possibles entre les particules sont au nombre de 4 et portées par ce que l’on nomme des bosons [3][6].
→ Interaction électromagnétique (boson = photon)
→ Interaction faible (bosons = W+, W-, Z0)
→ Interaction forte (bosons = gluons)
→ Gravitation (boson = graviton (*))
Ces 4 interactions interviennent à différentes étapes de la vie de l’Univers, les trois premières agissent plutôt à courte distance et la quatrième à très longue distance.

(*) Le graviton est hautement hypothétique car la théorie quantique est incompatible avec la gravitation qui est modélisée à grande échelle par la Relativité Générale. Les ondes gravitationnelles ont cependant été détectées très récemment avec les expériences LIGO et Virgo.

Pour suite, retenons les principaux points suivants :
– les collisions de photons à haute énergie peuvent donner naissance à un couple de fermions constitué d’une particule et de son antiparticule (antimatière).
– les électrons interagissent très facilement avec les photons par émission ou absorption de ces derniers [7]
– plus généralement les interactions entre particules connues obéissent à des règles précises [6]

Quelques formules simples
L’énergie E d’une particule au repos est proportionnelle à sa masse :
E = mc2 (m = masse, c = vitesse constate de la lumière).
L’énergie transportée par un photon, est proportionnelle à sa longueur d’onde donnée par la formule de Planck :
E = hc/λ (h = constante de Planck, c = vitesse de la lumière, λ = longueur d’onde du photon).
On voit que plus la longueur d’onde du photon est petite, plus son énergie est élevée.
L’énergie d’une mer de photons, autrement dit d’un rayonnement homogène peut être également caractérisée par sa température qui est proportionnelle à sa longueur d’onde (c’est en fait la même chose).
La formule de Boltzmann nous donne la relation suivante :
E = 1/2kT (k = constante de Boltzmann, T = température en Kelvin)

Des photons se déplaçant dans tous les sens et se heurtant comme des boules de billard peuvent fabriquer des particules de matière à condition que leur énergie soit suffisante (*).

(*) Si leur énergie est trop faible pour créer de la matière, les photons peuvent néanmoins interagir avec des électrons rencontrés sur leur chemin à travers ce que l’on nomme la diffusion Compton.

La température de seuil
Une collision entre deux photons peut donner naissance aux couples suivants  :
Photon + Photon → Proton + Antiproton
Photon + Photon → Électron + Anti-électron (appelé aussi Positron)

On parle alors d’une température Tp de seuil (ou énergie de seuil) pour fabriquer des protons et d’une température de seuil Te pour fabriquer des électrons.
⇒ Pour fabriquer un proton, un couple de photons doit donc avoir une longueur d’onde maximum λp.
⇒ Pour fabriquer un électron, un couple de photons doit donc avoir une longueur d’onde maximum λe.

Le rayonnement de corps noir
Un corps noir, dont le nom est très mal choisis, est un objet théorique dont tous les points sont à la même température et dont le rayonnement émis dépend uniquement de cette dernière. Un four de cuisine ou la surface d’une étoile sont des exemples de corps noirs.

Pour reconnaitre un corps noir, il faut mesurer ses caractéristiques d’émissions à différentes longueurs d’ondes.
Pour une température donnée, la courbe obtenue sera toujours identique.

L’Univers est-il gouverné par la Relativité Générale ?
La relativité Générale (RG) est une théorie dont le concept de base est assez simple à comprendre. Cette dernière « géométrise » l’espace en fonction de son contenu en énergie et matière.
Elle dit en substance que la matière/énergie courbe l’espace tridimensionnel (3D) ainsi que le temps (t) qui ne forment plus qu’un sous la dénomination « Espace-Temps ».
En pratique, une masse importante va courber localement l’espace-temps et les trajets de plus petites distances au voisinage de cette masse sont nommées « géodésiques« .

La courbure de l’espace se traduit par des trajectoires non linéaires.
Un satellite en orbite autour de la Terre va donc simplement suivre la courbure de l’espace ou géodésique provoquée autour d’elle par notre planète.

La courbure du temps se traduit concrètement par le ralentissement d’une horloge locale.
Si par exemple un observateur A située au voisinage d’une masse mesure sur sa montre une durée de 30 minutes, alors un autre observateur B situé loin de cette masse va mesurer une durée de 11 minutes.
Si l’observateur B observe le A avec des jumelles, il aura l’impression que ce dernier se déplace au ralenti !

Les cosmologistes ont pensé durant très longtemps que la courbure, la topologie et l’expansion de l’Univers entier étaient simplement liées à la densité de matière contenue dans ce dernier. Hélas cette densité n’est pas mesurable avec assez de précision pour conclure, d’autant que sont apparues les mystérieuses matière et énergie dites « noires » non détectables directement.

Équation de champs d’Einstein et métriques de l’espace-temps
La relation entre courbure et énergie/matière est décrite mathématiquement par l’équation de champs d’Einstein située dans un espace-temps continu à 4 dimensions (3D+t).

L’équation présentée ci-dessous gouverne tout l’Univers, sa forme semble simple mais il s’agit d’une notation mathématique tensorielle très puissante.
L’inconnue est la métrique « gμν » dont la forme dépend du contenu de l’espace-temps.

On remarque le paramètre « Λ » , la constante cosmologique d’Einstein (*) pour un Univers stationnaire. Cette dernière fut récemment réintroduite pour se conformer à l’expansion accélérée de l’Univers.


(*) Abandonnée par Albert Einstein à la fin de sa vie en l’ayant considérée comme « la plus grande erreur de sa carrière ».

Les solutions de cette équation sont appelées des « métriques », elles permettent de calculer des distances dans l’espace-temps courbé par la matière-énergie !
Les dates et autres valeurs numériques annoncées par le modèle standard ont été établies à l’aide de ces calculs.

Des exemples de métriques très utilisées en physique :
métrique de Friedmann-Lemaître : définit l’espace-temps de la Relativité Générale (utilisée en cosmologie).


métrique de Minkowskyi : définit l’espace-temps de la Relativité Restreinte, on la retrouve à partir de la précédente en annulant la courbure.

Que se passe-t-il lors de l’expansion de l’Univers ?
Lors de l’expansion, l’idée communément admise serait qu’il y aurait « de l’espace qui se crée ex-nihilo » en permanence dans la totalité de l’Univers (*).
A ce stade, le comportement du rayonnement (photons) et de la matière diffère.
. Les photons se déplacent toujours à vitesse constante c. Lors de l’expansion leur longueur d’onde augmente en proportion de cette dernière faisant diminuer d’autant leur énergie.

(*) Cependant, un concept de vide quantique préexistant dans lequel l’Univers se dilate peut aussi bien être considéré [8].

. Les fermions ou particules de matière ordinaire (des atomes aux étoiles) ne subissent aucune transformation durant l’expansion à part un déplacement car ils seraient « entrainés » par l’espace qui se dilate.

L’image du verre de glaçons renversé sur une table illustre bien ce phénomène :

Cette introduction va maintenant permettre d’entrer dans le vif du sujet : le modèle standard de la cosmologie.

 

C. LE MODÈLE STANDARD DE LA COSMOLOGIE

Le modèle standard de la cosmologie est donc basé sur le concept d’un Univers en expansion âgé de 14 Milliards d’années. Durant cette expansion, les particules sans masse (photons) sont « étirés » et les particules de matière restent stables mais en mouvement.

Durant toute l’histoire, l’expansion de l’espace vient diluer l’énergie initiale qui se traduit par une baisse constante de la température moyenne de l’Univers. Les plus importantes étapes de cette longue histoire se sont déroulées lors des premières minutes !

En synthèse, les principales phases vécues par l’Univers sont les suivantes :
. Singularité, point « zéro » puis « Ère de Planck » : non théorisé.
. Sortie de « l’Ère de Planck », une « soupe cosmique » de rayonnements à très haute température.
. Phase de création/destructions à haute fréquence de particules par collisions entre ces dernières.
. Saint Barthélemy cosmique, survie d’une particule de matière sur un milliard.
. Découplage matière/rayonnement, l’Univers devient transparent. Il reste une mer de photons, de l’hydrogène et de l’hélium.
. Création des étoiles et autres galaxies sous l’action de la gravitation.
. Époque contemporaine, Univers stable en expansion.

C’est parti…

Les trois premières minutes de l’Univers
D’après le modèle standard de la cosmologie, le destin de l’Univers s’est joué dans ses « trois premières minutes », l’ouvrage éponyme de référence sur ce sujet est celui du prix Nobel Steven Weinberg [9].


(1) → Horloge cosmique : 10−43 secondes – Température = 1013 K (dix mille milliards) (*)
La première phase à la sortie de l’ère de Planck reste obscure car à la températures extrême de 1013 degrés Kelvin, nous sommes au dessus de la température de seuil des hadrons (protons, neutrons…), ces derniers sont donc sont en création permanentes. Cependant à ces énergies très élevées, l’interaction forte est prépondérante et cette dernière est à l’heure actuelle très mal comprise [3][6].
Point important, c’est dans cette phase que se constitua la mer de neutrinos primordiale issue de la désintégration à haute énergie des électrons et positrons :
Électrons + Anti électron→ Neutrino + Neutrino

Nous sommes donc dans une sorte de « tohu-bohu » à très haute température avec des particules diverses qui se créent et s’annihilent en permanence.

(*) Les degrés Kelvin (K) sont identiques aux degrés Celsius avec un décalage de 273, une température estivale de 30° C correspond donc à 303 K. La température ne peut descendre en dessous d’un seuil appelé « zéro absolu », soit 0 K (-273 °C).

(2) → Horloge cosmique : 0,01 secondes – Température = 1011 K (100 Milliards)
L’histoire mieux connue commence en dessous de la température de seuil des hadrons, ces derniers, n’étant plus créés, seront donc déjà en très faible proportion par rapport aux photons et aux leptons.
En effet, à l’issue d’une phase d’annihilation entre hadrons et anti-hadrons -véritable St Barthélemy cosmique- , il va survivre une particule sur un milliard, principalement des protons et neutrons.

Il s’agit là d’un mystère non expliqué car on aurait pu s’attendre à une disparition totale des hadrons vu que leur parité avec leurs antiparticules fut parfaite lors de leur création.

Dans cette phase, l’Univers était donc constitué de rayonnements à 1011 K constitués de photons à très haute énergie qui s’entrechoquent sans cesse en produisant des paires de leptons :
Photon + Photon → Électrons + Anti électron (Positron)
Cependant, ces dernières s’annihilent également entres elles lorsqu’elles se rencontrent avec la réaction inverse :
Électrons + Anti électron→ Photon + Photon (on obtient cette fois des photons dans le résultat car les collisions se font à plus basse énergie qu’en (1))

Les particules de matière se déplaçant à une vitesse proche de celle de la lumière, leur comportement est voisin de celui des photons.
Dans cet Univers primordial, les chocs incessants de particules provoquent une homogénéité de la température de l’ensemble, on dit que ce dernier est en équilibre thermodynamique [9].

Lorsque la température a baissé d’un facteur 3, l’interaction faible intervient.
Cette dernière permet la « désintégration β (Bêta) » d’une partie des neutrons en protons, la proportion de ces derniers augmente (62% de protons, 38% de neutrons).

(3) → Horloge cosmique :  1,09 secondes – Température >= 1010 K (10 Milliards)
La densité de l’Univers ayant fortement diminué, les neutrinos arrivent maintenant à se faufiler entre les autres particules sans interagir presque immédiatement avec ces dernières.
C’est le moment ou l’Univers est devenu transparent aux neutrinos par découplage. Il s’agit donc d’un premier fond cosmologique « fossile » de neutrinos créé durant le big bang encore présent aujourd’hui (*).
Malheureusement, ces derniers sont très difficiles à détecter car ils interagissent très peu avec les autres particules.
Du coté des hadrons, la réaction se poursuit avec un ratio de protons de 76% contre 24% pour les neutrons.

(*) Durant l’expansion de l’Univers, la longueur d’onde des neutrinos a augmenté en proportion de l’expansion diminuant donc leur énergie individuelle. La température du fond de neutrinos devrait donc aujourd’hui se situer à environ 2 Kelvin.

(4) → Horloge cosmique : 13.84 secondes – Température >= 3.109 K (3 Milliards)
La température a suffisamment baissé pour descendre en dessous de la température de seuil des électrons.
Ces deniers ne sont donc plus créés et ils commencent à disparaitre en masse par collisions avec leurs antiparticules (positrons).

(5) → Horloge cosmique : 34 minutes 40 secondes – Température = 3.106 K (3 Millions)
L’annihilation des électrons par collisions avec leurs antiparticules (positrons) est achevée, il reste environ un électron « survivant » sur un milliard et plus du tout de positrons.

Il s’agit là encore d’un mystère non expliqué car on aurait pu s’attendre à une disparition totale de ces deux espèces puisque que leur parité fut parfaite lors de leur création.

Coté hadrons, les protons et neutrons se sont assemblés en noyaux d’hélium ou restés en protons libres (noyaux d’hydrogène).
La situation s’est alors stabilisée avec un ratio de 13% pour les noyaux d’Hélium et 87% pour les noyaux d’Hydrogène.

Les atomes ne peuvent pas encore se former car les électrons sont encore trop agités pour être captés par les noyaux.
L’interaction électromagnétique entre électrons et photons devient alors prépondérante.
La densité de ces deux particules est telle qu’elles interagissent sans cesse par diffusion Thomson avec de très faibles distances de « vol libre ».

Cette phase va durer environ 380 000 ans où à part la dilatation et le refroidissement de l’Univers, rien de spécial ne va se passer.

La transition vers la phase matière, T0 + 380 000 ans

(6) → Horloge cosmique : 380 000 ans – Température = 3000 K (Trois mille)
Cette date correspond à une situation où suffisamment d’espace a été créé par l’expansion pour que les électrons et les photons cessent d’interagir. La dernière interaction entre ces derniers est nommée surface de dernière diffusion.

Ces deux populations peuvent donc se mouvoir librement, il s’agit du second découplage après celui des neutrinos, on dit que l’Univers est devenu transparent à la lumière.

Les photons libérés à cette époque sont aujourd’hui encore détectables (*).
Ils constituent le fond de rayonnement cosmologique qui sera évoqué plus loin. Ce découplage a duré en fait quelques milliers d’années, mais à l’échelle de l’âge de l’Univers, il peut être considéré comme instantané.

(*) Leur énergie a diminué drastiquement après 14 Milliards d’années d’expansion, leur température actuelle est de 2.7 K.

→ Les électrons, quand à eux, peuvent alors enfin se lier aux noyaux présents pour constituer les atomes d’Hélium et d’Hydrogène, il s’agit de la « recombinaison ».

Les âges sombres

(7) → Horloge cosmique : de 380 000 ans à 0.5 Milliards d’années.
Fait marquant, la période suivante correspond aux âges sombres de l’Univers car avant que les premières étoiles ne s’allument et que leur lumière ne ré-ionise leur voisinage entre 0.5 et 1 Milliard d’années après le big bang, il n’y avait aucune source lumineuse dans l’espace et la température chuta rapidement.

POINT D’ÉTAPE
Le début de cette histoire en arrive donc à sa conclusion avec un Univers constitué d’une part de deux rayonnements fossiles résiduels
occupant tout l’espace (neutrinos et photons) et d’autre part de deux éléments matériels de base pour construire la suite, Hélium (13%) et Hydrogène (87%).

Pour la suite, nous allons assister à la création des grandes structures (étoiles, galaxies et amas) par regroupement des particules matérielles sous l’effet de l’interaction gravitationnelle puis de la fusion nucléaire pour « allumer » les étoiles.

La vie des étoiles
La fusion nucléaire est l’un des phénomènes les plus remarquables que peut subir la matière. En effet, à partir de l’hydrogène qui est le composant de base le plus simple, la nature arrive à fabriquer au cœur des étoiles les 117 autres éléments.
A très grande échelle, l’étoile est donc le composant de base de l’Univers.
Ces dernières ne comprennent que trois types de populations (*), elles sont groupées en galaxies qui à leur tour se regroupent en amas et superamas.

(*) Ces populations diffèrent par leurs masses. Cette dernière va de 0.3 masse solaire pour les type I à plus 25 masses solaires pour les type III, les plus répandues sont de type II avec 1 masse solaire environ.

(8) → Horloge cosmique : entre 0.5 et 1 Milliard d’années
L’expansion s’étant poursuivie, les trois premières interactions fondamentales actives à courtes distances ont fait place à la quatrième : la gravitation qui agit sur les longues distances.
L’hydrogène -composant le plus répandu- et dans une moindre mesure l’hélium, se sont alors condensés en nuages gigantesques dans lesquels la gravitation a permis la formation des proto-étoiles.

Ce phénomène est encore loin d’être expliqué car il fait appel à la fameuse matière dite noire que l’on observe pas directement mais qui se manifeste par ses effets gravitationnels.

Pour créer une étoile, il est nécessaire qu’une masse critique d’hydrogène se condense afin que la gravitation provoque une forte pression au centre de cette dernière, ce phénomène est modélisé par le concept d’instabilité de Jeans.
Une proto-étoile est donc un condensat d’hydrogène et d’hélium qui va à l’étape suivante se transformer en étoile par « allumage » de réactions de fusion nucléaire en son centre.
Les étoiles massives dites de « population III » furent alors la première génération à se former lors du premier milliard d’années.

La fabrication des atomes « lourds » par des réactions de fusion successives au sein des étoiles fut en revanche bien expliquée à partir de la publication du célèbre article « B2FH » paru en 1957 (PDF ici).

Les premières réactions de fusion ou nucléosynthèse stellaire concernent l’hydrogène qui sous l’effet de la pression gravitationnelle va se transformer en hélium par la réaction suivante :

Après deux désintégrations β, quatre noyaux d’hydrogène fusionnent en un noyau d’hélium avec émission de 2 positrons, 2 neutrinos et d’énergie.

Dans cette phase, un équilibre se crée entre d’une part la force de gravité centripète et d’autre part l’augmentation de la température induite par la fusion provoquant une pression centrifuge.

La plus longue phase de la vie d’une étoile est celle de la consommation de l’hydrogène, elle s’échelonne de quelques millions d’années pour les étoiles les plus massives à plusieurs centaines de milliards pour les moins massives (*).

(*) Notre soleil a une durée de vie estimée à une dizaine de milliards d’années, nous en sommes à 50% environ.

Lorsque tout l’hydrogène a été transformé en hélium, la pression de fusion centrifuge s’écroule et l’étoile recommence à s’effondrer sur elle même. Le couple pression/température du cœur augmente fortement et un nouveau cycle de fusion à plus haute énergie démarre pour fabriquer des éléments plus lourds : Carbone et Oxygène.
Ce phénomène d’effondrements successifs se répète alors jusqu’à la fabrication du fer.


Cette dernière phase se termine par l’explosion de l’étoile sous forme de supernova qui va éjecter dans l’espace à très haute vitesse tous les matériaux fabriqués, mécanisme ici.

Ces matériaux lourds éjectés sur plusieurs centaines d’années lumière vont se retrouver dans une nouvelle génération d’étoiles créée de la même manière que la précédente. Cela explique la détection de ces matériaux dans les étoiles de population II.

La formation des structures géantes : galaxies, amas et superamas
L’étape suivante consiste à évoquer les regroupements d’étoiles en galaxies, de galaxies en amas puis d’amas en superamas et filaments galactiques.
Il s’agit là d’un mystère car nous ne savons pas si la genèse de ces structures partir de nuages d’hydrogène géants a eu lieu avant ou après la création des étoiles.
Soit ces dernières se sont formées en premier pour s’agglomérer ensuite en galaxies qui elle même se sont ensuite regroupées, soit les nuages initiaux se sont scindés à trois reprises pour donner naissance en phase finale aux étoiles.

Il est supposé par ailleurs que ces structures sont issues des fluctuations quantiques présentes lors des premiers instants de l’Univers.

Le mystère provient principalement de l’influence de la matière dite « noire » non détectable dont on ne sait pas grand chose.

(9) → Horloge cosmique : 13.7 Milliards d’années – Température = 2.7 K (soit – 270 degrés Celsius)
Phase de rédaction de cet article !

Comme nous venons de le voir, toute la matière présente sur notre planète -y compris nous même- a été forgée dans les étoiles, ce qui a fait dire à Hubert Reeves que nous sommes fabriqués avec des « poussières d’étoiles ».

(10) → La suite de l’histoire
Jusqu’à la fin des années 70 les cosmologistes pensaient qu’il suffisait de mesurer la densité de matière moyenne de l’Univers pour déterminer sa courbure totale et donc sa topologie. Ces données devaient également nous renseigner sur la poursuite ou non de l’expansion et sur l’éventualité d’une inversion de cette dernière ou « Big Crunch ».

Toutefois, les choses se sont singulièrement compliquées.

En effet, après ces brillantes avancées théoriques sur l’histoire de l’Univers, de nouvelles observations sont venues induire de sombres nuages sur le modèle standard…

D. « ΛCDM » , UN SAUVETAGE EN CATASTROPHE DU MODÈLE STANDARD

Contrairement à la physique fondamentale où les physiciens ont « décidé » depuis 30 ans de travailler sur des concepts purement mathématiques parfaitement invérifiables expérimentalement (théorie des cordes, trous noirs), la cosmologie a bénéficié de progrès inouïs dans le domaine des mesures.
En effet, le lancement de satellites d’observation très sophistiqués a rapporté une moisson de données qui ont plus que sérieusement ébranlé le modèle standard cosmologique.

En synthèse, les mesures expérimentales ont induit trois problèmes majeurs incompatibles avec le modèle standard :
– homogénéité du rayonnement fossile et platitude de la courbure géométrique de l’Univers
– masse de matière manquante
– accélération inexpliquée de l’expansion

Le rayonnement fossile, homogénéité et platitude
Le rayonnement fossile cosmologique peut être comparé avec une foule quasi infinie où l’on se trouverait en plein milieu.
→ Soudain, au même moment, tout le monde pousse un grand cri !
Comme le son se propage à 300 mètres/seconde, on continue très longtemps après à recevoir ce dernier mais de plus en plus affaiblit.

En l’an 380 000, il s’est passé la même chose mais avec des photons.

Les premières mesures du rayonnement fossile ont été effectuées après sa découverte fortuite par Penzias et Wilson en 1965 à l’aide de l’antenne des Bell Labs.
Ces derniers reçurent le prix Nobel de Physique en 1978 pour cette découverte mais il fut injuste de ne pas y avoir associé le physicien russe George Gamow car il fut le premier à émettre l’hypothèse de l’existence de ce rayonnement.

George Gamow (1904-1968)

Le rayonnement fossile fut mesuré à quatre reprises avec des moyens de plus en plus précis :
– 1965 : Bell Labs par Penzias et Wilson (Première découverte)
– 1992 : satellite COBE (NASA)
– 2001 : satellite WMAP (NASA)
– 2009 : satellite Plank (ESA)

Le satellite « Planck » a permis de dresser une carte du rayonnement fossile avec une précision sur la température mesurée de 2 × 10-6.



La carte obtenue est en réalité ce que l’on observe depuis le centre d’une sphère creuse, la représentation proposée est une projection azimutale de cette image sur un plan (*) comme celle du globe terrestre.

(*) A la différence que pour le globe terrestre, on représente l’extérieur d’une sphère mais le principe reste le même.

Cette mesure du rayonnement fossile est cependant trompeuse car les fluctuations de température sont tellement faibles (moins d’un millième de degré) que la « vraie » carte ressemblerait à cela :

Les mesures du rayonnement fossile à plusieurs longueurs d’onde ont montré que ce dernier correspondait à celui d’un corps noir.
L’Univers visible en l’an 380 000 était donc parfaitement homogène avec la même température d’un bout à l’autre.

⇒ Premier problème : homogénéité
Les calculs sur l’expansion de l’Univers montrent que l’horizon de ce dernier (la distance visible depuis un point d’observation quelconque) augmente plus rapidement que cette dernière. En conséquence, la taille de l’horizon lors des premiers instants était trop faible pour avoir permis des échanges thermiques entre les particules de l’époque qui auraient conduit à l’équilibre thermique de l’Univers (*).

(*) Steven Weinberg a cependant affirmé le contraire [9].

⇒ Second problème : platitude
Le calcul de la courbure de l’Univers visible indique que ce dernier est « plat comme une limande ». Cependant cela ne présage en rien de la courbure de l’Univers à plus grande échelle, un peu comme la Terre nous semble plate à notre échelle sachant qu’elle possède en réalité dans son ensemble la courbure d’une sphère.

→ Sauvetage N° 1 du modèle standard
Afin de sauver le modèle standard, le physicien Alan Guth a imaginé en 1975 une période très brève d’expansion fulgurante de l’Univers à une vitesse largement supérieure à celle de la lumière : théorie de l’inflation cosmique.
L’Univers aurait alors enflé dans un rapport de 1050 durant une période de 10−33 secondes !
Dans la foulée, cette théorie explique la courbure en apparence quasi nulle pour l’Univers visible. Une inflation considérable d’un Univers courbe nous donnerait l’impression de platitude sur la petite portion visible de cet Univers.

La masse manquante
⇒ Troisième problème : stabilité des galaxies
Les étoiles des galaxies sont en rotation autour du centre de ces dernières. On a d’abord supposé qu’à l’instar des planètes en orbite autour des étoiles, la force centrifuge de rotation était parfaitement compensée par l’attraction gravitationnelle du centre des galaxies où l’on supposait une grande concentration de matière stellaire.
Hors, les calculs simples de forces correspondantes ont montré que les étoiles périphériques devraient être éjectées de leurs orbites galactiques sans même arriver à effectuer un tour complet !

⇒ Quatrième problème : courbure de l’espace au voisinage des amas
Des effets de lentille gravitationnelles prévues par la Relativité Générale ont été mesurés avec précision à partir des années 1990, ces dernières ont montré qu’il existe en très forte proportion une matière mystérieuse non détectée qui courbe l’espace.


Cette dernière obéit donc à la relativité mais elle n’interagit pas au niveau électromagnétique, autrement dit, les photons passent au travers sans encombre en étant cependant déviés gravitationnellement.

→ Sauvetage N° 2 du modèle standard
Ces observations ont donc imposé un nouveau sauvetage du modèle standard. Nos cosmologistes ont donc mis un nom sur la matière manquante : « matière noire ».
Cette matière, bien qu’indétectable, fut supposée obéir aux mêmes lois que la matière visible, soit une masse positive et attractive avec une température très basse (*) pour expliquer son absence de luminosité.
En anglais, cette « Matière Noire Froide » se dit « Cold Dark Matter » soit « CDM ».

(*) Une matière à très basse température n’émet aucun rayonnement.

La recherche de cette matière noire a donc fait l’objet de plusieurs expériences sous terre et dans l’espace :
1) Dans le LHC du CERN, recherche de particules noires et de photons noirs
2) Expérience EDELWEISS à Modane depuis 2009, Xénon 100 dans le tunnel de Gran Sasso en Italie (15 ans de recherche)
3) Sur la station spatiale internationale, expérience AMS (depuis 2011).
4) etc…

Malgré les gigantesques moyens engagés, les résultats sont jusqu’à maintenant tous négatifs, une synthèse de cet échec par le physicien Jean-Pierre Petit ici.
Les physiciens mainstream commencent donc sérieusement à considérer que la recherche fait fausse route, voir par exemple l’article du physicien Pierre Salati dans le numéro 554 de juillet-aout de la revue Ciel et Espace.

Le mystère du ralentissement des sondes Pioneer
Les deux sondes Pioneer 10 et 11 lancées en 1972 et 1973 furent conçues pour quitter le système solaire avec un message gravé sur une plaque destiné à d’hypothétiques extraterrestres.


Ces sondes étant équipées d’un générateur à plutonium ont continué à émettre des données pendant 40 années.
Il alors fut constaté que ces dernières étant en vol libre dans l’héliosphère subissaient une mystérieuse et anormale décélération d’origine inconnue : l’anomalie Pioneer.

Malgré quelques hypothèses non vérifiables, le mystère reste entier avec une force répulsive inconnue qui s’oppose à la trajectoire des sondes (une force attractive due à de l’hypothétique matière noire est aussi envisagée).

Le mystère du « Great Repeller »
Notre galaxie et le superamas Laniakea dont elle fait partie se déplacent à 630 km/s en direction d’une zone connue depuis longtemps appelée le « grand attracteur ».
Cependant, les astrophysiciens viennent de découvrir que cette dernière est également soumise à des forces répulsives émises par une autre zone en apparence vide appelée « Great Repeller » ou « Grand Repoussoir« .
Une équipe internationale avec l’université de Lyon a effectué une étude sur ce phénomène, PDF ici et vidéo ici.

Cette découverte est très importante car elle met en évidence des forces gravitationnelles qui semblent répulsives, ce qui est totalement nouveau.

⇒ Cinquième problème : l’accélération de l’expansion
En 1998, la mesure des vitesses de fuite des supernovas de type Ia produisit un nouveau coup de tonnerre dans le monde de la cosmologie.
En effet, contre toute attente, l’expansion de l’Univers était en accélération, alors que l’on pensait mesurer l’inverse en supposant que la gravitation devait ralentir cette dernière.

→ Sauvetage N° 3 du modèle standard
Nouveau sauvetage en catastrophe du modèle CDM.
Pour expliquer cette accélération, les cosmologistes ont inventé un nouveau terme, celui d’Énergie Noire.
Coté calculs, l’introduction de cette énergie noire dans les équations s’est traduite en ressortant de la naphtaline la fameuse constante cosmologique « Λ » (lambda) d’Einstein. La valeur de cette constante fut donc ajustée d’une manière ad-hoc aux mesures de l’accélération.

Voilà pourquoi le modèle standard de la cosmologie se nomme à l’heure actuelle ΛCDM pour « Lambda Cold Dark Matter ».

La situation concernant le contenu de l’Univers est donc résumée dans le schéma suivant :


La matière visible ne représenterait donc que 4% du contenu de l’Univers, tout le reste étant inconnu. Ceci résume bien l’état de crise majeure dans laquelle baigne la cosmologie moderne.

Aspect de l’Univers
A partir des observations à longues distances des galaxies et autres amas [5], il fut établi que la portion d’univers visible présente des alvéoles de matières entre lesquelles sont observées de grandes « bulles » vides d’un diamètre de 200 millions AL environ.

Toutes proportions gardées, si l’on compare l’Univers à…un emmental, on peut se demander par quel mécanisme se sont constitués les trous de notre Univers, d’autant que l’on vient de découvrir des effets gravitationnels répulsifs avec le « Great Repeller »…

 

E. CONCLUSION

Le domaine de la cosmologie sans cesse confronté à des observations de plus en plus précises impose à tout modèle de se conformer à ces dernières.
Comme nous l’avons vu, le modèle ΛCDM a évolué au cours du temps en y ajoutant de bric et de broc de nouvelles hypothèses ad-hoc (inflation, matière et énergie noires) pour répondre aux découvertes observationnelles .

Citons alors l’adage suivant :
« Il ne faut pas vendre la peau de la Grande Ourse avant de l’avoir tuée » (Étienne Klein)

Les dernières grandes avancées de la physique datent déjà d’il y a un siècle.
Nous vivons encore aujourd’hui sur ces acquis.

La Relativité Générale fut d’abord énoncés selon des concepts physiques et géométriques avant d’être dans un second temps mathématisée.

Pour sortir de l’impasse actuelle, il faut revenir à cette démarche en imaginant de nouveaux principes expliquant les dernières observation. Ces derniers devront également englober la théorie quantique ainsi que la relativité générale.
C’est seulement ensuite que cette nouvelle approche théorique devra être mathématisée afin de la rendre opérable.

Dans le noir absolu -sans jeu de mot- où se débat la cosmologie, n’y a-t-il aucun modèle alternatif suffisamment développé permettant de sortir de l’impasse actuelle ?

C’est ce que nous allons voir dans le prochain article.

(Article original ici).

Liens
[1] Histoire de l’univers – Partie 1 : Naissance et Topologie
[2] Le mur de la quantique (Sur ce site)
[3] Histoire de l’univers – Partie 2 : Introduction à la physique fondamentale (pour les nuls !)
[4] « Discours sur l’origine de l’Univers » – Étienne Klein
[5] Mille Milliards de soleils
[6] Histoire de l’univers – Partie 4 : Le Modèle standard de la physique
[7] Histoire de l’univers – Partie 3 : QED… Vous avez dit QED ?
[8] Le vide quantique : un nouveau continent à explorer
[9] « Les 3 premières minutes de l’univers » – Steven Weinberg (1977, réédition 1988)

Illustrations dans l’article tirées des BDs de Jean-Pierre PETIT (index ici)
« Le Big Bang » BD Lanturlu (Télécharger ici)
« 1000 milliards de soleils » BD Lanturlu (Télécharger ici)
« Cosmic Story » BD Lanturlu (Télécharger ici)



17 réactions


  • Zevengeur Zevengeur 20 novembre 2017 18:35

    Merci pour ce lien, je ne connaissais pas l’expérience Antares.

    Une recherche rapide semble montrer que pour l’instant ce détecteur n’a pas produit beaucoup de résultats. Seulement quelques neutrinos détectés sans connaitre leur origine, ce qui est normal au vu de leur très faible pouvoir d’interaction.

    C’est semble t’il un premier pas vers une « astronomie du neutrino ».

    Une vidéo ci-dessous sur la chasse aux Neutrinos :
    https://www.youtube.com/watch?v=meptecWv6uY


  • Shaw-Shaw Shawford 21 novembre 2017 11:52

    Bravo pour ce minutieux travail de vulgarisation. Mais on reste d’autant songeur sur ce qu’est en fait capable d’expliquer la science et elle seule de façon exclusive.

    En effet quand vous dîtes que ...(c)ontrairement à la physique fondamentale où les physiciens ont « décidé » depuis 30 ans de travailler sur des concepts purement mathématiques parfaitement invérifiables expérimentalement (théorie des cordes, trous noirs), la cosmologie a bénéficié de progrès inouïs dans le domaine des mesures, je vois vraiment pas comment on peut donner plus de crédit à quelque chose qui est incapable d’expliquer 96% de tout ce qui existe et qui de toute façon se termine par une aporie comme vous l’énoncez si bien au dessus.

    En fait c’est plutôt à se dire que plus ça va et moins science et métaphysique font bon ménage, surtout en ces temps où l’idéologie matérialiste et mécaniciste mainsteam se fait fort de pouvoir répliquer le vivant à l’identique.

    A mimima les plus utiles en ce moment sont sans aucun doute ceux du genre Michel Benasayg qui s’attachent à démontrer de la singularité du vivant, voir la conférence sur Ago.tv : http://www.agoravox.tv/actualites/societe/article/miguel-benasayg-la-singularite-du-75174
    et/ou qui postulent des voies d’expérimentation probantes sur le processus de la conscience comme Clément Dousset.


    • Zevengeur Zevengeur 21 novembre 2017 14:28

      @Shawford

      Votre remarque est pertinente, alors je vais développer un peu.

      Coté physique fondamentale, nous vivons encore aujourd’hui sur des théories élaborées il y a un siècle : relativité générale (RG) basée sur la gravité et théorie quantique (TQ) basée sur les 3 forces reliant les particules.
      Ces deux théories étant incompatibles, les physiciens ont cherché une théorie unique intégrant les 3 forces quantiques à la gravitation : la théorie des cordes était née.

      Là où le bas blesse, c’est que cette théorie a déjà mobilisé plus de 30 ans d’efforts et qu’on ose aujourd’hui nous annoncer que nous ne sommes pas à la veille de monter la moindre expérience permettant de la vérifier.

      De qui se moque t’on ?

      Pour la cosmologie, le contexte est différent.
      Le modèle standard, parti des observations et a été développé en parfaite compatibilité avec la RG et la TQ.
      Ce n’est que relativement récemment que des observations sont venues effondrer une partie du modèle, cependant ce dernier -dans son esprit- reste à mon sens valable.

      Il s’agit simplement (même si ce n’est pas si simple) de trouver des solutions pertinentes pour corriger les invraisemblances de ce dernier, ajoutées un peu en panique.
      N’oublions pas que la recherche de matière noire est un échec depuis plus de 20 ans, sans parler de l’énergie noire.

      Si vous avez eu le courage de lire mon article jusqu’au bout, vous aurez constaté que je suis en train d’en écrire la suite.
      (Suspense !)


    • Shaw-Shaw Shawford 21 novembre 2017 14:34

      @Zevengeur

      Et bien vous pourrez d’ores et déjà compter sur un lecteur attentif d’icelui. smiley smiley


    • Zevengeur Zevengeur 21 novembre 2017 14:37

      @Shawford

      Si vous voulez être dans les premiers lecteurs de cet article à paraitre, surveillez mon blog !

      https://zevengeur.wordpress.com/


  • Zolko Zolko 21 novembre 2017 13:26

    Article très détaillé, impressionnant.
     
    Mais il fait la même erreur que tous ceux qui traitent le sujet : le modèle cosmologique est faux, de façon prouvable, et pourtant on continue de l’utiliser : il n’y a aucune explication rationnelle à l’asymétrie entre matière et anti-matière, et l’inflation est une théorie ad-hoc dont se moquerait tout le monde dans n’importe quel autre domaine scientifique.
     
    Il est impossible que l’univers soit né d’un Big-Bang originel de 10−34m (dimension de Planck). Il est beaucoup plus probable que l’univers soit né à 1µm, juste après la période qu’on appelle l’inflation, et qu’il ait été créé plein de matière ordinaire, sans anti-matière. Et homogène. A la manière du jeux de la vie, que l’auteur connaît sûrement.
     
    Le seul hic de cette théorie est qu’il obligerait à la reconnaissance d’un certain Dieu créateur de l’Univers, ce que les scientifiques modernes s’interdisent.


    • Zolko Zolko 21 novembre 2017 13:29

      @Zolko : « l’univers soit né à 1µm »
       
      1µs bien-sûr


    • Zevengeur Zevengeur 21 novembre 2017 14:34

      @Zolko

      Notez que j’ai soigneusement mis en évidence les questions sans réponses du modèle standard cosmologique, et je vous renvoie à ce commentaire :
      https://www.agoravox.fr/tribune-libre/article/cdm-grandeur-et-decadence-du-198695#forum5058110

      Pour la question d’un éventuel Dieu créateur ou autre entité transcendante, le cas échéant, la science le mettra en évidence sinon, nous retombons dans les travers mystiques du passé.


    • Zolko Zolko 21 novembre 2017 14:53

      @Zevengeur : « la question d’un éventuel Dieu créateur ou autre entité transcendante, le cas échéant, la science le mettra en évidence »
       
      mais elle l’a déjà fait, elle l’a simplement renommé « Big-Bang », et elle prétend que grâce à ça la question disparaît. Mais ce n’est pas parce-qu’on utilise un autre nom que Allah, Yahvé, Gaia... que le principe change.
       
      Mon propos est différent : je prétends que le Big-Bang n’a jamais existé, que le monde n’a pas existé à t=0, et qu’il a commencé à exister à t=1µs. Du moment qu’on accepte que le monde a été créé – ce que les cosmologistes font – qu’il l’ait été à t=0 n’a pas plus de probabilité que t=1µs ! Et si il a été créé à t=1µs, 2 problèmes existentielles du Big-Bang disparaissent.


    • Zevengeur Zevengeur 21 novembre 2017 15:05

      @Zolko

      Hélas, vous remplacez une aporie par une autre.

      Si l’on considère que Dieu a créé le monde à t=1µs, alors il va falloir lancer des recherches afin de déterminer l’origine de Dieu !

      (Et hop, on remet sur le tapis une question philosophique débattue depuis plus de 2500 ans !)


    • Zolko Zolko 21 novembre 2017 16:04

      @Zevengeur : je sais, mais ce n’est pas différent avec le Big-Bang : qu’y-avait-il avant le Big-Bang ?
       
      On en arrive toujours au même point : la science ne s’occupe que du « comment » pas du « pourquoi » . Et le comment à t=1µs est plus facile à expliquer que le comment à t=0, pas la peine d’inventer des théories invérifiables (inflation), voire fausses (asymétrie matière–antimatière)


    • Zevengeur Zevengeur 21 novembre 2017 16:42

      @Zolko

      Dire que l’on ne sait rien en dessous du temps de Planck est exactement équivalent à dire que Dieu a créé l’Univers à t=1µs, d’ailleurs le « comment » du modèle standard démarre bien à environ t=1µs.

      Quand au pourquoi, la science ne semble pour l’instant pas beaucoup s’y intéresser, doxa matérialiste oblige !


  • fcpgismo fcpgismo 21 novembre 2017 16:22

    Si l’idée du multivers est juste elle permet aisément de se passer de cette formidable invention qu’est dieu ( formidable pour les caisses enregistreuses des vendeurs de croyances que sont les religions )

    Une infinité d’univers engendrera tôt ou tard un monde qui ressemble au notre. 
    finalement ni dieu ni maitre une expression qui a plus de sens que les bondieuseries !

    • Zevengeur Zevengeur 21 novembre 2017 16:37

      @fcpgismo

      Désolé de vous contredire mais multivers ou pas,
      on n’a toujours pas la moindre explication à la question de base :
      « comment tout cela a t’il pu apparaitre à partir d’un hypothétique néant absolu ? »

      Ceci étant, votre commentaire concerne le problème de la superposition des états quantiques, la théorie des multivers d’Everett (à laquelle je ne crois pas) peut en toute logique y répondre.

      Il y a une alternative beaucoup plus crédible avec la « théorie de la double causalité » de Philippe Guillemant (je ne développe pas plus ici),
      encore un article en projet !


    • Shaw-Shaw Shawford 21 novembre 2017 17:39

      @fcpgismo

      Sans recourir aux bondieuseries, on peut quand même aussi considérer que le principe premier, la vie, peut en elle-même être porteuse d’une intention de création d’un ordre transcendant qui ne se résout pas dans la seule intervention du chaos entropique et du hasard.

      C’est d’ailleurs ce qui permet d’apporter la plus rationnelle contestation au Multivers d’Everet dont parle Zevengeur qui émet l’hypothèse ridicule selon moi de faire apparaître une multitude de doubles de nous sans aucune relation consciente entre eux.

      C’est d’ailleurs le premier mérite de Guillemant de se focaliser sur la conscience qui est bel et bien la seule chose tangible et indivisible qui soit.


    • Zevengeur Zevengeur 21 novembre 2017 18:42

      @Shawford

      La conscience « principe fondateur et créateur », c’est peut être ça en effet le début de l’histoire.
      (Sans conscience, on ne serait pas en train de discuter ici !)


  • Zevengeur Zevengeur 2 février 2018 10:54

    Bonjour,

    La suite de cet article est disponible en avant première sur mon blog (avant publication sur Agoravox) :
    https://zevengeur.wordpress.com/2018/01/12/histoire-de-lunivers-partie-6-modele-janus-le-futur-de-la-cosmologie/

    Bonne lecture !


Réagir