Pourquoi tout est si sombre dans l'univers ?

TEMPS DE LECTURE ESTIMÉ : 19 MINUTES
 
Par Dr Amira Val Baker, astrophysicienne, le 07 février 2018
 
 
Quand un objet nous semble mystérieux ou quand nous ne le comprenons pas, nous aimons le décrire comme « noir » ; trou noir, matière noire, énergie noire.
 
C’est une des raisons pour laquelle le terme matière sombre/noire a été inventé, lequel a d’abord été proposé pour expliquer l’anomalie observée dans la vitesse de rotation des galaxies. C’est à dire que la vitesse rotationnelle observée des gaz et des poussières aux extrémités de la galaxie tournent à la même vitesse que les gaz et poussières proches du centre galactique. Cette anomalie a été remarqué en 1978 par Vera Rubin et W. Kent Ford, qui ont fait des mesures précises utilisant un nouvel instrument que Ford lui-même avait mis au point.
 
Au début, ils ont cru que leurs données étaient erronées, mais ensuite leurs résultats ont été corroborés par des observations ultérieures de la vitesse rotationnelle des galaxies, suggérant qu’en effet il y avait une anomalie entre ce qui était attendu et ce qui était observé !
 
Pourquoi tout est si sombre ? 
 
Bon, pour déterminer la masse d’un corps céleste, nous devons faire certains postulats sur la façon attendue dont les choses fonctionnent – c’est-à-dire que les lois connues de la physique sont prises en considération. Ces postulats ou lois sont ensuite appliquées à ce que l’on observe de tel sorte que l’on puisse en déterminer la masse. Or une mesure directe de la masse d’un corps céleste ne peut être réalisé – à la place les astronomes observent la lumière émise et comment elle varie avec le temps. Une analyse de la façon dont la lumière change avec le temps révèle la dynamique du système ; par exemple la vitesse, laquelle, basées sur les lois de la physique, permet de déterminer sa masse.
 
Par exemple, dans le cas des galaxies leur vitesse rotationnelle est calculée à travers la mesure de leur décalage de Doppler (Effet Doppler) de leur spectre lumineux. Ces vitesses alors calculées sont alors tracées en fonction de leur distance respective depuis le centre galactique, produisant une courbure de la rotation.
 
Pour mesurer le décalage de Doppler, les astronomes diffractent la lumière en utilisant un spectrographe (soit un prisme), permettant aux lignes spectrales – représentant les transitions électroniques entre les orbitales – d’être observées. Ces lignes spectrales vont être d’une longueur d’onde spécifique dépendant de leur transition électronique – mais la longueur d’onde va également subir un décalage, soit raccourcie ou allongée dû au déplacement du gaz vers ou dans le sens inverse à la ligne de visée de l’astronome. Cette technique est utilisée pour mesurer les vitesses rotationnelles.
 
Illustration de l'effet Doppler  
 
Pour déterminer la courbure rotationnelle de la galaxie, nous avons besoin d’observer la lumière émise depuis la galaxie. Cependant, la lumière visible des étoiles souffre de ce que l’on appelle des extinctions interstellaires – où la lumière ne peut pas traverser les nuages de poussières galactique – et ne sont, par conséquent, pas la meilleure source de lumière galactique. A la place, l’hydrogène neutre qui existe dans des régions à faible densité du milieu interstellaire et émet de la lumière à une longueur d’onde de 21 cm - connu comme la ligne d’hydrogène de 21cm – est utilisée. Dans le cas de l’hydrogène neutre – la radiation de longueur d’onde de 21 cm (soit 1420 MHz) provient de la transition entre 2 niveaux de l’état fondamental de l’hydrogène.
 
Maintenant, depuis les lois de la physique connues on peut admettre que la vitesse va changer avec la distance, où dans un système homogène ou strict – comme celui admit pour le noyau galactique – la vitesse sera proportionnelle à la distance, ex : la vitesse augmente avec le rayon.
 
 
Donc, en prenant tout cela en compte nous nous attendrions à une courbure rotationnelle un peu comme cela,
 
 Cependant, même avec cette observation plus précise utilisant la ligne d’hydrogène de 21 cm, la courbure résultante de la rotation n’est pas celle attendue,
 
Donc comment pouvons-nous expliquer cette courbure rotationnelle – pourquoi sa vitesse s’accélère pour ensuite se stabiliser ? En se basant sur ce que l’on sait et ce dont nous venons juste de parler, on pourrait supposer que la constante de proportionnalité dans les équations régissant les dynamiques Keplerienne ne devrait PAS être constante. C’est à dire – la masse aurait besoin d’augmenter par rapport au rayon, maintenant ainsi la vitesse plus ou moins constante. Étant donné qu’il n’y a pas de masse supplémentaire observée il a ainsi été proposé que la masse supplémentaire devait être une différente sorte de masse étant indétectable, d’où le terme « noire ».
 
Aujourd’hui bien que le concept de matière noire semble récent, il avait déjà été proposé par les paires de Zwicky – qui en 1933, à travers une étude des vitesses galactique dans l’Amas de Coma, concluait que la masse totale requise pour préserver l’Amas dans son entièreté devait être 400 fois supérieure que ce qui été observé [1][2]. Ce constat a ensuite été repris dans les travaux de beaucoup d’autres depuis et est toujours un secteur actif de la recherche. Aujourd’hui il est calculé qu’environ 85 % de toute la matière est de la matière « noire ».
 

Donc, qu’est-ce que la matière noire si ce n'est une entité inconnue ? 

Peu après que l’idée de matière noire ait pour la première fois pris de l’ampleur, de nombreuses théories ont été mises en avant proposant des origines possibles, ex: Des corps « noir » se sont créés à l’aube de l’Univers [3] ; des rémanences sombres d’étoiles de Population III ( Les étoiles primordiales formées peu après le big-bang et ainsi composées uniquement de gaz primordiaux (Hélium et Hydrogène)) telles les naines blanches, étoiles à neutron ou trous noirs [3][4] ; et de particules élémentaires dites exotiques tels des neutrinos massifs [5][6].
 
L’idée de Neutrinos massifs a été mise de côté momentanément lorsque la masse d’un électron neutrino a été mesurée à 30 eV [7] et un argument basé sur le principe d’exclusion de Pauli – qui établit que 2 (ou plus) fermions identiques ne peuvent occuper simultanément le même état quantique – a montré que les halos respectifs des galaxies ne pouvaient pas être fait de neutrinos d’une masse si faible [8].
 

WIMPs

Pléthore de candidats furent par conséquent exposés à la lumière du jour, leur principale caractéristique étant le fait qu’ils n’aient pas été détecté dans la gamme d’ondes électromagnétiques connue. Il était ainsi admis que les corps de matière noire n’interagiraient pas significativement avec le spectre électromagnétique, mais seulement via la gravité ou toute autre force aussi faible que la force faible, ou plus faible que la force nucléaire faible. C’est à dire qu’ils sont plutôt timides et qu’ils ne communiquent pas trop – un peu comme certains scientifiques.
 
Lors de la formation de l’Univers, la matérialisation des particules et anti-particules depuis l’énergie radiante menant à la production de paires – et la destruction conséquente à travers l’annihilation - était en équilibre. C’est à dire que le rythme de production de particules et de photons était pour tous deux le même considérant leur rythme de destruction - tels qu’aucun photon et/ou particule n’était permanent - ne faisant que fluctuer continuellement en et hors de l’existence. Au fur et à mesure que l’Univers se refroidissait, l’énergie radiante ne devint plus suffisante pour la production équilibrée de paires et ainsi le nombre de particules et de photons se mit à diminuer jusqu’à ce que la probabilité d’interaction de la particule atteigne un niveau critique, tel que l’annihilation des particules cessa, et le nombre de particules (la densité) se stabilisa. Pour une particule spécifique, la densité numérique pour laquelle la stabilisation puisse avoir lieu dépend de la masse de la particule. Un candidat à la matière noire aurait besoin d’être suffisamment massif et lent (sub-atomiquement parlant), tel qu’il pourrait se regrouper avec ses semblables pour s’arranger selon la structure que nous observons aujourd’hui. C’est la vision générale de la matière noire et fait référence au modèle de Matière Noire Froide.
 
La Supersymétrie, l’une des théories candidates pour expliquer la gravité quantique, qui se concentre sur la relation entre les particules ordinaires (les fermions) et les entités transporteuses de forces (les bosons) – prédit de nouvelles particules élémentaires qui conviennent à la description d’une Particule Massive à Interaction Faible, PMIF (soit Weakly Interacting Massive Particle, d’où le terme WIMP), ex : higgsinos, sneutrinos, squarks, sélectrons.
 
 
La plus légère de ces particules supersymétriques stables est le neutralino qui se trouve avoir une densité numérique calculée approximativement égale à la densité connue de la matière noire. Le neutralino est ainsi le candidat le plus probable pour une PMIF et possédant une masse comprise dans les niveaux d’énergie pouvant être détectés dans des accélérateurs de particules tel le LHC (pour Large Hadron Collider). Notez toutefois que la détection d’une PMIF au LHC ne serait pas directe, mais plutôt dans la forme d’énergie manquante d’un ordre spécifique. Cependant, aucune telle détection n’a encore été faite.
 
La détection directe d’une PMIF (Particule Massive à Interaction Faible) serait la confirmation idéale de la matière noire, cela dit le fait qu’elles n’interagissent que faiblement rend la probabilité qu’elles interagiront un jour très faible, sans compter que nous puissions jamais détecter une énergie de si faible intensité. Toutefois, il y a nombre d’expériences dédiées à la détection d’une PMIF avec de la matière atomique. Selon le constituant du détecteur ex : Silicium, Germanium, Iodure de Sodium etc.., des phonons – vibrations du réseau atomique – et/ou scintillement – luminescence obtenue par des électrons ionisés - peuvent être détectés. Pour réduire les évènements de fond, ces expérimentations sont opérées profondément sous terre et à de très basse températures de façon à être protégées de l’influence des rayons cosmiques et où l’agitation thermique est minimisée. Bien que de nombreuses expériences soient activement en recherches des PMIF, ex : Deep Underground Science and Engineering Laboratory (DUSEL), Large Underground Xenon experiment (LUX), Sudbury Neutrino Observatory Laboratories (SNOLAB) et le China Jinping Underground Laboratory (CJPL), à l’heure d’aujourd’hui aucune PMIF n’a encore été détecté.
 
Ces méthodes expérimentales souterraines font place à une nouvelle source de détection – à travers la détection de neutrinos. Si on admet que les PMIF sont les particules de la matière noire et qu’elles existent dans les halos galactiques, alors elles auraient dû passer à travers notre espace local et au bout d’un moment, dans les derniers milliards d’années, elles auraient dû se retrouver disséminées par les noyaux atomiques des particules environnantes. Cette perte d’énergie aurait piégé les PMIF dans le puits gravitationnel du Soleil et/ou de la Terre jusqu’à ce que la densité numérique ait suffisamment crût pour que l’annihilation ait lieu. L’annihilation des PMIF résulte en des neutrinos de haute énergie, donc basé sur ce raisonnement vous vous attendriez à une émanation d’un flot important de neutrinos venant du Soleil. Les neutrinos produits lors de réactions nucléaires dans le noyau du Soleil possède une énergie beaucoup plus faible que ceux produits lors de la désintégration de PMIF. Par ailleurs, ces neutrinos de haute énergie interagissent dans l’atmosphère de la Terre pour produire des muons. Cependant, les muons sont également créés à travers l’interaction de rayons cosmiques avec l’atmosphère de la Terre, donc encore une fois, les détecteurs sont placés profondément sous Terre pour réduire l’activité de fond. Les détecteurs tels que l’Antartic Muon And Neutrino Detector Array (AMANDA), le South Pole Neutrino Observatory (IceCube) et l’Astronomy with a Neutrino Telescope and Abyss environnemental RESearch project (ANTARES) sont tous à la recherche d’un signal, mais les méthodes se révèlent également non concluantes.
 
L’annihilation des PMIFs produit également des rayons gamma, ce qui a été un autre axe de recherche pour ces particules insaisissables de matière noire. On s’attend à ce que ce type d’annihilation ait lieu dans les halos galactiques et il pourrait être détecté à travers un excès de rayons gamma. Toutefois, la distinction entre les rayons gamma issus de l’annihilation et ceux issus de sources astrophysiques variées s’est révélée être trop compliqué. Par exemple une étude récente utilisant les données du Large Area Telescope du Fermi Gamma-ray Space Telescope de la NASA ont suggéré que l’origine excessive de l’émission de rayon gamma viendrait plutôt d’une population bien connue de pulsars.
 
Aussi nombreuses les myriades d’expériences et de techniques de recherches sont-elles, elles n’ont révélé aucun résultat positif jusque-là, donc il semblerait que le candidat le plus prometteur – les PMIFs – fait finalement face à l’échec. Une équipe d’éminents scientifiques de ce domaine ont participé à une conférence sur de nouveaux concepts de la matière noire mais ont été invité à regarder ailleurs et à faire preuve de raison. Malgré un échec ils ont été invité à conserver le même angle d’approche pour l’explication de la matière noire.
 
Détecteur de neutrinos

Les MACHO

Un des candidats alternatifs à la matière noire qui pourrait régler une partie de cette masse manquante sont les MACHO (en anglais MAssive Compact Halo Objects). Contrairement aux PMIF, les MACHO sont baryonique (c’est-à-dire lourd, comme le proton ou le neutron) et apparaissent tels des objets astronomiques comparables à des objets de la masse de Jupiter ; naines brunes ; trou noir rémanents d’étoiles de l’univers primordial, trous noirs primordiaux, étoiles à neutron et naines blanche. Si le halo galactique été rempli d’objet de ce genre, ils ne seraient pas détectés par leur émission ou leur absorption de lumière. La détection d’un MACHO pourrait être réalisé grâce au phénomène connu sous le nom de microlentille, où la lumière d’une étoile distante est magnifiée lorsqu’un objet de type MACHO passe devant elle.
 
 
 
 
 
La matière non-baryonique possède une densité bien supérieur (par un facteur d’environ 5) que celle de la matière baryonique et la gravité est trop faible pour faire émerger les structures actuelles depuis les conditions si équilibrées observées dans le spectre des micro-ondes dans le fond diffus cosmologique (en anglais CMB pour cosmic micro-wave background). Une masse supplémentaire aurait accéléré le processus, mais seulement si elle n’avait pas interagi avec la lumière de la même façon que la matière baryonique ordinaire ne le fait. Il en était ainsi conclu que la majorité de la matière noire est vraisemblablement non-baryonique et que si les MACHOs existent, alors ils ne seraient responsables que d’une petite fraction de la matière noire essentiellement présente dans les halos des galaxies spirales.
 

Les Axions

Les axions sont un autre type de candidat viable à la matière noire. Contrairement aux PMIF, qui ont eux été hypothétiquement créé thermiquement au moment de l’univers primordial, on suppose que les axions ont été créé sans action thermique lors de la transition d’une phase à une autre d’un événement cosmologique. Ils ont d’abord été proposé dans les années 1970 pour expliquer le problème de la CP forte – autrement dit C pour la charge et P pour la parité (inversion spatiale). La problématique est que, on ignore la raison pour laquelle les chromodynamiques quantique (CDQ) ne semblent pas violer la symétrie de la CP, quand en principe elles permettent une telle violation.
 
Le fait que nous vivions dans un Univers où la matière est dominante indique que les lois de la physique ne sont pas les mêmes pour la matière que pour l’antimatière et qu’il doit y avoir une violation de la symétrie fondamentale de la nature – connu sous la violation de la CP [9]. Cependant, bien que ce soit le cas pour les interactions faibles [10], ce n’est pas le cas pour les interactions électromagnétiques et les interactions fortes et est ainsi connue comme le problème de la CP forte. Les axions ont alors été mis en avant, par Roberto Peccei et Helen Quinn, pour représenter l’idée, là où les potentiels axions élimineraient complètement un terme violant la Charge Paritaire ayant été introduit dans les calculs des CQD. Depuis 2016 l’Axion Dark Matter Experiment de son nom anglophone essaie de synchroniser une antenne micro-onde à la fréquence de diffusion de la matière noire – ce qui n’a pas abouti. La dernière étude conduite par l’Institut Paul Scherrer (ISP) n’a également pas aboutie. L’Ultra Cold Neutron Source (UCN)à l’ISP a d’abord été utilisé pour déterminer le moment dipolaire électrique d’un neutrino mais les mesures au cours du temps pourraient révéler la fluctuation d’une fréquence cohérente et homogène – ce qui serait l’indicateur d’une interaction entre le neutron et la particule hypothétique axion.
 
Les axions sont 10 milliers de trillions de trillions ( 10 exposant 29 ) de fois moins lourd qu’un électron (9,109x10^-21g) et pourraient théoriquement se condenser en un condensat de Bose-Einstein et devenir ainsi le superfluide hypothétisé de la matière noire responsable de la rotation de la galaxie, contrairement à la matière noire conventionnelle responsable des amas galactiques. Toutefois, il a depuis été établit sur la base que les axions sont faibles et attractifs, et que cela requiert des particules superfluides de la matière noire pour être répulsives.
 
Il est peut-être temps d’allumer les lumières et d’apporter un peu de clarté sur ces propos !
Pour les novices commençons du concept que tout est connecté et que c’est le cas, il n’y aurait pas de particule qui n’interagirait que par la gravité. En fait, peut-être, je dis bien peut-être qu’il n’y a pas de particule de matière « noire » après tout – et qu’à la place c’est vers la physique que nous devons nous pencher.
 
C’est le constat de Mordehai Milgrom qui a proposé une théorie sur les dynamiques de Newton modifiées (MOND pour Modified Newtonian Dynamics) [11][12][13]. L’idée centrale de MOND est l’invariance des échelles physiques – autrement dit, une physique qui ne change pas en fonction des échelles – semble évident n’est-ce pas ? Cependant, ce n’est pas le consensus commun, qui stipule constamment que les lois de la physique changent suivants les échelles ex : il y a la mécanique quantique à l’échelle quantique et la relativité générale pour les grandes échelles.
 
Et si ce n’était pas le cas et que nous vivions plutôt dans un Univers à échelles invariantes ex : une vision unifiée de la physique où la gravité quantique est le modèle s’étendant à toutes les échelles ?
 
C’est en accord avec ce qu’a dit Dirac (1973) que « … les équations exprimant les lois fondatrices de la Physique devraient être invariantes sous le plus large groupe de transformations possible. C’est le cas des équations de Maxwell sur l’électrodynamique qui, en absence de charge et de courant montre la propriété d’une invariance d’échelle » [14].
Milgrom a fait un pas en avant intéressant et a introduit la physique à invariance d’échelle à basse accélération en dessous d’une limite critique qui est définit dans le cadre du modèle. Depuis cette approche, le modèle de MOND prédit avec succès les effets dynamiques observés dans les galaxies aussi bien naines qu’elliptiques ou encore spirales etc.., et prédit également la corrélation entre la luminosité d’une galaxie et sa vitesse de rotation, connu comme la relation de Tully-Fisher.
 
 
 
 
Cette invariance d’échelle sous-jacente au cadre de MOND, où la gravité est une propriété émergente, est aussi présumée par Erik Verlinde dans sa théorie de la gravité émergente. Les modèles conceptuels de Verlinde utilisent la théorie de l’information quantique, la théorie des cordes et la physique des trous noirs pour suggérer que l’espace-temps et la gravité émergent tous les deux d’interactions quantiques intriquées. Cette gravité émergente contient une force additionnelle qui, selon Verlinde, peut expliquer les phénomènes observés dans les galaxies et les amas étant présentement attribués à la matière noire.
 
André Maeder a présenté une théorie similaire qui admet l’invariance d’échelle. Très semblable à celle de MOND, il définit une limite où l’invariance d’échelle est applicable aux grandes échelles (ex : faibles accélérations dans MOND). Puis, tout comme Verlinde il a trouvé une force additionnelle qui s’oppose à la gravité. Cette force n’est faible qu’à de très basses densités ex : sur Terre cette force serait trop faible pour provoquer quelque différence mesurable, mais à l’échelle galactique elle est assez forte pour maintenir les galaxies en rotation toutes ensemble sans besoin de matière noire. Les modèles de Maeder utilisent un nouveau système coordonné et expliquent brillamment la vitesse de rotation des galaxies individuelles et la surprenante vitesse élevée des galaxies dans les amas de galaxies, comme l’accélération de l’énergie qui est habituellement attribuée à l’énergie noire [15][16][17].
 
Ces modèles de Milgrom, Verlinde et Maeder offrent tous un regard intéressant sur la matière noire, où, au lieu de regarder pour une nouvelle particule, cette physique est adressée à la prise en compte des attributs de la matière noire. Toutefois, tout le monde n’en est pas convaincu notamment David Spergel, qui dit que la théorie de Maeder, ou n’importe quelle nouvelle théorie qui tente d’expliquer la matière noire, devrait coïncider avec toutes les données cosmologiques ex : la plus claire évidence pour l’existence de la matière noire est le fond diffus cosmologique – la radiation laissée par le Big-Bang – qui lequel possède des différences de températures non explicables sans la présence de matière noire. Selon Spergel, le Modèle de la Matière Noire Froide coïncide très bien avec les données, alors que ce n’est pas le cas des théories de Maeder. Néanmoins, la validité d’un tel modèle a été récemment remis en question dans un papier par une équipe d’astrophysiciens étudiant les cinématiques des galaxies satellites.
 
Dans tous les cas, Spergel croit aussi que les théories de Maeder ne seraient pas capables d’expliquer les effets de lentilles gravitationnelles qui sont observés autour de certaines galaxies et qui ne peuvent s’expliquer que par une présence de masse additionnelle – masse noire ! Curieusement Maeder fait une conclusion similaire à propos des Dynamiques Newtoniennes Modifiées et déclare que comme c’est une théorie classique ça ne peut pas être compris dans le modèle cosmologique [17].
 
Il y a beaucoup d’autres théories alternatives pour la gravité qui réussissent à enlever le besoin de matière noire et énergie noire, mais ces modèles sont toujours en cours de progression et ne peuvent pas encore expliquer toutes les caractéristiques de la matière.
Par ailleurs - et possiblement avant tout - ces modèles se limitent à l’invariance d’échelle. Si nous admettons une approche unifiée avec une invariance d’échelle, où n’importe quelle dilatation et contraction de l’espace ne changerait pas la physique, alors on assumerait ce modèle comme valide.
 
La physique unifiée d’Haramein, dans son modèle holographique généralisé, offre une approche telle que l’invariance d’échelle est valide à travers toutes les échelles. Dans son modèle, la masse de toutes les particules, des étoiles, des galaxies et de tout système résulte et émerge du trou noir central qui maintient chacun de ces systèmes. La masse manquante requise pour expliquer les anomalies des observations sous la forme d’une particule n’est ainsi plus nécessaire, et à la place peut être prédite directement depuis la physique de l’approche holographique générale. Le modèle holographique généralisé prédits avec succès la masse du proton et de l’électron, donc, qu’en est-il de la masse des systèmes de grande échelle ?
 
L’écart entre la densité du vide à l’échelle quantique et à l’échelle cosmologique – connu comme la catastrophe du vide – a été résolu en utilisant le modèle holographique général, dans lequel le changement de densité est le résultat direct de l’influence du modèle holographique sur la physique des Invariances d’Echelles. Ce modèle est par conséquent valide du très petit au très grand et est très probablement applicable à toutes les échelles. La question est alors peut-on prédire la masse observée de notre galaxie en se basant sur le modèle holographique généralisé ? Des réponses ici.
 
 
 
Sources:
 
1. 1 F. Zwicky, "Die Rotverschiebung von extragalaktischen Nebeln," Helvetica Physica Acta, vol. 6, pp. 110-127, 1933.
2. F. Zwicky, "On the Masses of Nebulae and of Clusters of Nebulae," ApJ, vol. 86, p. 217, 1937.
3. S. D. M. White and M. J. Rees, M.N.R.A.S., vol. 183, no. 341, 1978.
4. B. J. Carr, J. R. Bond and W. D. Arnett, ApJ, vol. 277, pp. 445-469, 1984.
5. S. S. Gershtein and Y. B. Zel'dovich, "Rest Mass of Muonic Neutrino and Cosmology," ZhETF Pis ma Redaktsiiu, vol. 4, p. 174, 1966.
6. R. Cowsick and J. McClelland, "An upper limit on the neutrino rest mass," Physical Review Letters, vol. 29, no. 10, 1972.
7. F. Reines, H. W. Sobel and E. Pasierb, "Evidence for Neutrino Instability," Phys. Rev. Lett., vol. 45, p. 1307, 1980.
8. S. Tremaine and J. E. Gunn, "Dynamical role of light neutral leptons in cosmology," Phys. Rev. Lett., vol. 42, no. 6, pp. 407-410, 1979.
9. A. d. Sakharov, "Violation of CP invariance, C asymmetry, and baryon asymmetry of the Universe," Pisma Zh. Eksp. Teor. Fiz, vol. 5, pp. 32-35, 1967.
10. C.-S. Wu, "Experimental Test of Parity Conservation in Beta Decay," Phys. Rev, vol. 105, p. 1413, 1957.
11. M. Milgrom, Astrophys. J. , vol. 270, p. 365, 1983a.
12. M. Milgrom, Astrophys. J. , vol. 270, p. 371, 1983b.
13. M. Milgrom, Astrophys. J. , vol. 270, p. 384, 1983c.
14. P. A. M. Dirac, "Dirac, P. A. M. 1973,," Proceedings of the Royal Society of London Series A, vol. 333, p. 403, 1973.
15. A. Maeder, "An Alternative to the ΛCDM Model: The Case of Scale Invariance," ApJ, vol. 834, no. 2, 2017.
16. A. Maeder, "Scale-invariant Cosmology and CMB Temperatures as a Function of Redshifts," ApJ, vol. 847, no. 1, 2017.
17. A. Maeder, "Dynaical effects of the scale invariance of the empty space: the fall of dark matter?," ApJ, vol. 849, no. 2, 2017
 
 
 Unified Science Course  Unified Science Course  
Partagez cet article avec vos amis !

 


Inscrivez-vous gratuitement au Cours de Science Unifiée en ligne !

 
Close

50% Complete

Two Step

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua.