Chapter Content
Alors, euh, voilà, je vais vous parler un petit peu, heu, d'un sujet assez vaste, hein. En gros, on va parler des particules, des atomes... vous voyez le genre ? C'est... c'est assez dingue, quand on y pense.
En fait, tout a commencé... enfin, pas tout a commencé *vraiment* là, mais bon, un moment clé, c'est quand ce scientifique anglais, C.T.R. Wilson, en 1911, avait l'habitude d'aller au sommet du Ben Nevis, une montagne en Écosse. Il étudiait la formation des nuages. Il s'est dit, "Tiens, il doit y avoir un moyen plus simple que de se geler les miches là-haut!".
Du coup, il est retourné à Cambridge, au Cavendish Laboratory, et il a construit un espèce de... comment dire ? Une chambre à brouillard artificielle. Une sorte de petit appareil où il pouvait refroidir et humidifier l'air, et créer, euh, un semblant de nuage en labo. Et ça a marché, figurez-vous !
Mais le truc, c'est que, surprise ! Il y a eu un effet secondaire assez inattendu. Quand Wilson envoyait des particules alpha à travers sa chambre à brouillard, ça laissait une trace bien visible, un peu comme... comme les traînées de condensation des avions. Eh bien, il venait d'inventer un détecteur de particules ! Et, du coup, il avait une preuve tangible que les particules subatomiques, ça existait bel et bien. Dingue, non ?
Après, il y a eu d'autres scientifiques au Cavendish qui ont créé des faisceaux de protons encore plus puissants. Et puis, Ernest Lawrence, à Berkeley, en Californie, a construit le fameux cyclotron, aussi appelé "atom smasher", un "briseur d'atomes", quoi. C'était un peu comme ça qu'on appelait ces machines à l'époque. Le principe, en gros, c'était toujours le même: on prenait un proton ou une autre particule chargée, on l'accélérait à fond le long d'une piste, parfois en cercle, parfois en ligne droite, et puis... BOUM! On le faisait rentrer en collision avec une autre particule. Et après, on regardait ce qui volait en éclats. On ne peut pas dire que c'est de la science, à proprement parler, mais ça marche plutôt bien !
Et, à force de construire des machines de plus en plus grandes, de plus en plus ambitieuses, les physiciens ont commencé à découvrir, ou à déduire, l'existence d'une quantité incroyable de particules. Des pions, des muons, des hypérons, des mésons, des kaons, le boson de Higgs... la liste est longue. Même les physiciens commençaient à en avoir un peu marre. Un jour, un étudiant a demandé à Enrico Fermi le nom d'une particule, et Fermi a répondu: "Si je me souvenais du nom de toutes ces particules, je serais botaniste !"
Aujourd'hui, les noms des accélérateurs de particules font penser à des armes sorties d'un film de Flash Gordon: le Super Proton Synchrotron, le Large Electron-Positron Collider, le Large Hadron Collider, le Relativistic Heavy Ion Collider... La puissance utilisée est tellement énorme que certains de ces appareils ne peuvent fonctionner que la nuit, pour que les habitants des villes voisines ne remarquent pas que la lumière faiblit quand la machine se met en marche. Et ces machines permettent d'accélérer les particules à des vitesses folles. Un électron peut parcourir 47 000 tours dans un tunnel de 7 kilomètres en moins d'une seconde !
Il y a même eu des craintes, hein, que les scientifiques, dans leur enthousiasme, créent accidentellement un trou noir, ou même ce qu'on appelle un "strangelet". En théorie, ces particules pourraient interagir avec d'autres particules subatomiques et provoquer une réaction en chaîne complètement incontrôlable. Bon, si vous êtes en train de lire ou d'écouter ça, c'est que ça ne s'est pas produit !
Trouver ces particules, c'est tout un art. Non seulement elles sont minuscules et rapides, mais en plus, elles disparaissent en un clin d'œil. Certaines particules peuvent apparaître et disparaître en 0,000 000 000 000 000 000 000 001 seconde. Même les particules instables les moins énergiques ne vivent pas plus de 0,000 000 1 seconde.
Et puis, il y a les neutrinos. Eux, ils sont presque impossibles à attraper. Chaque seconde, des trillions et des trillions de ces minuscules particules, presque sans masse, arrivent sur Terre. La plupart sont émis par les réactions thermonucléaires du soleil. Et ils traversent la planète de part en part, y compris vous et moi, comme si la Terre n'existait même pas. Pour en attraper quelques-uns, les scientifiques doivent utiliser des détecteurs souterrains, souvent dans des mines désaffectées, et utiliser des réservoirs remplis avec des milliers de mètres cubes d'eau lourde, parce que ces endroits sont moins exposés à d'autres types de radiations.
Très rarement, un neutrino qui passe va percuter le noyau d'un atome dans l'eau, et ça va produire un petit flash d'énergie. En comptant ces petits flashs, les scientifiques peuvent en apprendre davantage sur la nature fondamentale de l'univers. En 1998, des chercheurs japonais ont annoncé que les neutrinos avaient bel et bien une masse, mais très faible, environ un millionième de la masse d'un électron.
Aujourd'hui, le vrai problème, c'est le coût. La recherche de particules, ça coûte très cher. En physique moderne, il y a une sorte de relation inverse assez amusante entre la taille de ce qu'on cherche et la taille des machines qu'il faut construire. Le CERN, l'Organisation Européenne pour la Recherche Nucléaire, c'est presque une petite ville. C'est à cheval sur la frontière franco-suisse, ça emploie des milliers de personnes et ça couvre plusieurs kilomètres carrés. Le CERN a une rangée d'aimants plus lourds que la Tour Eiffel, et ils sont entourés par un tunnel souterrain d'environ 26 kilomètres de long.
Quelqu'un a dit, "Casser un atome, c'est facile, il suffit d'allumer une lampe". Mais pour casser un noyau atomique, il faut beaucoup d'argent et beaucoup d'électricité. Et pour casser des particules en quarks, qui sont les particules qui constituent les particules, il faut encore plus d'électricité et encore plus d'argent. Des térawatts d'électricité et un budget équivalent à celui d'un petit pays d'Amérique centrale. Le nouveau Large Hadron Collider du CERN, qui devait entrer en service en 2005, devait produire 14 térawatts d'énergie, et il a coûté plus de 1,5 milliard de dollars.
Ce projet a eu des retombées pratiques. Le World Wide Web, le web, internet, c'est un dérivé du CERN. C'est un scientifique du CERN, Tim Berners-Lee, qui l'a inventé en 1989.
Mais ces chiffres, c'est de la rigolade comparé à l'énergie que le Superconducting Super Collider aurait pu produire et au coût de sa construction. Dans les années 1980, on a commencé à construire le Superconducting Super Collider près du Texas, aux États-Unis. Mais ça s'est mal terminé. Ce projet, il avait pour but de permettre aux scientifiques de recréer les conditions qui existaient dans les premiers milliardièmes de seconde de l'univers, pour explorer la "nature ultime de la matière". On voulait envoyer des particules dans un tunnel de 84 kilomètres de long, et leur donner une énergie de 99 térawatts. Un truc de fou. Mais ça coûtait trop cher. On parle de 8 milliards de dollars, puis 10 milliards, et des centaines de millions de dollars par an pour le faire fonctionner.
C'est peut-être le meilleur exemple de gaspillage d'argent de l'histoire. Le Congrès américain a dépensé 2,2 milliards de dollars avant d'annuler le projet, alors qu'un tunnel de 22 kilomètres de long avait déjà été creusé. Du coup, les Texans peuvent se vanter d'avoir le trou le plus cher de l'univers.
Après l'abandon du Super Collider, les physiciens des particules ont revu leurs ambitions à la baisse. Mais même les projets plus modestes peuvent coûter très cher. On a proposé de construire un observatoire de neutrinos dans une mine désaffectée, la mine Homestake, dans le Dakota du Sud. Le coût : 500 millions de dollars, sans compter les frais de fonctionnement annuels. Et puis, il y avait aussi 281 millions de dollars de "frais de conversion généraux". Pendant ce temps, un accélérateur de particules à Fermilab, dans l'Illinois, a coûté 260 millions de dollars juste pour du matériel neuf.
En bref, la physique des particules, c'est une affaire qui coûte cher. Mais c'est aussi une affaire qui rapporte gros. Aujourd'hui, on connaît beaucoup de particules. Bien plus de 150, et on en soupçonne l'existence d'une centaine d'autres. Mais le problème, c'est que, pour reprendre les mots de Richard Feynman: "C'est difficile de comprendre la relation entre toutes ces particules, ce que la nature veut qu'elles fassent, comment elles sont liées les unes aux autres". À chaque fois qu'on ouvre une boîte, on trouve une autre boîte fermée à l'intérieur. Certains pensent qu'il existe des tachyons, des particules qui se déplacent plus vite que la lumière. D'autres espèrent trouver le graviton, la particule qui est à l'origine de la gravité. Il est difficile de dire jusqu'où on est allés dans notre quête. Carl Sagan, dans son livre "Cosmos", disait que si on plongeait au plus profond d'un électron, on découvrirait que c'est lui-même un univers, ce qui rappelle les histoires de science-fiction des années 1950. "À l'intérieur, des quantités d'autres particules beaucoup plus petites forment l'équivalent de galaxies et de structures plus petites, qui sont elles-mêmes le niveau suivant d'univers, et ainsi de suite pour toujours, un processus de plongée progressive, des univers dans des univers, à l'infini – et la même chose vers le haut."
Pour la plupart d'entre nous, c'est un monde impénétrable. Aujourd'hui, même pour lire un guide d'introduction à la physique des particules, il faut surmonter des obstacles linguistiques considérables. Genre, "Le pion chargé et l'anti-pion se désintègrent respectivement en un muon plus un anti-neutrino et en un anti-muon plus un neutrino, avec une durée de vie moyenne de 2,603 x 10^-8 secondes; le pion neutre se désintègre en deux photons, avec une durée de vie moyenne d'environ 0,8 x 10^-16 secondes; le muon et l'anti-muon se désintègrent respectivement en..." Et ça, c'est tiré d'un livre de Stephen Weinberg, un auteur (normalement) accessible, écrit pour le grand public !
Dans les années 1960, Murray Gell-Mann, un physicien du Caltech, a essayé de simplifier les choses en inventant une nouvelle classification des particules qui, selon Stephen Weinberg, a "dans une certaine mesure rendu à nouveau compréhensible la masse des hadrons". Les hadrons, c'est un terme générique que les physiciens utilisent pour désigner les protons, les neutrons et d'autres particules qui sont soumises à la force nucléaire forte. La théorie de Gell-Mann postulait que tous les hadrons étaient constitués de particules plus petites, encore plus fondamentales. Son collègue Richard Feynman voulait appeler ces nouvelles particules "partons", mais ça n'a pas marché. Elles ont finalement été appelées quarks.
Gell-Mann a tiré ce nom d'une phrase du roman "Finnegans Wake" de James Joyce : "Three quarks for Muster Mark!". Les physiciens avertis prononcent "quarks" comme "storks" ou "larks" (cigognes ou alouettes, en anglais), bien que Joyce ait presque certainement pensé à la prononciation de ce dernier. La simplicité fondamentale des quarks n'a pas duré longtemps. Au fur et à mesure qu'on en apprenait davantage sur les quarks, il a fallu les classer plus finement. Bien que les quarks soient trop petits pour avoir une couleur, un goût ou toute autre caractéristique chimique identifiable, ils ont été divisés en six catégories – up, down, strange, charm, top et bottom – que les physiciens appellent curieusement leurs "saveurs"; ils ont ensuite été divisés en trois couleurs : rouge, vert et bleu. On soupçonne que ces noms ont été utilisés à l'origine en Californie pendant l'ère psychédélique. Ce n'est pas tout à fait une coïncidence.
Finalement, le modèle standard a vu le jour. C'est en quelque sorte une boîte à outils pour le monde subatomique. Les ingrédients du modèle standard sont : 6 quarks, 6 leptons, 5 bosons connus et 1 boson hypothétique (le boson de Higgs, du nom du scientifique écossais Peter Higgs), plus 3 des 4 forces physiques : la force nucléaire forte, la force nucléaire faible et la force électromagnétique.
En gros, ce modèle dit qu'il y a des quarks, les constituants de la matière, qui sont collés ensemble par des particules appelées gluons. Les quarks et les gluons forment ensemble les matériaux des noyaux atomiques, c'est-à-dire les protons et les neutrons. Les leptons sont les sources des électrons et des neutrinos. Les quarks et les leptons sont collectivement appelés fermions. Les bosons (du nom du physicien indien S.N. Bose) sont les particules qui produisent et transportent les forces, y compris les photons et les gluons. Le boson de Higgs pourrait exister ou non; il a été inventé dans le seul but de donner une masse aux particules.
Vous voyez, ce modèle est un peu maladroit, mais c'est le modèle le plus simple qu'on ait pour expliquer tout ce qui se passe dans le monde des particules. La plupart des physiciens des particules pensent, comme l'a dit Leon Lederman dans un documentaire télévisé en 1985, que le modèle standard n'est pas très élégant, pas très simple. "Il est trop complexe, avec trop de paramètres arbitraires", a dit Lederman. "Nous ne comprenons pas vraiment pourquoi, pour créer l'univers que nous connaissons tous, le créateur a dû tourner 20 poignées pour fixer 20 paramètres." En fait, la tâche de la physique est d'explorer la simplicité ultime, et jusqu'à présent, tout est un beau gâchis – ou, comme le dit Lederman : "Nous avons le sentiment profond que ce tableau n'est pas beau."
Le modèle standard n'est pas seulement maladroit, il est incomplet. D'une part, il ne parle pas du tout de la gravité. Vous pouvez chercher dans tout le modèle standard, vous ne trouverez aucune explication à la raison pour laquelle un chapeau posé sur une table ne s'envole pas vers le plafond. Pour donner une masse aux particules, il faut introduire l'hypothétique boson de Higgs, et c'est à la physique du XXIe siècle de dire s'il existe réellement. Comme Feynman le pensait sincèrement : "Nous sommes donc dans une impasse avec cette théorie, ne sachant pas si elle est juste ou fausse, mais nous savons qu'elle est un peu fausse, ou du moins incomplète."
Les physiciens ont essayé de tout relier entre eux, et ils ont inventé la théorie des supercordes. Cette théorie postule que les quarks et les leptons, que nous pensions être des particules, sont en réalité des "cordes" – des cordes d'énergie vibrantes qui oscillent dans 11 dimensions, dont les 3 dimensions que nous connaissons, plus le temps, et 7 autres dimensions que nous ne pouvons pas appréhender pour l'instant. Ces cordes sont extrêmement petites – si petites qu'elles peuvent être considérées comme des particules ponctuelles.
En introduisant des dimensions supplémentaires, la théorie des supercordes permet aux scientifiques de réunir les lois quantiques et les lois de la gravité d'une manière relativement harmonieuse. Mais cela signifie également que toute explication de cette théorie par les scientifiques sonnera de manière inquiétante, comme un étranger assis sur un banc de parc qui vous raconte une idée dont vous vous éloignerez lentement. Par exemple, le physicien Michio Kaku explique la structure de l'univers du point de vue de la théorie des supercordes de la manière suivante: Les cordes hybrides se composent d'une corde fermée qui présente deux modes de vibration, dans le sens des aiguilles d'une montre et dans le sens inverse des aiguilles d'une montre, qui doivent être traités de différentes manières. La vibration dans le sens des aiguilles d'une montre existe dans un espace à 10 dimensions. La vibration dans le sens inverse des aiguilles d'une montre existe dans un espace à 26 dimensions, dont 16 ont été compactées. (Nous savons que dans l'espace original à 5 dimensions de Kaluza, la 5e dimension était enroulée en un cercle et a été compactée.)
Et ainsi de suite, sur environ 350 pages.
La théorie des cordes a encore engendré la théorie M. Cette théorie introduit les surfaces dites "membranes" dans l'âme du monde physique. À ce stade, nous avons probablement atteint le point d'arrêt sur l'autoroute de la connaissance où la plupart des gens devraient descendre. Voici une citation du "New York Times" qui explique cette théorie aux lecteurs ordinaires dans un langage aussi simple que possible:
Dans ce passé lointain et lointain, le processus igné a commencé avec une paire de membranes plates et vides; elles étaient parallèles l'une à l'autre dans un espace à 5 dimensions enroulé... Les deux membranes constituaient le mur de la 5e dimension et se sont probablement produites dans un passé encore plus lointain comme une fluctuation quantique à partir de rien, puis se sont dispersées.
Impossible de discuter avec ça, impossible de comprendre. Au fait, "igné" vient du grec et signifie "brûlant".
Le problème de la physique a maintenant atteint un tel niveau que, comme l'a dit Paul Davies dans "Nature", "il est presque impossible pour un non-physicien de faire la distinction entre un excentrique raisonnable et un fou complet". Curieusement, ce problème a atteint un point critique à l'automne 2002. Deux physiciens français – les frères jumeaux Igor et Grichka Bogdanov – ont proposé une théorie de la très haute densité, comprenant des concepts tels que le "temps imaginaire" et les "conditions de Cooper-Schwinger-Martin", visant à décrire le néant, c'est-à-dire l'univers avant le Big Bang – une période que l'on a toujours considérée comme inconnaissable (car elle s'est produite avant la naissance des phénomènes physiques et de leurs propriétés).
La théorie Bogdanov a presque immédiatement suscité une controverse parmi les physiciens : s'agissait-il d'un charabia, d'une réussite géniale ou d'une supercherie ? "D'un point de vue scientifique, il est clair que c'est plus ou moins un charabia complet", a dit le physicien Peter Woit de l'université Columbia à un journaliste du "New York Times". "Mais, ces derniers temps, ça ne diffère pas beaucoup de beaucoup d'autres publications."
Karl Popper, que Stephen Weinberg a qualifié de "doyen des philosophes modernes de la science", a un jour suggéré qu'il est très probable qu'il n'existe pas de théorie ultime de la physique – chaque explication nécessitant une explication supplémentaire, formant une "chaîne infinie de principes de plus en plus fondamentaux". La possibilité inverse est que cette connaissance soit totalement incompréhensible pour nous. "Heureusement, jusqu'à présent", écrit Weinberg dans "Dreams of a Final Theory", "nos ressources intellectuelles ne semblent pas avoir été épuisées."
Il est presque certain qu'il y aura d'autres découvertes dans ce domaine; il est presque aussi certain que ces découvertes seront incompréhensibles pour la plupart d'entre nous.
Alors que les physiciens du milieu du XXe siècle étaient déconcertés par l'observation du petit monde, les astronomes ont découvert que la compréhension du grand univers était tout aussi incomplète.
La dernière fois qu'on a parlé, Edwin Hubble avait confirmé que presque toutes les galaxies dans notre champ de vision s'éloignaient de nous, et que cette vitesse de récession était proportionnelle à la distance: plus une galaxie est éloignée, plus elle se déplace rapidement. Hubble a découvert que cela pouvait être exprimé par une simple équation: Ho=v/d (Ho est une constante, v est la vitesse à laquelle la galaxie s'éloigne et d est la distance qui la sépare de nous).
Depuis lors, Ho a été appelé la constante de Hubble, et l'équation entière a été appelée la loi de Hubble. Hubble a utilisé son équation pour calculer l'âge de l'univers à environ 2 milliards d'années. Ce chiffre était un peu gênant, car même à la fin des années 1920, il devenait de plus en plus évident que beaucoup de choses dans l'univers – probablement la Terre elle-même – étaient plus anciennes que ça. Affiner ce chiffre a toujours été une préoccupation de la communauté cosmologique.
La seule chose constante au sujet de la constante de Hubble est la divergence des opinions sur son évaluation. En 1956, les astronomes ont découvert que les étoiles variables Céphéides étaient plus variées qu'ils ne le pensaient; les étoiles variables Céphéides peuvent être divisées en deux catégories, et non une. Ils ont donc refait leurs calculs et ont obtenu un nouvel âge de l'univers d'environ 7 milliards à 20 milliards d'années – pas particulièrement précis, mais au moins assez ancien pour inclure la formation de la Terre.
Dans les années qui ont suivi, une longue controverse a éclaté entre Allan Sandage, le successeur de Hubble à l'observatoire du Mont Wilson, et Gérard de Vaucouleurs, un astronome d'origine française de l'université du Texas. Après des années de calculs minutieux, Sandage a conclu que la constante de Hubble était de 50 et que l'âge de l'univers était de 20 milliards d'années. Vaucouleurs était tout aussi certain que la constante de Hubble était de 100. Cela signifiait que la taille et l'âge de l'univers n'étaient que la moitié de ce que Sandage pensait – 10 milliards d'années. En 1994, la situation est soudainement devenue encore plus incertaine. Un groupe de l'observatoire Carnegie de Californie, basé sur des mesures du télescope spatial Hubble, a suggéré que l'âge de l'univers n'était que de 8 milliards d'années – et même eux ont reconnu que cet âge était inférieur à celui de certaines étoiles de l'univers. En février 2003, un groupe de la NASA et du Goddard Space Flight Center du Maryland a annoncé avec confiance, en utilisant un nouveau type de satellite appelé Wilkinson Microwave Anisotropy Probe, que l'âge de l'univers était de 13,7 milliards d'années, avec une marge d'erreur d'environ 10 millions d'années. L'affaire a été réglée, au moins pour un temps.
Il est très difficile de parvenir à une conclusion définitive, car il y a souvent une grande marge d'interprétation. Imaginez que vous êtes dans un champ la nuit, et que vous essayez de déterminer la distance entre deux lampes éloignées. Avec des instruments astronomiques simples, vous pouvez facilement déterminer que les deux ampoules ont la même luminosité, et qu'une ampoule est 50 % plus éloignée que l'autre. Mais vous ne pouvez pas déterminer si la lampe la plus proche est, par exemple, une ampoule de 58 watts à 37 mètres, ou une ampoule de 61 watts à 36,5 mètres. De plus, vous devez tenir compte des distorsions causées par plusieurs facteurs : les variations de l'atmosphère terrestre, la poussière interstellaire, la pollution de la lumière des étoiles d'arrière-plan et de nombreux autres facteurs. Par conséquent, vos calculs sont forcément basés sur une série d'hypothèses imbriquées, dont chacune peut être contestée. Il y a aussi le fait que l'utilisation de télescopes coûte toujours cher. Historiquement, la mesure du décalage vers le rouge nécessitait de longues heures d'utilisation de télescopes, ce qui coûtait remarquablement cher. Il fallait souvent toute une nuit pour obtenir une seule photo. En conséquence, les astronomes ont dû (ou ont voulu) tirer des conclusions sur la base de preuves minimes. En cosmologie, comme l'a souligné le journaliste Jeffrey Carr, nous "construisons des montagnes de théories sur des monticules de preuves". Ou comme le dit Martin Rees : "Notre satisfaction actuelle (de notre état de connaissances) reflète peut-être le manque de données, plutôt que l'excellence de la théorie."
Au fait, cet état d'incertitude s'applique aussi bien aux choses proches qu'aux confins lointains de l'univers. Lorsque les astronomes disent que la galaxie M87 se trouve à 60 millions d'années-lumière, comme le dit Donald Goldsmith, ils disent en fait qu'elle se trouve à environ 40 millions à 90 millions d'années-lumière – ce qui n'est pas tout à fait la même chose. Les choses dans le grand univers sont naturellement exagérées. Compte tenu de cela, nos meilleures estimations actuelles de l'âge de l'univers semblent se situer entre 12 et 13,5 milliards d'années, mais on est loin de faire l'unanimité.
Récemment, une théorie intéressante a été proposée, selon laquelle l'univers n'est pas aussi grand qu'on le pensait; certaines des galaxies que nous voyons en regardant au loin pourraient ne être que des images, des images doubles produites par la lumière réfléchie.
En réalité, il y a beaucoup de choses que nous ne savons pas, même au niveau le plus fondamental – au moins, nous ne savons pas comment l'univers est fait. Lorsque les scientifiques calculent la quantité de matière nécessaire pour que les choses tiennent ensemble, ils constatent toujours qu'il en manque beaucoup. Au moins 90 % de l'univers, peut-être même 99 %, semble être constitué de "matière noire", comme l'appelait Fritz Zwicky – un truc que nous ne pouvons pas voir par nature. Le fait de vivre dans un univers dont nous ne pouvons même pas voir la plus grande partie est un peu frustrant. Au moins deux principaux suspects sont pris en compte: on dit que ce sont soit des "WIMP" ("Weakly Interacting Massive Particles", c'est-à-dire de minuscules matières invisibles laissées par le Big Bang), soit des "MACHO" ("Massive Compact Halo Objects", c'est-à-dire simplement une autre façon de désigner les trous noirs, les naines brunes et les autres étoiles à faible luminosité).
Les physiciens des particules ont tendance à préférer l'explication des particules, c'est-à-dire les WIMP; les astrophysiciens préfèrent l'explication des corps célestes, c'est-à-dire les MACHO. Les MACHO ont d'abord eu le dessus, mais il n'en a tout simplement pas été trouvé suffisamment, et la tendance s'est donc inversée en faveur des WIMP – le problème étant que les WIMP n'ont jamais été découverts. Comme leur interaction est faible, il est difficile de les identifier (même en supposant qu'ils existent). Les rayons cosmiques provoquent trop d'interférences. Par conséquent, les scientifiques doivent creuser profondément sous terre. À un kilomètre de profondeur, l'intensité du bombardement des rayons cosmiques n'est que d'un millionième de ce qu'elle est à la surface. Mais même en ajoutant tout cela, comme l'a dit un commentateur: "Il manque encore les deux tiers de l'univers au bilan." Pour l'instant, je pourrais aussi bien les appeler "DUNNO" ("Dark Unknown Non-Reflecting Non-Observable Objects", Objets sombres inconnus non réfléchissants non observables).
Des signes récents indiquent que les galaxies de l'univers s'éloignent non seulement de nous, mais qu'elles s'éloignent de plus en plus vite. C'est contraire à ce à quoi on s'attendait. Il semble que l'univers soit non seulement rempli de matière noire, mais aussi d'énergie noire. Les scientifiques appellent parfois cela l'énergie du vide ou la cinquième essence. Quoi qu'il en soit, l'univers semble être en expansion constante, et personne ne peut dire pourquoi. Une théorie veut que l'espace vide ne soit pas vraiment vide – des particules de matière et d'antimatière sont constamment créées et détruites – et que ce soit elles qui poussent l'univers vers l'extérieur à une vitesse de plus en plus grande. Il est incroyable que ce qui résolve tout cela soit précisément la constante cosmologique d'Einstein – une petite équation qu'il avait introduite incidemment dans la relativité générale afin de réfuter l'hypothèse que l'univers est en expansion constante, et qu'il a lui-même qualifiée de "la plus grande erreur de ma vie". Il semble qu'il ait eu raison après tout.
En fin de compte, nous vivons dans un univers dont nous ne sommes pas sûrs de l'âge; nous sommes entourés d'étoiles dont nous ne connaissons pas tout à fait la distance qui nous sépare, ni la distance qui les sépare les unes des autres; l'univers est rempli d'une matière que nous ne pouvons pas identifier; l'univers fonctionne selon des lois de la physique dont nous ne comprenons pas vraiment la nature.
Dans un état d'esprit aussi incertain, revenons sur Terre et réfléchissons à ce que nous comprenons vraiment – bien que jusqu'à présent, vous ne soyez peut-être plus surpris d'entendre que nous ne le comprenons pas tout à fait – et à ce que nous n'avons pas compris pendant longtemps et que nous comprenons maintenant.