Il y a exactement 100 ans, le 7 août 1912, un vol en ballon extraordinaire marqua l’histoire des sciences.
Rares sont ceux qui connaissent l’histoire épique de la découverte des “rayons cosmiques”, qui eut pourtant des conséquences d’une valeur exceptionnelle et d’une diversité sans précédent sur la Physique et l’Astrophysique, et dont les fruits les plus fascinants restent peut-être encore à découvrir.
Un siècle après la découverte de ces particules énergétiques qui sillonnent la Galaxie, et dont les plus énergétiques proviennent même d’autres galaxies, on ignore toujours leur origine exacte. Leur rôle dans le grand jeu galactique est pourtant primordial !
Je ne pouvais laisser passer l’anniversaire de cette découverte majeure sans en dire quelques mot sur ce blog. Aussi, en attendant une publication plus conséquente (patience… 😉 ), je retranscris ici un article de vulgarisation qui m’avait été demandé par le CNRS et qui fut publié l’an dernier dans l’ouvrage collectif “Le ciel à découvert“, sous le titre “Les nouveaux messagers non photoniques”.
Cet article est loin de couvrir l’ensemble des problématiques associées au rayonnement cosmique, mais il en donnera peut-être un premier aperçu, en attendant mieux. Il ne se limite cependant pas à ces particules étonnantes qui nous viennent du cosmos, et l’on y trouvera quelques indications sur l’astronomie moderne et ce que l’on appelle aujourd’hui “les nouveaux messagers”.
Un vaste programme de recherche en cours, à l’issue incertaine, mais aux circonstances fascinantes et aux résonances multiples…
Bonne lecture, donc, et bon anniversaire aux rayons cosmiques !
ET
Les nouveaux messagers non photoniques
Il est 6h12 du matin, ce mercredi 7 août 1912, dans un champ de Bohême, juste à l’écart de la ville d’Ústi. La nuit s’achève à peine, l’herbe est encore humide, mais l’aube n’est déjà plus silencieuse : une petite troupe éclectique et curieuse est venue assister au décollage du grand ballon de Victor Hess. L’aventureux physicien, calé dans sa nacelle et vérifiant une dernière fois le fonctionnement de son tout dernier électroscope, semble depuis plusieurs mois ne plus s’intéresser qu’à la mesure, à des altitudes variées, du pouvoir ionisant d’un mystérieux rayonnement, apparemment omniprésent, et capable, de temps à autre, d’ioniser les molécules de l’air contenues dans une enceinte étanche.
Ce n’est pas son premier vol, peut-être le dixième… Mais bien qu’il sache déjà, au fond de lui, ce que révéleront, une fois de plus, ses mesures en altitude, il veut en avoir le cœur net, et affermir son enthousiasme par toute la précision et la rigueur qu’exigera bientôt l’annonce de sa découverte. Il sait à quoi s’attendre : le froid, la faible pression, le manque d’oxygène… Mais il est bien décidé, cette fois, à porter l’instrument plus haut encore que les mois précédents. Les conditions atmosphériques sont favorables. Le vent du sud emportera le ballon vers l’Allemagne, jusqu’à la campagne brandebourgeoise, mais l’altitude seule le préoccupe. Et c’est à 10h45, ce matin-là, que le ballon atteint son point culminant, à 5350 mètres !
Lorsqu’il se pose enfin, à 12h15, près de Pieskow, il sait ce que le monde ne tardera à savoir : un rayonnement ionisant, plus pénétrant que tout rayonnement connu à ce jour, nous vient des profondeurs de l’espace ! C’est ce dont atteste les mesures effectuées, indiquant sans ambiguïté l’augmentation constante, avec l’altitude, du taux d’ionisation de l’air, et donc de la puissance d’irradiation d’un rayonnement inconnu sous-jacent.
Les rayonnements microscopiques et pénétrants demeurent largement mystérieux, à cette époque. Cela fait à peine 15 ans que Becquerel a découvert la radioactivité. Marie et Pierre Curie travaillent avec acharnement, et les physiciens ont pu identifier trois types de rayonnement distincts, auxquels ils ont donné un nom reflétant leur ignorance: alpha, beta et gamma. Ils comprirent quelques années plus tard que ces rayonnements consistaient en des particules énergétiques, respectivement des noyaux d’hélium, des électrons et des photons. Mais lorsque Hess entreprend ses vols en ballons, cela déjà quelques années que l’on s’interroge sur la nature et la provenance d’un rayonnement affectant l’air contenu dans les électroscopes, même en l’absence de sources radioactives ! Ernest Rutherford a bien compris qu’il existait une radioactivité naturelle, présente dans les roches, par exemple, et que c’était elle qui induisait la décharge ordinaire des électroscopes, y compris lorsqu’ils étaient emportés dans des mines souterraines. Mais comment expliquer l’ionisation résiduelle constatée par Théodore Wulf, dès 1909, au sommet de la tour Eiffel ? L’air lui-même serait-il source de rayonnement ?
C’est cela que Viktor Hess veut comprendre. Et sa découverte de l’intensification du rayonnement avec l’altitude éclaire tout : c’est le cosmos lui-même qui est « radioactif » ! Et l’air, au contraire, nous en protège, absorbant une partie du rayonnement, qui perd de l’énergie en interagissant avec les molécules d’azote et d’oxygène. Mais cet éclaircissement suscite des interrogations plus profondes encore : d’où vient ce rayonnement, et quelle est sa nature ?
Premier constat, fait par Hess lui-même, grâce à ses mesures en ballon : ce rayonnement est beaucoup plus pénétrant que tous les rayonnements, alpha, beta ou gamma, issus de la radioactivité terrestre, et s’atténue beaucoup moins en traversant une quantité de matière donnée. Mais c’est un indice bien maigre, surtout à une époque où l’on découvre à peine qu’il existe un monde subatomique, dont on ne sait essentiellement rien, qui semble obéir à des lois totalement différentes de celles observées à notre échelle, et pour lequel il n’existe pas même d’instruments de mesure ! On ignore tout des particules subatomiques, parce qu’on n’a aucun instrument pour les détecter et les étudier, et on n’a aucun instrument pour les détecter, justement parce qu’on ignore tout de ces particules et de leurs interactions ! Leur pouvoir ionisant, lorsqu’elles sont énergétiques, est le seul lien que nous pouvons alors percevoir entre leur monde et notre réalité physique – un lien tenu, un fil fragile sur lequel vont tirer les physiciens pendant des décennies, avec une intelligence et une inventivité extraordinaires, jusqu’à mettre au jour un royaume insoupçonné avec ses lois quantiques, faisant naître une science nouvelle, la Physique des particules.
Nous ne pouvons conter ici cette histoire fabuleuse, mais il est important de retenir que toutes les découvertes afférentes, la découverte de l’antimatière en 1932, la découverte du muon en 1936, celle des pions en 1947, puis des particules « étranges » (K, L, X, S…), sont toutes dues à l’étude des interactions provoquées par des rayons cosmiques et observées au moyen de détecteurs de plus en plus perfectionnés. Aussi le Prix Nobel de Physique attribué à Victor Hess en 1936, pour son intrigante découverte, n’est-il pas le seul à devoir être associé aux rayons cosmiques !
Rayons cosmiques ? Oui ! C’est le nom que Robert Millikan donna en 1927 aux « rayons de Hess », croyant qu’il s’agissait de photons gamma, plus énergétiques encore que ceux issus de la radioactivité terrestre, qui seraient associés à la création continue des atomes de matière à travers le cosmos. Millikan se trompait, mais il fallait bien se risquer à formuler des hypothèses… D’autant plus que les physiciens n’avaient aucun accès direct aux rayons cosmiques eux-mêmes : seulement à leurs sous-produits, à savoir les particules secondaires créées lors de l’interaction des particules primaires – celles qui sont véritablement cosmiques – avec les atomes de l’atmosphère. Les traces laissées par les rayons de Hess dans les compteurs Geiger-Müller et les toutes premières chambres à bulles indiquaient bien que ces particules étaient porteuses d’une charge électrique, et qu’elles ne pouvaient donc pas être des photons. Mais qui pouvait conclure en ce qui concernait les rayons cosmiques originels, avant leur entrée dans l’atmosphère ?
Plus tard, on enverrait des ballons à très haute altitude, puis des satellites artificiels, et il serait relativement aisé de mesurer directement la composition de ces rayons cosmiques. On découvrirait alors qu’ils se composent principalement de noyaux atomiques, reflétant à peu près la composition usuelle du milieu interstellaire dans notre galaxie (si l’on omet quelques exceptions significatives, d’ailleurs très instructives sur le plan astrophysique). Mais au tournant de 1930, il fallait toute l’astuce de quelques physiciens au pied marin pour conclure à la nature chargée des particules cosmiques énergétiques, et comprendre qu’il y avait un moyen de faire de l’astronomie… en prenant le bateau ! Voici comment. Par nature, une particule électriquement chargée interagit avec le champ magnétique, d’où il résulte une inflexion de sa trajectoire. Or la Terre et l’espace immédiatement environnant sont soumis à un champ magnétique bien connu, créé dans le noyau terrestre lui-même, et présentant une configuration essentiellement dipolaire, avec des pôles magnétiques assez proches des pôles de rotation – d’où les performances des boussoles magnétiques ! Si les rayons cosmiques primaires étaient chargés, ils devaient donc interagir avec le champ magnétique terrestre, et se trouver en plus grand nombre près des pôles. En mesurant le pouvoir ionisant du rayonnement cosmique en fonction de la latitude, comme tentèrent de le faire par exemple Louis Leprince-Ringuet et Pierre Auger lors d’une fameuse croisière les menant jusqu’à Buenos Aires, on devait pouvoir observer une diminution du flux de rayons cosmiques vers l’équateur. Après diverses tentatives plus ou moins concluantes, Arthur Compton, aidé d’une trentaine de chercheurs envoyés aux quatre coins du globe, obtint finalement une réponse incontestable : les rayons cosmiques sont porteurs d’une charge électrique !
Mais d’où viennent-ils ? Les rencontre-t-on uniquement dans l’environnement terrestre et le système solaire, ou bien sont-ils omniprésents dans la galaxie, voire dans l’univers ? Puisqu’il s’agit de noyaux énergétiques, comment ont-ils acquis cette énergie ? Quelles sont leurs sources astrophysiques ? Par quel mécanisme ont-ils été accélérés, et jusqu’où s’étend leur spectre en énergie ? Que peuvent-ils nous apprendre sur les processus énergétiques à l’œuvre dans le cosmos ? Une étude approfondie de leurs propriétés peut-elle mener à des découvertes aussi éblouissantes que celles qui ont présidé, nous le rappelions ci-dessus, à la naissance de la Physique des particules ?
Un siècle tout juste après la découverte de Victor Hess, la plupart de ces questions demeurent sans réponse, à commencer par la plus brûlante d’entre elles : quelle est la source des rayons cosmiques ? N’est-il pas invraisemblable qu’à l’heure de la technologie triomphante, à l’heure de la conquête spatiale, à l’heure où la cosmologie s’installe comme une science observationnelle toujours plus contraignante, où l’on a accès à des phénomènes cosmiques cataclysmiques extrêmement rares et extrêmement lointains, où l’on peut observer presque quotidiennement de nouvelles planètes autour d’étoiles semblables à notre Soleil, nous soyons toujours dans l’ignorance quant à cette question simple : quelle est la source du rayonnement cosmique ?
C’est d’autant plus frustrant que les rayons cosmiques jouent un rôle majeur dans l’équilibre du milieu interstellaire, et dans ce que nous pourrions appeler l’écologie galactique ! Car le développement de l’astronomie depuis un demi-siècle n’a cessé de le confirmer : les rayons cosmiques sont présents partout où se déroulent des processus énergétiques dans l’univers. Ils sont à la source des rayonnements radio, X et gamma détectés par la nouvelle astronomie, dite « multi-longueurs d’onde ». Ils sont responsables d’une part importante du chauffage de ce gaz interstellaire, par l’énergie qu’ils perdent en interagissant avec les atomes et molécules épars de la Galaxie. Ils interviennent dans l’équilibre d’ionisation de ce gaz, et par ce biais comme par activité directe, ils influencent notablement l’astrochimie, c’est-à-dire les processus chimiques à l’œuvre dans le milieu interstellaire, par lesquels sont synthétisées des molécules complexes, jusqu’à certains acides aminés récemment découverts bien loin de notre système solaire ! Les rayons cosmiques sont aussi à l’origine d’une grande part du champ magnétique turbulent présent dans notre galaxie, ainsi que de l’amplification du champ magnétique présent dans des sources de rayonnement intense, telles les vestiges d’explosions de supernova. Ils contribuent en outre à la régulation de la formation des étoiles, activité majeure s’il en est au sein d’une galaxie !
Plus près de notre réalité humaine, les rayons cosmiques sont maintenant connus pour avoir une influence néfaste sur la santé des personnels navigants, qui sont exposés à un rayonnement plus intense à haute altitude : n’est-ce pas justement la découverte initiale de Viktor Hess ! Ce sont d’ailleurs ces effets sur les cellules vivantes qui compromettent aujourd’hui la planification de longs voyages interplanétaires, notamment vers Mars. Mais compte tenu de la protection générale apportée par l’atmosphère, le versant positif de ces effets d’irradiation est sans doute la participation des rayons cosmiques aux processus de mutation intervenant dans l’évolution des espèces biologiques sur notre planète. Le climat lui-même pourrait être influencé par les rayons cosmiques, via leur rôle encore à préciser dans la formation de certaines couvertures nuageuses, et certains osent même voir, par ce biais, un lien indirect entre les rayons cosmiques et la qualité sonore des Stradivarius, élaborés à partir du bois d’arbres ayant crû pendant la période d’activité solaire anormale connue sous le nom de « minimum de Maunder », influençant le flux de rayons cosmiques atteignant la Terre !
Mais quoi qu’il en soit, les rayons cosmiques sont une des composantes majeures de la Galaxie, et leur densité d’énergie dans le milieu interstellaire est comparable à celle de la lumière stellaire elle-même, ainsi qu’à celle du champ magnétique. Alors comment se fait-il qu’on n’ait pas encore été en mesure d’identifier leurs sources ?
La réponse tient à la propriété physique mentionnée plus haut : puisque les rayons cosmiques sont chargés, leurs trajectoires sont défléchies en présence de champ magnétique. Or dans la Galaxie, il y a du champ magnétique partout ! Et ce champ est turbulent sur une grande gamme d’échelles de distance, allant au moins d’une dizaine de milliers de kilomètres à plusieurs centaines d’années lumières, et donc propres à défléchir en tout sens les particules chargées de toute énergie ! Où que puissent se trouver les sources dans la galaxie, les rayons cosmiques qui en sont issus entreront toujours en résonance avec les perturbations magnétiques le long de leur trajectoire, et ces interactions les défléchiront si efficacement qu’ils deviendront rapidement isotropes, c’est-à-dire qu’en chaque point de l’espace, ils sembleront provenir de manière indifférente de toutes les directions, et se diriger de manière égale vers toutes les destinations. En d’autres termes, les interactions avec le champ magnétique font perdre toute mémoire de l’origine spatiale du rayonnement cosmique, et où que l’on regarde dans le ciel, on en voit toujours autant. Aucun point du ciel n’apparaît plus brillant qu’un autre, pour indiquer la direction d’une source. C’est la fin de l’astronomie !
Pendant des millénaires, l’astronomie traditionnelle a utilisé les photons – la lumière – comme messagers cosmiques. Les photons sont des particules électriquement neutres, et leurs trajectoires ne sont pas affectées par les champs magnétiques (sauf à des énergies extrêmes, qui ne nous concernent pas ici). Ainsi, lorsqu’on voit une étoile dans le ciel, on sait immédiatement où elle se trouve : là-bas, quelque part dans la direction d’où provient sa lumière ! On ne sait certes pas à quelle distance – et si l’on considère que l’histoire de l’astronomie couvre des dizaines de milliers d’années, ce n’est que très récemment qu’on a pu accéder à la distance des astres–, mais au moins savons-nous dans quelle direction elle se trouve. Dans le cas du rayonnement cosmique, rien de tel n’est possible : un rayon cosmique provenant d’une direction identifiée peut avoir sa source réelle dans n’importe quelle direction ! C’est exactement cette situation que nous rencontrons dans un brouillard épais : nous n’avons nulle idée de la position des sources de lumière, car les gouttelettes d’eau diffusent chaque photon un très grand nombre de fois, au point de distribuer la lumière de manière totalement isotrope et de ne donner à voir à nos yeux qu’un blanc uniforme et indéchiffrable, quelle que soit la direction fixée…
Ici, il s’agit d’un brouillard magnétique. Pour repérer les sources, il faudrait le percer. Mais comment s’y prendre ? Sur Terre, nous pouvons toujours traverser le brouillard et aller voir au-delà. Mais dans le cas des rayons cosmiques, ce sont eux qui traversent les distances interstellaires, et nous ne pouvons pas modifier les lois physiques qui leur intiment de replier leurs trajectoires des milliers de fois sur elles-mêmes !
Situation sans espoir ? Pas tout à fait ! Mais avant d’évoquer la manière dont les astrophysiciens s’attaquent aujourd’hui au problème, arrêtons-nous quelques instants sur la nouveauté radicale que représentent la découverte et l’étude du rayonnement cosmique.
Voilà peut-être 40 000 ans que l’Homme fait de l’astronomie avec des photons. Ces « particules de lumière » traversent l’immensité des espaces cosmiques pour nous renseigner sur ce qui se passe loin, si loin de la Terre. Pendant des millénaires, rares sont ceux qui ont pu se douter que ces points lumineux sur la toile tendue de la nuit indiquaient la présence de soleils largement semblables au nôtre. On ignora longtemps que les photons entrant, sous toutes les latitudes, dans l’œil émerveillé des philosophes, des bergers et des poètes, étaient porteurs de messages étonnants, scellés à des distances inouïes, en des temps précédant parfois la naissance même des civilisations humaines ! Ce n’est en fait que depuis le XIXe siècle et les débuts de la spectroscopie que l’astronomie s’est dotée des outils théoriques permettant de lire l’incroyable histoire écrite par ces photons et d’en déchiffrer le message.
Chaque photon a sa longueur d’onde, et la répartition de l’intensité lumineuse en fonction de cette longueur d’onde – ce que l’on appelle le spectre d’énergie de la lumière–, contient des informations physiques sur l’environnement dans lequel cette lumière a été émise, et sur les conditions de son émission. En s’appuyant sur la connaissance des lois de la physique, et en utilisant tout l’arsenal du raisonnement scientifique, fondé sur l’analyse, l’induction, la déduction, l’intuition, le recoupement d’informations, etc., il est alors possible d’apprendre quantité de choses sur le contenu matériel de l’univers et sur les processus physiques à l’œuvre en son sein. Qu’on y songe seulement : tout ce que nous savons de l’univers, sa structure générale, la masse des étoiles, la température du gaz interstellaire, l’âge des galaxies, la distance des astres, la composition chimique des étoiles ou des galaxies lointaines, la vitesse des éjections gazeuses ici ou là, l’intensité du champ magnétique à des millions d’années lumières, l’histoire de la synthèse des noyaux dans les étoiles ou dans l’univers primordial, et même l’existence de matière inconnue – tout cela, nous le devons à la lumière !
Tout ce que nous avons été capables de faire, jusqu’à présent, c’est de tourner des détecteurs de photons vers le ciel – l’œil, d’abord, puis des dispositifs de plus en plus perfectionnés, et sensibles à des photons de longueurs d’onde invisibles à nos yeux. Nous pesons les étoiles sans balance et sans nous y rendre, nous mesurons des températures, déterminons des vitesses, estimons des champs magnétiques, identifions des atomes et des molécules, simplement en restant immobiles sur Terre et en attendant que les photons nous parviennent pour analyser leur message. Ô généreuse lumière !
Car dans l’état actuel de nos connaissances, nous ne pouvons guère nous déplacer – du moins pas à l’échelle de la Galaxie. Or ce que la découverte du rayonnement cosmique nous a révélé, c’est que les photons, seuls messagers connus de l’univers pendant des millénaires, ne sont pas les seuls à nous parvenir du cosmos ! De la matière, oui, de la matière extraterrestre, extrasolaire, et même, s’agissant des rayons cosmiques les plus énergétiques, de la matière extragalactique nous parvient chaque seconde, depuis des sources énergétiques, actives en ce moment même ou par le passé, quelque part dans le vaste univers ! Alors que nous sommes condamnés à rechercher la connaissance et à user de notre intelligence pour déchiffrer le message contenu dans la nature même des messagers que le cosmos veut bien nous envoyer, ces rayons cosmiques représentent – offrande inespérée et totalement ignorée jusqu’à il y a à peine un siècle – quelques grammes de matière dans un monde lumineux !
L’histoire récente de l’astrophysique a été marquée, on le sait, par l’ouverture de nouvelles fenêtres sur le ciel. Caractérisées par les longueurs d’ondes sur lesquelles elles se concentrent, les astronomies « radio », « infrarouge », « visible », « ultraviolette », « X », « gamma », « TeV », ont apporté, au fil des décennies, leur lot de surprises et de découvertes, et contribué à transformer profondément l’image de notre ciel, à refonder notre représentation du cosmos, de son contenu et de son histoire. Mais toutes ces évolutions, favorisées par le progrès technologique et l’avancée des connaissances en physique fondamentale, n’ont fait qu’étendre le domaine spectral de l’astronomie photonique. Dans la merveilleuse synthèse appelée aujourd’hui « astronomie multi-longueurs d’onde », dont la puissance et la pertinence ne sont plus à démontrer, la lumière, visible ou invisible, reste la seule messagère de ce cosmos qui nous intrigue à la fois par sa distance et sa proximité, puisque nous avons appris au fil de cette histoire – mais est-ce vraiment une découverte ?–, que nous lui sommes intimement liés, jusque dans la matière de nos corps, synthétisée dans le cœur des étoiles.
Mais une page nouvelle de l’histoire de l’astrophysique s’écrit en ce moment même. Un peu partout sur la planète, des équipes de recherche issues d’horizons variés, constituées de physiciens expérimentalistes, d’ingénieurs, de techniciens et de chercheurs théoriciens ayant travaillé en physique nucléaire, en physique des particules ou en astrophysique, inventent une discipline nouvelle, à la charnière des grands domaines de recherche de la Physique du XXe siècle : « l’astroparticule ». Ce nom aux consonances un peu artificielles, évoque une discipline aux contours imprécis, en constante évolution, cristallisant les espoirs et les rêves de physiciens et d’astrophysiciens pressentant que le cosmos n’a pas fini de nous parler, et qu’un langage nouveau reste à entendre et à déchiffrer. Ce langage nouveau ne s’opposera pas au langage traditionnel de la lumière, lequel demeurera incontournable et exemplaire par sa précision et la diversité de ses champs sémantiques, si l’on peut dire, mais il l’inclura dans une observation plus globale du cosmos, opérant non plus sur le seul canal photonique, mais sur l’ensemble des canaux que nous parviendrons à capter. Non plus un seul messager, mais tous les messagers !
Ces nouveaux messagers, quels sont-ils ? Il y a bien sûr, en premier lieu, les rayons cosmiques. Mais que pourraient-ils bien nous apprendre, si nous ne connaissons même pas l’identité de l’émetteur du message ?
Alors que les photons ne se distinguent les uns des autres que par leur énergie, c’est-à-dire par la fréquence ou la longueur d’onde de la lumière qui leur est associée, les rayons cosmiques disposent d’un élément supplémentaire sur leur fiche d’identité personnelle. Ils se caractérisent non seulement par leur énergie, mais encore par leur nature nucléaire : tel rayon cosmique est un noyau d’hélium, tel autre un noyau d’oxygène, de fer ou d’uranium. La composition du rayonnement cosmique, c’est-à-dire la proportion relative des différents noyaux, représente donc en soi un message sans équivalent dans le monde photonique, et cette information est disponible, en principe, à toutes les énergies auxquelles les rayons cosmiques peuvent être observés. Or l’identité nucléaire de ces particules énergétiques est susceptible de changer, en raison des réactions nucléaires subies ou provoquées lors de leur propagation à travers le milieu interstellaire. Certains noyaux, abondants à la source, vont se trouver peu à peu transmutés en d’autres noyaux, tandis que des noyaux initialement absents vont pouvoir s’accumuler, tout au long du voyage menant les rayons cosmiques de leur source à nos détecteurs. En mesurant précisément l’abondance des différents noyaux au sein du rayonnement cosmique, et en connaissant la physique sous-jacente aux interactions nucléaires, il est alors possible de déterminer, par exemple, la quantité de matière traversée au cours de ce voyage. En outre, certains noyaux produits en chemin étant radioactifs, de durée de vie connue, il est possible d’accéder au temps écoulé entre l’accélération des noyaux primaires, dans les sources de rayons cosmiques, et leur détection au voisinage de la Terre. Verdict ? Environ vingt millions d’années ! Mais cette valeur dépend de l’énergie, et décroît à mesure que l’énergie augmente…
Plus les rayons cosmiques sont énergétiques, plus leur temps de vol jusqu’à nous est court. La raison en est simple, et extrêmement importante : à haute énergie, les champs magnétiques ont beaucoup plus de mal à infléchir la trajectoire des particules chargées. Plus l’énergie augmente, et moins les particules diffusent et rediffusent en tout sens, de sorte qu’elles se propagent de plus en rapidement d’un point à un autre, explorant des distances plus grandes en un temps plus bref. Tout se passe comme si le brouillard magnétique évoqué plus haut se dissipait peu à peu, à mesure que l’énergie des particules considérées augmentait !
Cette propriété, déjà connue des physiciens du XIXe siècle, peut être décrite au moyen d’une grandeur appelée « rayon de giration ». Il s’agit simplement du rayon de la trajectoire circulaire ou hélicoïdale que la particule suivrait dans un champ magnétique uniforme. Ce rayon est directement proportionnel à l’énergie de la particule, et s’il existait des rayons cosmiques d’une énergie supérieure à un milliard de milliard de fois l’énergie d’un photon de lumière solaire, leur rayon de giration excéderait la taille de la galaxie ! Eh bien, contre toute attente… il en existe !
Ces rayons cosmiques sont de loin les particules les plus énergétiques de l’univers connu. On en a même observé à des énergies macroscopiques ! Jamais les astrophysiciens n’auraient prédit pareil phénomène : un proton, ou peut-être un noyau de fer, avec l’énergie d’une balle de tennis à 100 km/h ! Par comparaison, le photon le plus énergétique jamais détecté à ce jour arrive à peine à une énergie dix millions de fois plus faible !
La simple existence de ces rayons cosmiques, dits « de ultra haute énergie », posent des problèmes considérables aux astrophysiciens. Mais ils représentent également un espoir formidable : à de telles énergies, le rayon de giration des rayons cosmiques peut atteindre un milliard d’années lumière dans le milieu intergalactique ! Le brouillard magnétique est alors sans effet, et la malédiction du rayonnement cosmique devrait être vaincue : si l’on détecte une particule ultra-énergétique en provenance d’une certaine direction sur le ciel, il n’est plus vrai que sa source véritable pourrait se trouver à l’opposé, car il aurait fallu que la trajectoire soit incurvée bien au-delà de ce que peuvent induire les champs magnétiques galactiques et extragalactiques. Un repérage des sources par observation des directions d’arrivée sur le ciel devient alors possible en principe : en d’autres termes, l’avènement d’une « astronomie rayons cosmiques », en complément de l’« astronomie photons », devient envisageable.
Un tel événement, majeur dans l’histoire de l’astronomie, est sans doute imminent. Le seul obstacle est la taille gigantesque des détecteurs nécessaires, car les rayons cosmiques ultra-énergétiques sont aussi ultra-rares : n’en attendez pas plus d’un par kilomètre carré et par millénaire ! Le calcul est alors aisé : si vous voulez en observer, disons, un millier, et que vous songiez à un détecteur couvrant une surface d’un kilomètre carré, il vous faudra attendre… un million d’années ! Mais si vous n’avez que quelques années devant vous, alors préparez-vous à construire un détecteur couvrant des dizaines de milliers de kilomètres carrés ! Aussi incroyable que cela puisse paraître, c’est le défi que des centaines de physiciens des astroparticules sont en train de relever !
Et ces efforts ne sont pas isolés. Au même moment, d’autres physiciens, résolus eux aussi à explorer les voies prometteuses de « l’astroparticule », se tournent vers d’autres types de messagers. Non pas des photons, non pas des noyaux d’atomes énergétiques, mais… des neutrinos et des ondes gravitationnelles !
Les neutrinos, comme leur nom l’indique, sont des particules électriquement neutres. Le suffixe « ino », que l’on doit à l’italien Enrico Fermi, indique que, par rapport aux neutrons, les neutrinos sont beaucoup plus « petits ». En fait, la notion de taille a très peu de pertinence en physique quantique. Mais une chose est sûre : les neutrinos interagissent peu, très peu, très très peu avec la matière ! C’est la raison pour laquelle les dizaines de milliards de neutrinos qui traversent chaque seconde chaque centimètre carré de notre corps ne nous font aucun effet ! Alors, pourquoi s’en soucier ?
Tout simplement parce que, dans l’univers, les neutrinos sont produits couramment dans des environnements qui revêtent, pour les astrophysiciens, un intérêt majeur. En premier lieu, un nombre gigantesque de neutrinos sont émis lors des explosions d’étoiles, et leur détection permettrait de contraindre les mécanismes physiques impliqués dans ces événements majeurs, appelés supernovæ. Or c’est un fait peu connu, mais si la fin de la vie des étoiles massives et l’évolution des supernovæ sont maintenant bien décrites par les modèles théoriques, corroborés jusque dans des détails étonnants par des observations de plus en plus précises, il manque à la description… juste un petit détail : nul ne sait au juste comment l’explosion se met en œuvre d’un point de vue dynamique ! Or les neutrinos sont impliqués dans ces mécanismes. En 1987, lorsque qu’une supernova est apparue dans la galaxie voisine du Grand Nuage de Magellan, les détecteurs de neutrinos étaient assez rudimentaires, et la poignée d’entre eux qui ont pu être détectés n’a pas permis de répondre à toutes les questions. Aujourd’hui, de nouveaux détecteurs sont prêts, mais on attend la prochaine explosion, qui pourrait avoir lieu demain, dans une semaine ou dans dix ans. Mais au chercheur, toujours, la patience est avantageuse…
Mais la source la plus abondante de neutrinos extraterrestres est évidemment le Soleil, du fait de son extrême proximité. Les réactions nucléaires responsables du maintien de sa température, et donc de son rayonnement, libèrent en son cœur des flux gigantesques de neutrinos, que les astrophysiciens ont entrepris de détecter dès la fin des années 1960. Mais ce n’est pas chose aisée, précisément parce que les neutrinos interagissent très faiblement avec la matière. C’est pourquoi ce qui fut entrepris en 1967 dans la mine d’or de Homestake, dans le Dakota du Sud aux États-Unis, est véritablement époustouflant.
Nous sommes à 1400 mètres sous Terre, au pied de ce qui est sans doute le premier détecteur d’astroparticules de l’histoire : une vaste cuve, remplie de rien moins que 380 000 litres d’un liquide généralement utilisé pour le nettoyage à sec – le perchloroéthylène. Comme son nom l’indique, ce composé contient du chlore, un atome dont le noyau comprend 17 protons et 20 neutrons. Lorsqu’un neutrino parvient à interagir avec ce noyau, un des neutrons peut se convertir en un proton et un électron, de sorte qu’un électron s’échappe et qu’un nouveau noyau est produit, composé de 18 protons et 19 neutrons. Ce noyau est celui de l’atome d’argon, gaz rare bien connu, présent dans les ampoules électriques à incandescence. Si l’on peut se convaincre qu’aucun atome d’argon ne se trouve initialement dans la cuve, et si l’on parvient à les compter après quelques semaines d’exposition, on peut en déduire le nombre d’interactions ayant eu lieu entre les noyaux de chlore et les neutrinos ambiants (provenant essentiellement du Soleil), et ainsi déterminer leur flux. Élémentaire, n’est-ce pas ? Sauf qu’en dépit des millions de milliards de neutrinos traversant la cuve chaque seconde, les calculs montrent que le taux de capture de neutrinos par les noyaux de chlore dans toute la cuve est inférieur à… un par jour ! D’où la nécessité d’enfouir profondément le détecteur sous terre, pour éviter toute contamination associée à des processus similaires qui seraient induits, non par les neutrinos solaires, mais par les rayons cosmiques assaillant l’atmosphère.
Ainsi, en admettant qu’on soit parvenu à contrôler précisément les éventuelles contaminations étrangères à l’interaction avec les neutrinos solaires, comment détecter et compter la vingtaine d’atomes d’argon produits après un mois d’expérience ? Qui serait assez fou pour seulement l’envisager, sachant qu’il y a dans la cuve des milliers de milliards de milliards de milliards d’atomes ? Qui ? Raymond Davis, par exemple…
Voici la recette. Toutes les semaines, envoyer un flux l’hélium – un autre gaz rare –à travers la cuve, afin d’emporter les quelques atomes d’argon produits, et ainsi de les extraire de la cuve. Ensuite, envoyer un faisceau d’électrons à travers le gaz récupéré. La réaction inverse de celle ayant produit les noyaux d’argon peut alors se produire : en capturant un électron, un noyau d’argon transforme un de ses protons en neutron, avec émission d’un neutrino. Le résultat est alors un noyau à 17 protons et 20 neutrons, c’est-à-dire un noyau de chlore. Mais dans l’opération, le noyau de chlore est souvent produit dans un état excité. En se désexcitant, il va alors émettre un photon énergétique, un rayon X, d’une énergie bien déterminée. En comptant alors le nombre de ces photons recueillis par des détecteurs de rayons X, et en tenant compte de tous les paramètres du problème, notamment de l’inefficacité partielle de chacune des étapes du processus, on peut alors estimer le nombre de noyaux d’argon initialement produits, et donc le flux de neutrinos !
Ainsi, année après année, les quelques noyaux transmutés par les neutrinos solaires ont pu être collectés et comptabilisés, au point qu’après trente années d’effort, un résultat extraordinaire apparaisse : le flux de neutrinos solaires détectés ne représente qu’environ un tiers du flux calculé théoriquement sur la base d’un modèle solaire détaillé décrivant les réactions de fusion nucléaire au cœur notre étoile.
Il est difficile de croire que les physiciens impliqués dans l’expérience aient été capables de contrôler une chaîne de détection aussi complexe pendant autant d’années, avec une précision suffisante pour se convaincre qu’ils n’avaient pas surestimé l’efficacité de leur méthode, et donc qu’ils n’avaient pas sous-estimé le flux de neutrinos détecté. Et il est tout aussi difficile de croire que les astrophysiciens théoriciens ayant contribué aux prédictions du flux de neutrinos solaires aient pu maîtriser à ce point la structure interne du Soleil et les processus physiques s’y déroulant, qu’il leur soit apparu impossible que le flux de neutrinos réellement émis par le Soleil soit plus faible que ce qu’ils avaient calculé. Et pourtant… La minutie et les arguments des uns et des autres étaient telle que la contradiction entre le flux prédit et le flux mesuré a été prise au sérieux : le flux détecté sur Terre est véritablement plus faible que le flux émis par le Soleil !
La raison, nous la connaissons maintenant, peut s’énoncer en deux lignes : les neutrinos ont une masse, et leurs propriétés quantiques font qu’en se propageant ils oscillent d’une saveur à une autre.
Ce qu’on appelle « saveur », pour un neutrino, est simplement une marque d’identité. Il existe en effet trois types de neutrinos, associés aux trois leptons fondamentaux : l’électron, le muon et le tau. Les neutrinos produits par le Soleil sont des neutrinos associés à l’électron – dits « électroniques ». De même, les seuls neutrinos pouvant être détectés par l’expérience de Homestake sont ces neutrinos électroniques. Seulement voilà : entre l’émission, au cœur du Soleil, et la détection, au fond d’une mine terrestre, les neutrinos électroniques se sont changés en neutrinos de toutes les saveurs, électronique, muonique et tau. Résultat : le flux de neutrinos détectables sur Terre est plus faible que le flux émis, ne valant plus qu’environ un tiers de ce dernier si la répartition entre les trois saveurs est équitable.
Cette explication, d’une simplicité déroutante, résument près de quarante ans d’une histoire riche et passionnante, à laquelle il faudrait associer de nombreux acteurs et d’autres expériences, comme celle menée dans un tunnel au cœur de la montagne italienne du Gran Sasso, dans les Abruzzes, utilisant la transmutation du gallium en germanium, plutôt que celle du chlore en argon, et bien sûr les extraordinaires expériences japonaises, Kamiokande (qui détecta les neutrinos émis par la supernova de 1987, mentionnée plus haut) et Super-Kamiokande, qui confirma brillamment l’hypothèse de l’oscillation entre saveurs de neutrinos, ainsi que l’explication apportée au problème des neutrinos solaires. Outre un prix Nobel bien mérité attribué en 2002 à Masatoshi Koshiba, le meneur des expériences japonaises, et au pionnier Raymond Davis, l’histoire retiendra de cette fabuleuse aventure que les neutrinos oscillent bel et bien et qu’ils ont donc une masse, contrairement à ce que le fameux Modèle Standard de la physique des particules affirmait jusqu’alors. Et l’histoire retiendra aussi cette vérité désormais incontournable : on peut faire de la physique fondamentale et découvrir des vérités profondes sur la structure intime de la matière… en observant le cosmos ! C’est toute l’essence de cette discipline nouvelle que l’on hésite encore à nommer « astrophysique des particules », ou bien « physique des astroparticules »…
Outre les neutrinos issus du Soleil et des supernovæ, les chercheurs espèrent également détecter des neutrinos en provenance d’autres types de sources et d’environnements astrophysiques. Parmi eux, les fameux « noyaux actifs de galaxie », dont la puissance considérable est fournie par des mécanismes impliquant un trou noir de très grande masse au cœur des galaxies. Autre type de sources dont on aimerait beaucoup connaître le niveau d’émission de neutrinos : les « sursauts gamma » – ces phénomènes explosifs exceptionnels qui éjectent un plasma très chaud à des vitesses extrêmement proches de celle de la lumière, et que l’on peut observer jusqu’à des distances cosmologiques, avec une intensité qui défie l’imagination. Ils sont tellement lumineux, en dépit de leurs distances pouvant atteindre la dizaine de milliards d’années lumières, que certains ont longtemps pensé qu’ils se produisaient dans notre banlieue cosmique, voire dans notre propre système solaire !
Ces sources potentielles, et d’autres encore, partagent une propriété commune : elles accélèrent des particules jusqu’à de très hautes énergies. En fait, les neutrinos qui en sont issus sont généralement créés à la suite de l’interaction d’un proton énergétique, analogue à ceux du rayonnement cosmique, avec un proton ambiant, c’est-à-dire un noyau d’hydrogène. Étudier les neutrinos issus des sources énergétiques de l’univers, c’est donc ouvrir un accès indirect aux mécanismes d’accélération des particules dans divers types d’environnements astrophysiques. Or s’il est une question unificatrice pour toute l’astrophysique des hautes énergies moderne, c’est bien celle de l’accélération des particules dans le cosmos ! Rappelons-le, qu’ils soient détectés en provenance des vestiges de supernova, des noyaux actifs de galaxie, des nébuleuses de pulsar, des sources accrétantes à trous noirs ou étoiles à neutrons, des quasars ou des sursauts gamma, tous les rayonnements radio, X ou gamma, dits « non thermiques », détectés par l’astronomie multi-longueurs d’onde, sont produits à l’origine par des particules énergétiques accélérées in situ : des rayons cosmiques locaux, en quelque sorte !
C’est pourquoi les neutrinos peuvent être vus comme des messagers complémentaires des photons, susceptibles de nous renseigner sur les mécanismes physiques et astrophysiques à l’œuvre dans les sources les plus puissantes et les plus singulières de l’univers, à l’origine des particules énergétiques locales et de leurs rayonnements induits. Avantage des neutrinos : ils sont neutres, et se propagent donc en ligne droite, sans déflexion aucune. Inconvénient : ils sont difficiles, très difficiles, vraiment très difficiles à détecter ! Nous l’avons déjà indiqué, ils interagissent très faiblement avec la matière. Pour avoir la chance que l’un d’entre eux, parmi des milliards de milliards, bouscule un atome suffisamment pour qu’on puisse en détecter les effets, il faut scruter avec une attention accrue des volumes considérables de matière : des milliers, des millions, et bientôt sans doute des milliards de mètres cubes ! C’est ainsi que ce sont développés des projets de détecteurs gigantesques, comme celui d’ANTARES, à 2500 mètres de profondeurs en mer Méditerranée, au large de Toulon, ou celui d’ICE-CUBE, sous les glaces de l’Antarctique. À ce jour, aucun signal probant n’a pu être enregistré. Mais l’espoir reste grand, et la prochaine génération de détecteurs, déjà à l’étude, pourrait ouvrir enfin cette nouvelle fenêtre sur l’univers : « l’astronomie neutrino ».
On le voit, l’astronomie non photonique se situe aux limites de ce qu’il est possible d’envisager aujourd’hui à l’échelle de la planète, et représente un défi pour les physiciens et les astrophysiciens en quête de nouveaux messagers en provenance du cosmos.
Aux rayons cosmiques ultra-énergétiques et aux neutrinos, il faut encore ajouter les fameuses « ondes gravitationnelles », ces distorsions dynamiques de l’espace-temps prédites par Albert Einstein et parfaitement décrites par sa théorie de la Relativité Générale, mais jamais encore observées ! Il n’y a pas lieu de s’en inquiéter – du moins pas encore – car l’interaction gravitationnelle associée à ces distorsions est extrêmement faible, et l’on ne s’attend pas au moindre effet notable à l’échelle des détecteurs actuellement en service. Mais, là encore, la situation est en train de changer, et il y a de fortes chances que les deux décennies à venir soient marquées par la première observation d’une onde gravitationnelle, probablement générée quelque part dans l’univers par la coalescence de deux trous noirs ou de deux étoiles à neutrons, ou par des fluctuations ayant pris place dans l’univers primordial, impossibles à sonder au moyen d’autres messagers.
Sans entrer dans les détails, signalons simplement que les ondes gravitationnelles se caractérisent par une variation de la distance entre les différents points de l’espace. Dans un dispositif mesurant la distance entre deux miroirs, au moyen d’un laser et d’un système d’interférences, le passage d’une onde gravitationnelle va modifier la longueur du trajet effectué par la lumière, et ainsi faire varier la figure d’interférence observée. Le principe est donc simple. Mais en pratique, pour les ondes gravitationnelles les plus intenses envisagées, la variation de distance attendue n’est que de l’ordre d’une partie pour 10 à la puissance 20, c’est-à-dire une partie pour cent mille millions de milliards ! En d’autres termes, pour détecter une telle onde, il convient de mesurer une variation de la taille d’un atome sur une distance de 100 km… et d’être certain que cette variation n’a pas pu être créée par quelque artefact humain, erreur de mesure ou autre phénomène annexe, lié par exemple à l’agitation thermique ou à l’activité sismique !
Cette ambition paraît folle, et le projet démesuré. De fait, ce n’est que tout récemment que les physiciens engagés dans cette aventure sont parvenus à mettre au point des dispositifs suffisamment performants pour convaincre leurs collègues qu’ils allaient pouvoir, bientôt, atteindre la précision requise. Cela prendra encore quelques années, mais on le sent de plus en plus nettement aujourd’hui, la lumière des gravitons n’est plus très loin. Lorsqu’elle aura laissé sa marque dans les dispositifs en développement, que ce soit sur le site italien de VIRGO ou sur le site américain de LIGO, opérant tous deux à l’aide de lasers effectuant des allers-retours entre des miroirs distants de quelques kilomètres, le retentissement en sera gigantesque. Et qu’importe s’il faut finalement attendre la mise en service du système spatial LISA, projetant d’opérer à beaucoup plus faible fréquence et d’observer les figures d’interférence produites par un laser émis par un vaisseau spatial et réfléchi par deux autres vaisseaux, distants de… 5 millions de kilomètres ! Nouveau projet ambitieux, nouvel espoir pour toute la discipline des astroparticules et au-delà…
On l’aura compris, l’extension de l’astronomie au-delà de la détection des photons de lumière visible ou invisible, représente un défi majeur pour toute une génération de physiciens et d’astrophysiciens aussi aventureux que déterminés. Mais par une conjonction temporelle remarquable, que ce soit pour les rayons cosmiques ultra-énergétiques, pour les neutrinos ou pour les ondes gravitationnelles, il semble que l’avancée décisive soit imminente, à l’échelle d’une dizaine, d’une vingtaine d’années tout au plus.
Le but de ces chercheurs est simple : ouvrir de nouvelles fenêtres sur le ciel, se mettre à l’écoute de nouveaux messagers, dans l’espoir de déchiffrer un langage encore inconnu, et de recueillir des indices que le cosmos n’a jamais cessé de nous présenter, mais que nous n’avions pas été en mesure, jusqu’alors, de percevoir, et encore moins d’analyser.
Cette ère nouvelle qui se profile, pour enthousiasmante qu’elle soit, n’offre aucune garantie de réussite. Peut-être, après tout, les neutrinos émis par les sources énergétiques de l’univers sont-ils trop peu nombreux pour que leur détection soit susceptible de nous apprendre ce que les photons ne nous auraient pas déjà dit. Peut-être les ondes gravitationnelles, une fois détectées, se révéleront-elles assez peu instructives du point de vue astrophysique. Peut-être encore les rayons cosmiques ultra-énergétiques ne donneront-ils accès qu’à quelques propriétés globales d’une dizaine de sources proches, peu aptes à éclairer les mécanismes d’accélération des particules et le fonctionnement des sources qui focalisent aujourd’hui l’attention des astrophysiciens des hautes énergies. Peut-être faudra-t-il alors se résoudre, après l’avoir ouvert de haute lutte, à refermer le livre inachevé de cet univers multi-messagers dont on aura cru, un temps, qu’il pouvait éclairer le cosmos d’une lumière nouvelle, mais qui se sera révélé ne contenir que quelques pages brunies, mêlant en un dessin informe de vagues lettres griffonnées par la main malhabile du hasard…
Peut-être…
Mais qui peut dire, aujourd’hui, au seuil de l’aventure, la main posée sur la couverture du livre, qu’il vaut mieux renoncer à l’ouvrir ?