12 étapes – de l’idée à la découverte

1 – DE NOUVELLES IDÉES ET DE NOUVEAUX MODÈLES

Le Modèle standard de la physique des particules est un ensemble d’équations qui décrivent précisément les interactions d’un petit nombre de particules fondamentales et la manière dont elles constituent la matière visible. Nous savons cependant que ce modèle doit être incomplet, car il ne permet pas d’expliquer certaines des observations, par exemple en ce qui concerne la matière noire ou l’énergie noire. Les physiciens formulent donc de nouvelles théories, souvent concurrentes, pour expliquer ces observations, et prédisent parfois l’existence de nouvelles particules très massives, ou d’autres phénomènes.

La production de nouvelles particules exige qu’une quantité suffisante d’énergie soit concentrée dans un espace minuscule, de sorte que l’énergie (E) devienne la masse (m) des particules, conformément à l’équation d’Einstein E=mc2. Dans un collisionneur, on y parvient en faisant entrer en collision deux particules. La production de particules plus massives exigeant des énergies de collision plus élevées, les physiciens cherchent à construire des accélérateurs toujours plus puissants.

 

2 – SIMULATION ET RÉALISATION DE PROTOTYPES

Il ne s’agit cependant pas seulement de créer de nouvelles particules ; il faut aussi les observer au moyen d’un détecteur. Afin de comprendre précisément sous quelle forme les nouvelles particules pourraient apparaître, et donc de déterminer quelles doivent être les performances des détecteurs, les scientifiques simulent un très grand nombre de collisions. Ces simulations s’appuient à la fois sur les règles de la physique connues (le Modèle standard) et sur les prédictions du ou des nouveaux modèles examinés.

Un logiciel simule les collisions de particules, la production consécutive d’autres particules, et leur possible désintégration en particules plus légères. Il simule également les traces des particules, l’ensemble de leurs interactions avec les matériaux du détecteur et la réponse de l’électronique de lecture. Enfin, un programme de reconstitution analyse la manière dont le signal aurait été observé dans ce détecteur hypothétique, dans un événement réel. Il faut un grand nombre de ces simulations pour optimiser la géométrie et la composition matérielle du détecteur avant que sa construction puisse commencer.

 

3 - CONSTRUCTION

La planification, la conception, les essais et la construction d’accélérateurs et de détecteurs peut prendre plus de vingt ans. Par exemple, la planification du Grand collisionneur de hadrons (LHC) a commencé en 1984, et sa construction s’est achevée en 2008. Cet accélérateur circulaire de 27 kilomètres de circonférence fait entrer en collision, en quatre points d’interaction, deux faisceaux de protons circulant en sens opposés, qui sont accélérés à une énergie de 6,5 TeV chacun.

En parallèle, des milliers de physiciens ont créé des collaborations afin de construire quatre immenses détecteurs qui mesurent les particules produites lors des collisions, dans le but d’observer de nouveaux phénomènes. Deux d'entre eux, ATLAS et CMS, sont des détecteurs polyvalents, qui s’appuient sur des conceptions différentes et sont exploités par des équipes distinctes, comptant chacune plus de 3 000 physiciens et physiciennes. Deux autres de ces détecteurs sont plus spécialisés : LHCb étudie la symétrie entre la matière et l’antimatière, et ALICE examine les propriétés de l’état primordial des quarks et des gluons.

 

4 - COLLISIONS

La production de particules très massives est un événement rare, qui a lieu généralement moins d’une fois par milliard de collisions. Le LHC a par conséquent été conçu pour produire plus d’un milliard de collisions par seconde ; le nombre total de collisions est souvent exprimé en « femtobarns inverses » (1 fb-1 représentant environ 80 000 milliards de collisions).

 

5 - DÉTECTION

Une collision crée des milliers de particules, lesquelles traversent ensuite le détecteur, situé autour du point de collision. Les détecteurs sont comme d’immenses appareils photo numériques en trois dimensions ; ils sont composés d’environ 100 millions de capteurs, disposés en plusieurs couches, qui enregistrent des informations sur la position ou l’énergie d’une particule. Les particules chargées qui traversent un capteur du trajectographe produisent un petit signal électrique, qui est ensuite amplifié puis enregistré, avec la position du capteur. Un champ magnétique puissant courbe la trajectoire des particules chargées, ce qui permet de mesurer leur « impulsion » (le produit de leur masse par leur vitesse). L’énergie des particules est mesurée par des calorimètres, disposés en plusieurs couches à l’extérieur du trajectographe.

 

6 – SÉLECTION DES ÉVÉNEMENTS

Les protons sont formés de constituants ponctuels, appelés quarks et gluons. La probabilité que ces constituants se rencontrent lorsque deux protons entrent en collision est très faible, mais seules ces interactions à courte distance peuvent produire des particules très massives. Ces événements sont caractérisés par un grand nombre de particules qui s’échappent dans toutes les directions en laissant des traces dans de nombreuses couches du détecteur. Un procédé de filtrage ultra-rapide sélectionne ces événements « intéressants » parmi les millions de collisions lors desquelles les deux protons se traversent sans pratiquement se perturber.

Lors de la première étape, des circuits électroniques très rapides vérifient si de grandes quantités d'énergie ont été déposées dans les couches externes du détecteur ; ensuite, des milliers d’ordinateurs connectés assimilent et synchronisent les informations issues des différentes parties du détecteur afin de trouver, par exemple, des muons, des électrons ou des photons à l’énergie élevée.

Les données sélectionnées, en général 1 000 événements « bruts » (soit environ 1 Go) par seconde, sont ensuite transférées au centre de données du CERN et enregistrées dans le système de stockage de masse, ce qui se traduit par un volume de données de plusieurs dizaines de milliers de To (dizaines de millions de Go) par année et par détecteur.

 

7 – RECONSTITUTION

Chaque événement « brut » les informations enregistrés dans les différentes couches du détecteur. Lors de la reconstitution de l’événement, ces données brutes sont transformées en quantités physiques. Les traces des particules chargées sont identifiées et leurs paramètres (direction, courbure) déterminés ; les dépôts d’énergie dans les calorimètres sont additionnés ; les informations issues des différentes couches sont combinées pour reconstituer des objets physiques tels que des photons, des électrons, des muons ou des jets de particules. En faisant la somme de l’énergie de toutes les particules mesurées et en la comparant avec l’énergie de collision, il est possible de déduire l’ « énergie manquante » appartenant à une particule qui échappe à la détection (par exemple un neutrino).

La reconstitution d’un événement est généralement répétée plusieurs fois, à mesure que le fonctionnement du détecteur est mieux compris, le but étant d’obtenir les mesures les plus précises des traces et des dépôts d’énergie. L’événement est ensuite classé selon ses caractéristiques physiques, et enregistré sous la forme de données résumant l’événement en vue des stades suivants de l’analyse. La reconstitution d’événements nécessite un important temps de calcul et elle est réalisée principalement avec la Grille de calcul mondiale pour le LHC.

 

8 - CALIBRATION

La position et les paramètres de mesure de l’énergie des différentes couches du détecteur doivent être calibrés précisément pour que les résultats puissent ensuite être interprétés en tant que signaux de physique. La calibration initiale s’appuie sur des mesures effectuées avec des faisceaux d’essai, et elle est continuellement affinée au moyen des données des collisions réelles. La position des capteurs dans les couches du trajectographe est réglée en comparant la position prédite et la position mesurée d’une particule passant au travers (et en procédant à d’éventuelles corrections). Les échelles d’énergie des calorimètres sont fixées en se référant aux produits de la désintégration de particules bien connues. Les données de la calibration sont utilisées dans les programmes de reconstitution afin de transformer les signaux mesurés en quantités physiques.

 

9 – ANALYSE DES DONNÉES ET RECHERCHE

Les analyses de physique s’appuient sur les données résumant l’événement, qui contiennent l’intégralité des informations sur les caractéristiques de l’événement reconstitué (par exemple le nombre d’électrons, de muons, de photons et de jets). Les programmes d’analyse se basent sur un ensemble de critères de sélection et cherchent à déceler des motifs spécifiques parmi les particules détectées, en calculant un ensemble de quantités physiques pour chaque événement.

Imaginons la recherche d’une particule, pour l’heure inconnue, qui se désintègre en deux photons de haute énergie. Pour tous les événements contenant deux photons (ou plus) dont l’énergie dépasse un certain seuil, on calcule, à partir de la position et de l’énergie mesurées des photons (voir formule à gauche) et en faisant l’hypothèse que les photons proviennent de la désintégration d’une particule mère, la masse invariante de cette particule au repos. Ce calcul est répété pour chaque combinaison de deux photons. Les résultats de tous les événements sélectionnés sont intégrés dans un histogramme, qui permet de voir combien de fois une certaine valeur apparaît pour le calcul de la masse.

 

10 – COMPARAISON AVEC DES DONNÉES SIMULÉES

Une particule se désintégrant en une paire de photons apparaît sous la forme d’une « bosse » sur la courbe de la distribution de la masse calculée à partir des deux photons, et elle peut s’étendre sur plusieurs intervalles de masse selon la durée de vie de la particule qui se désintègre et la résolution de la mesure.

Une telle bosse se détache généralement d’une distribution régulière, issue des processus du bruit de fond, qui peuvent aussi produire deux photons (ou plus). Pour trouver des indices de nouvelles particules, il est important d’analyser les différences observées entre les données simulées et les données des expériences afin de rechercher des indices de nouvelles particules. Pour chaque analyse, le nombre d’événements simulés doit être comparable (voire supérieur) au nombre d’événements analysés, afin de garantir que les fluctuations statistiques ne sont pas causées par les incertitudes dans la distribution des processus du bruit de fond.

 

11 – BOSSES ET STATISTIQUES

Avant de pouvoir annoncer la découverte d’une nouvelle particule, il faut s’assurer que l’excédent d’événements, par rapport à la distribution du bruit de fond, a une signification statistique suffisamment élevée. Si on reprend l’exemple de la recherche d’une particule se désintégrant en deux photons, dans chaque intervalle de l’histogramme représentant la distribution de la masse invariante, on détermine le nombre d’événements provenant du bruit de fond : tous les processus connus qui donnent deux photons. Ce nombre (N) a une incertitude statistique (sigma) égale à la racine carrée de N, si N est beaucoup plus élevé que 1. En simplifiant beaucoup, si on attend 100 événements de bruit de fond dans un intervalle, un sigma sera égal à 10. On compare ensuite le nombre d’événements observés avec le nombre d’événements attendus et on exprime la différence en nombre de sigma, c’est la signification statistique. Par exemple, si le nombre d’événements observés est de 150, l’excédent par rapport au bruit de fond sera de 50 et la signification statistique de 50/10, c’est à dire 5 sigmas. On considère qu’il y a « découverte » lorsque la signification statistique de l’excédent (la « bosse ») est d’au moins cinq sigmas. Cela signifie que la probabilité que cette bosse soit due à un aléa statistique dans le bruit de fond est de seulement 3 sur 10 millions.

 

12 – DÉCOUVERTE ET POURSUITE DE L’EXPLORATION

Si une nouvelle particule est découverte, de nombreuses questions se posent. Quelles sont les propriétés de cette particule ? Peut-on déterminer précisément sa masse et sa largeur (une caractéristique liée à sa durée de vie) ? Quel est son taux de production ? Le spin de la particule peut-il être déduit de la distribution angulaire des produits de sa désintégration ? La particule est-elle produite seule, ou en association avec une autre particule ? A-t-on observé pour cette même particule d’autres canaux de désintégration (comme c’est le cas pour le boson de Higgs, observé d’abord dans le spectre des désintégrations à deux photons, puis également dans le canal de désintégration à quatre leptons) ? Une expérience indépendante a-t-elle observé la même particule avec des paramètres statistiquement compatibles ? Existe-t-il des modèles théoriques qui se trouvent exclus par ces observations ? Quel modèle théorique correspond le mieux aux observations ? Faudrait-il d’autres expériences, voire des accélérateurs encore plus grands, pour répondre à ces questions ? Le travail d’analyse pourra ainsi faire progresser les connaissances, faire émerger de nouveaux modèles, de nouvelles prédictions, et, finalement, de nouvelles expériences.

You are here