Mise à jour le 14 Décembre 2012
 
 
CONFÉRENCE À L’INSTITUT HENRI POINCARÉ
« LE GRAND ANNEAU DU CERN ET LES DEUX INFINIS »
Par Michel SPIRO
Président du Conseil du CERN, ancien Dr de l'IN2P3
Le Vendredi 7 décembre 2012  amphi Hermite (IHP)
 
 
Merci à Christian Larcher qui a participé à cette conférence et nous retransmet ses notes.
 
Photos : Christian Larcher. pour l'ambiance (les photos avec plus de résolution peuvent m'être demandées directement)
 
Les photos des slides sont de la présentation de l'auteur.  Voir les crédits des autres photos et des animations.
 
 
 
 
 
 
Dans le cadre de la série : « une question, un chercheur » une soirée était organisée par l’Union des Professeurs de Spéciales (UPS), la Société Française de Physique (SFP), la Société Mathématique de France (SMF), l’Institut Henri Poincaré (IHP) pour les élèves des classes préparatoires. Le chercheur invité était Michel Spiro, Directeur du Comité Scientifique du CERN.
 
J’ai essayé de résumer au mieux quelques-uns uns des principaux aspects abordés. Pour faciliter la lecture j’ai introduit des sous-titres qui n’existaient pas. S’il subsiste des erreurs ou des imprécisions, j’en porte seul la responsabilité.
 
 
 
 
Je n’ai pas reproduit tout ce qui concerne le fonctionnement du CERN et du LHC ;  je vous renvoie pour cela aux sites web qui sont très nombreux et bien documentés.
 
Christian Larcher
 
 
Matière antimatière
Au CERN, on fabrique des protons dont l’énergie est de l’ordre du Gev mais on sait aussi créer des paires proton antiproton.
En théorie les protons ne différent des antiprotons que par la charge.
Avec des antiprotons, on peut fabriquer de l’antimatière. On les décélère, on les ramène presque au repos, on leur fait rencontrer des positrons et on fabrique des anti hydrogène, que l'on stocke. On est capable de les conserver et de les soumettre à des rayonnements laser pour voir si les propriétés atomiques, celles les spectres par exemple, sont les mêmes pour l'antihydrogène et pour l'hydrogène. On voudrait aussi les voir suffisamment longtemps pour observer leur mouvement dans le champ gravitationnel, voir s’ils tombent ou si, au contraire, ils sont repoussés par le champ de gravitation. 
 
Normalement les lois de la physique sont symétriques pour les protons et les antiprotons.
D’après la théorie du Big Bang, au début l'énergie est pratiquement pure ; cette radiation est convertie en matière avec autant  de matière que d’antimatière. On devrait donc pouvoir observer des antiétoiles, des antigalaxies.
 
Or, aussi loin que l’on regarde, on ne voit pas d’antiétoiles ni d’antigalaxies.
S’il y en avait, il y aurait des conflits de frontière entre matière et antimatière, il se produirait une annihilation avec émission d’énergie, que l'on n'observe pas.  Où est passée l'antimatière ?
Peut-être que l’antimatière se situe loin en dehors de notre Univers observable. Tous les éléments lourds à partir de C ont été fabriqués dans les étoiles, puis relâchés dans le cosmos lors de l'explosion de l'étoile ; il n'y a que H et He qui ont été fabriqués lors du Big Bang.
Le CERN a mis en place sur la station spatiale ISS un dispositif qui recherche s’il existe des anticarbone, pour l’instant sans résultat.
 
Depuis 2010 les deux grandes découvertes du CERN sont :
·        Un nouvel état de la matière, un plasma fait de quarks et de gluons lors de collisions plomb-plomb (dispositif ALICE). Tous les quarks confinés dans les protons se sont libérés de leur carapace pour former une espèce de boule de quarks et de gluons.  
·        L’annonce de la découverte du boson de Higgs le 4 juillet dernier.
 
 
Échelle des distances
 
La physique appréhende des échelles de distances qui vont de l’infiniment petit à l’infiniment grand. Vers les échelles petites, on bute sur le mur de Planck ( 10-32 cm), véritable mur de l’ignorance. A ces distances, il faut faire appel à la gravitation, à la mécanique quantique et à la théorie de la relativité, avec une vision géométrique des chemins parcourus, des géodésiques déterministes.
On ne sait pas marier ces trois types de physique à ce niveau.
La relativité est déterministe alors que les autres interactions, pilotées par les théories quantiques des champs relativistes, obéissent à un hasard intrinsèque. Le mariage ne se fait pas entre les deux.
 
Michel Spiro décrit l’échelle des longueurs depuis celle de Planck jusqu’aux distances astronomiques.
 
À distance plus petite, on ne peut pas ignorer les effets de l'une ou de l'autre, il faut traiter les effets quantiques et la gravitation. 
 
On ne sait pas le faire actuellement :  Lorsqu'on extrapole l'histoire de l'univers lorsqu'il était beaucoup plus dense et plus chaud, on tombe sur cette valeur de Planck au-delà de laquelle on ne dispose pas de lois de la physique.
 
L'autre extrême, c'est l'échelle de l'univers observable 10 28 cm , ce qui correspond à 13 milliards d'années ( temps que met la lumière à nous parvenir de cette distance) ; au delà l'univers est opaque.
 
 
 
 
 
Pour observer l’Univers à très grande échelle on dispose de télescopes embarqués, comme Hubble, et au sol du VLT et d’ALMA au Chili.
Pour regarder l’infiniment petit on utilise le LHC que l’on peut voir comme un super-microscope. On « voit » mieux avec des électrons qu'avec la lumière visible car ils ont une plus grande énergie ; avec les protons du LHC on peut « voir » les quarks et regarder à travers les quarks si l’on voit quelque chose. Pour l’instant on ne voit rien.
 
 
Les poupées russes
 
La matière se présente comme une suite de poupées russes : il y a un emboîtement de structures et un emboîtement de lois de la physique. Les théories s’emboîtent les unes dans les autres. En mécanique classique il y a une infinie diversité de structures ; par contre les lois sont simples (par exemple pour les gaz PV = nRT).
Si on regarde de plus près les gaz ou la matière, on s’aperçoit quelle est faite de molécules c’est le domaine de la chimie, les molécules sont faites d’atomes et à ce niveau la mécanique classique ne s’applique plus, il faut utiliser la mécanique quantique où les atomes sont à la fois ondes et particules et où les phénomènes obéissent à des probabilités.
La mécanique quantique appliquée à un grand nombre d’atomes  redonne les lois de la mécanique classique ; c'est ce qu'on appelle la décohérence quantique. Les atomes ne sont plus considérés comme particule élémentaire, les électrons sont toujours élémentaires ; les protons et neutrons ne sont plus élémentaires, ils sont faits de quarks qui sont eux élémentaires au même titre que les électrons. Pour décrire les quarks et les électrons, on utilise la théorie quantique relativiste ; toutes ces théories s'emboîtent les unes dans les autres.
 
 
Intrication matière-théorie
 
Finalement on est allé d’une diversité presque infinie de la matière, avec des lois assez simples, à un ensemble de composants très réduit (la matière stable est composée avec deux types de quarks et les électrons). Mais pour définir un quark, il faut utiliser l’attirail de la théorie des champs relativistes.
On est parti d’un monde dans lequel on avait des lois complètement distinctes de la matière et une matière extrêmement diverse pour arriver à un nombre de composants très réduits (une douzaine) mais qui portent en eux la complexité des concepts.
On va d’une matière complexe, dans laquelle le monde des idées est vraiment très différent du monde de la réalité, un peu selon les idées de Platon, à un monde où pour décrire la matière, les quarks, il faut faire appel à la théorie.
 
 
Structure de la matière
 
Résultat des 50 dernières années : les constituants qui constituent la matière stable sont les quarks u et d, l’électron auquel il faut associer le neutrino. A côté des particules qui constituent la matière stable, il existe trois familles instables constituées de quarks et du gluon, qui est comme un électron, mais un électron mou. Il s’agit de particules de matière, des fermions car elles possèdent un spin semi-entier. Les fermions ne peuvent pas exister dans le même état quantique, c'est ce qui reste de l'impénétrabilité de la matière. 
 
 
Le monde des forces
 
Le monde des forces, le monde des lois, est lui aussi présenté par des particules. On voit que ces mondes se rapprochent, les forces sont véhiculées par des particules. La force électromagnétique est véhiculée par des photons, la force forte est véhiculée par des gluons et la force faible, responsable de la radioactivité bêta, est véhiculée par des particules lourdes, que l’on appelle bosons intermédiaires. Ils furent découverts au CERN dans les années 80 ; ils sont très lourds c'est ce qui fait que cette force est faible, c'est pour cela qu'ils sont « passe muraille ». Les électrons subissent à la fois la force faible et la force électromagnétique tandis que les quarks subissent les trois forces.
 
Vous voyez que les forces sont aussi véhiculées par des particules, mais des particules qui ont des spins entiers, en l’occurrence de spin 1 ; on peut les mettre dans le même état quantique ; c’est  ce qui permet de fabriquer des lasers. Les lasers ce sont des photons tous mis dans le même état quantique.
 
 
Modèle standard et boson de Higgs
 
Le modèle standard de la physique des particules décrit les interactions fortes, faibles et électromagnétiques, toutes les interactions quantiques, mais pas l’interaction gravitationnelle traitée par Albert Einstein avec la géométrie relativiste et déterministe.
Si l’on n’avait que cela, le modèle quantique serait incapable de donner une masse à toutes les particules.
Elles auraient toutes une masse nulle.
Pour arriver à rendre le modèle cohérent, avec une masse associée aux particules, il faut une particule, recherchée depuis 40 ans, c’est le fameux boson de Higgs, découvert le 4 juillet 2012 et prédit par Brout, Englert et Higgs (deux belges et un anglais).
La puissance des médias anglo-saxons fait que l’on n’entend parler que de Higgs.
 
 
Le vide quantique et viscosité
 
Le vide quantique n’est pas aussi vide que l’on pourrait l’imaginer. C’est déjà vrai pour le vide classique puisque si dans une enceinte vous faites le vide, vous pompez toutes les molécules que vous pouvez, il n’empêche que les parois aussi rayonnent et vous ne pouvez pas enlever ce rayonnement même conceptuellement. Vous avez toujours quelque chose dans le vide classique.
 
Dans le vide quantique encore plus parce que les relations d’incertitudes font que si on l’observe de très près, dans un temps bref, il fluctue ; le vide quantique est considéré comme l’état d’énergie le plus bas.
Il peut être plein de fluctuations quantiques et donc on le considère comme un quasi milieu.
Le boson de Higgs confère à ce quasi milieu une sorte de VISCOSITÉ et ce sont les particules qui, à travers cette interaction avec le vide quantique, acquièrent une masse.
C’est même un quasi milieu au point qu’il a connu une transition de phase. 
Dans les premiers instants de l'univers, lorsqu'il était plus dense et plus chaud que ce que l'on sait faire au LHC, toutes les particules avaient une masse nulle et donc elles se ressemblaient plus, au point de devenir identiques.
 
Grande unification
 
En remontant le temps vers le Bing Bang on va vers une sorte de monisme, c’est à dire des particules uniques, des forces uniques, de plus en plus unifiées, avec en plus une sorte d’immanence particulière, c’est à dire que les particules et les lois pour les décrire sont intimement mêlées. C’est un peu la vision de Spinoza par rapport à celle de Platon : l’immanence par rapport à la transcendance pour ceux qui s’intéressent à la philosophie.
 
Cette aspiration vers l’unité, vers la grande unification vers une seule particule et une seule force on la voit de la droite vers la gauche (vers le Big-Bang sur le schéma)
 
La découverte de l’unification c’est pratiquement l’histoire de la physique puisque l’on a vu, tour à tour, la gravité terrestre et la gravité céleste s’unifier pour donner la gravitation universelle de Newton et qui après a donné la relativité générale d’Einstein avec sa fameuse théorie déterministe et géométrique. (La gravité terrestre, c’est la pomme de Newton, la gravité céleste, c’est le mouvement des planètes autour du Soleil).
 
Les interactions quantiques sont ici sur le schéma. Une première unification apparue entre le magnétisme et l’électricité pour donner l’électromagnétisme de Maxwell, et une deuxième plus récente qui a été faite avec la machine qui a précédé le LHC qui s’appelait le LEP dans laquelle on accélérait et on faisait collisionner des électrons et des positrons dans la grande machine de 27 km du CERN.
On obtenait des énergies de quelques centaines de Gev. On pouvait montrer que les forces électromagnétiques et les forces faibles devenaient indifférenciables et on arrivait à un modèle que l’on appelle « modèle électrofaible » qui est de mise au LHC.
On ne peut pas distinguer l’interaction électromagnétique de l’interaction faible dans les conditions que l’on a au CERN.
 
 
Supersymétrie et matière noire
 
On s’attend que l’interaction forte s’unifie avec l’interaction électrofaible vers 1015  Gev et qu’entre les deux il y a ce que l’on appelle une « supersymétrie ». Cette supersymétrie devrait en principe établir une symétrie entre les particules de force et les particules de matière et réciproquement. Dans ce monde de la supersymétrie, on devrait trouver un doublement des particules élémentaires constituées par les images symétriques de chacune des particules que l’on connaît aujourd’hui.
 
On les cherche activement au LHC sans succès pour l’instant. Pourtant la théorie prévoie que ces particules devraient avoir une masse dont l’ordre de grandeur ne devrait pas excéder 1000 Gev.
La plus légère de ces particules devrait être stable et constituer ce que l’on appelle la « matière noire » ou « matière sombre », qui reste une grande énigme dans notre vision de la structure de l’Univers.
On espère que l’on pourra la découvrir en doublant l’énergie du LHC on pourra les découvrir.
C’est une étape nécessaire pour aller vers la grande unification et pour l’unification encore plus lointaine de la gravité quantique vers 1019 Gev  à la fameuse échelle de Planck. Il y a quelques théorie qui existent la théorie des cordes ou celle des supercordes, qui sont des théories très mathématiques, mais  ne donnent pas de confirmation.
 
 
Un voyage dans le temps
 
L’Univers est en expansion accélérée. On pense que cette accélération est due à l’énergie du vide déjà mentionnée.
Puisque l’Univers est en expansion, l’espace temps est lui-même en expansion et quand on remonte dans le temps les choses se rapprochent les unes avec les autres comme dans un gaz et la température de l’univers (que l’on peut mesurer à partir du rayonnement fossile du premier instant, elle est actuellement de 2,7 K), et la densité augmentent ;  tous les objets sont plus proches les uns les autres.
Ce rayonnement fossile devient de plus en plus chaud au point que l’on arrive à un univers qui était quasiment opaque il y a 13 milliards d’années. Au delà les atomes sont dissociés.
En remontant encore l’histoire de l’Univers on tend vers une singularité de température et d’énergie qui toutes deux tendent vers l’infini. On ne peut pas aller plus loin qu’une température de l’ordre de 1019 Gev.
Cette température est très élevée, au LHC on ne dépasse pas le Tev c’est à dire le millier de Gev.
On peut extrapoler les lois de la physique jusqu’à 1019 Gev.
 
C’est bien au-delà que la gravité devrait devenir quantique et on ne sait pas la traiter.
 
Si on part de cet instant là,  très chaud très dense, très petit, où tout l'univers observable tenait dans 10-32 cm, il a connu une expansion accélérée dans les tous premiers instants. Au bout d’une picoseconde 10-12 s, le mécanisme de Higgs conduit à une transition de phase du vide quantique : Les particules, qui  étaient avant sans masse, et la lumière apparaissent.
 
En définitive à la fois la lumière fut et la masse vint aux particules en 10-12 s.
Avant c’était une espèce d’hyper lumière. Toute la lumière était unifiée à l’interaction faible et forte.
Après une picoseconde la lumière et les photons deviennent ce qu’ils sont.
Après une microseconde les quarks et les gluons, qui constituaient une sorte de plasma, sont confinés dans les protons et les neutrons. Après 3 minutes on voit apparaître les premiers noyaux, après quatre cents mille ans on voit apparaître les atomes.
À partir de ce moment, l’univers devient transparent et la lumière peut se propager.
Elle peut voyager sans être empêchée par le plasma des charges positives et négatives comme auparavant.
À partir de ces premiers atomes neutres vont se constituer les premières étoiles et galaxies et toute la complexité que vous connaissez. Puis la chimie puis la vie après un milliard d’années
 
 
Hasard ou nécessité
 
Toute cette série de transitions est entièrement définie par des lois déterministes.
Au premier instant le hasard a joué un rôle puisque l’on était dans un Univers quantique et que cet Univers est intrinsèquement probabiliste.
Par exemple au LHC, les collisions proton-proton sont de nature quantique. Il n’y a donc pas deux collisions proton-proton qui se ressemblent exactement.
 
On peut donc se demander si l’Univers tel que nous le connaissons est le fruit d’un hasard quantique ou s’il y a d’autres Univers bulles, au delà de ce point qui a donné naissance à notre Univers observable.
Il est possible qu’au-delà de ce que l’on observe, il y ait d’autres bulles qui se soient produites avec des caractéristiques différentes de l’Univers que l’on connaît.
Actuellement, cette question est une grande énigme. 
Est-ce que tout ce que l’on voit dans l’Univers s’explique à partir des conditions initiales ou bien est-ce qu’il y a beaucoup d’autres bulles au-delà de notre Univers observable ?
Ou bien les choses se sont passées différemment et nous sommes dans la bonne bulle celle qui a permis à la vie d’apparaître et dans laquelle nous existons ? Un peu comme la Terre et les milliards de planètes qui peuvent exister.
On est évidemment sur Terre parce que les conditions nécessaires pour que la vie apparaisse étaient réunies.
Mais l’on est incapable de savoir quelle est la part du hasard, quelle est la part de nécessité dans l’émergence de toutes ces structures, surtout dans les tous premiers  instants.
 
 
Projets d’avenir
 
Le CERN a la possibilité de doubler l’énergie mise en œuvre actuellement au LHC. Mais au paravent il sera nécessaire de refaire environ 10 000 soudures. Ces soudures doivent posséder une résistance extrêmement faible de l’ordre 10-9 ohm, cette valeur est tellement faible que l’on n’avait pas initialement d’appareils pour la mesurer.
Si le circuit électrique cesse brutalement de rester supraconducteur l’intensité électrique augmente subitement provocant un important dégagement de chaleur.
C’est ce qui est arrivé le 19 septembre 2008 au niveau des soudures électriques entre deux aimants.
Cette défaillance a entraîné des dégâts mécaniques provocants la fuite d’une tonne d’hélium liquide.
La réfection de toutes les soudures prendra environ deux ans.
 
 
 
 
 
POUR ALLER PLUS LOIN.
 
Le LHC, chasseur de Higgs : CR de la conf. De Y Sirois aux RCE 2010 le 12 nov 2010
 
Les cordes cosmiques etc .. : CR de la conférence IAP de P. Peter du 6 Mars 2012
 
La longue traque du boson de Higgs : CR de la conf. SAF (cosmo) de G Cohen-Tannoudji du 5 Mai 2012
 
Les branes et cordes : CR de la conf. de C Deffayet à la SAF (Cosmologie) le 28 Juin 2012
 
L’asymétrie matière-antimatière : CR de la conférence de G Chardin à la SAF le 20 nov 2010.
 
L’Univers en accélération : CR de la conférence du Prix Nobel S. Perlmutter du 17 dec 2011
 
LHC, le boson de Higgs et après ? : CR conf M Spiro RCE2012 du 2 nov 2012
 
 
 
Bon ciel à tous
 
 
Christian Larcher SAF
www.planetastronomy.com
Abonnez-vous gratuitement aux astronews du site en envoyant votre nom et e-mail.