Je vous avais promis la dernière fois de commencer par ce que je n’ai pas eu le temps de traiter, c’est-à-dire la question de l’antimatière. Cette question prend place dans la section que j’avais consacrée aux conséquences de la théorie de la relativité einsteinienne sur notre conception générale de la matière. Ça me permet de revenir sur un point général, que je n’avais pas énoncé mais profitons-en maintenant, c’est que vous entendrez dire, encore assez souvent, ou vous pourrez lire que la physique d’aujourd’hui a un gros problème pour concilier la théorie de la relativité et la théorie quantique. C’est à prendre avec un grain de sel, un gros grain de sel. En vérité le problème ne se situe absolument pas au niveau de ce que, jusqu’ici, j’ai appelé, je m’y tiendrai, la relativité einsteinienne, c’est-à-dire la nouvelle conception de l’espace et du temps, celle que nous avions explorée dans notre première séance, qui non seulement est parfaitement compatible avec la théorie quantique, mais lui donne même des aspects novateurs qui permettent d’expliquer, comme nous allons le voir d’ailleurs avec la notion d’antimatière, des phénomènes expérimentalement constatés. Le problème existe par rapport à ce qu’il est convenu, encore aujourd’hui, d’appeler, d’une assez mauvaise terminologie, la relativité générale. Qu’est-ce que c’est que la relativité générale ? C’est en fait la théorie einsteinienne de la gravitation. C’est la modification de la théorie newtonienne classique pour la mettre en adéquation avec la conception de l’espace-temps produite par Einstein. Alors, c’est une nouvelle théorie de la gravitation et celle-là présente des propriétés un peu bizarres qui font qu’on a du mal à l’articuler, encore aujourd’hui, avec la théorie quantique. Il y a là un problème ouvert mais il n’y a pas de conflits ou de contradictions, il y a une difficulté encore irrésolue et de nombreuses pistes pour la résoudre.
Revenons maintenant, si vous le voulez bien, à la relativité einsteinienne en tant que nouvelle théorie de l’espace-temps, dont nous avions exploré un certain nombre de conséquences. Voici maintenant une nouvelle qui est l’existence de l’antimatière, nous allons voir ce dont il s’agit. Revenons, pour commencer, sur le mécanisme des interactions telles que les décrit la théorie classique. Voilà ce que la théorie classique, comme nous en avions discuté, propose quant à la conception même de la notion d’interaction. Les interactions ont lieu entre des particules que j’ai représentées ici en train de suivre des trajectoires symbolisées ici par des traits continus et comment est portée, transférée, médiatisée, l’interaction entre elles par des champs. J’avais introduit la notion de champ dans la première conférence, une particule supposée par exemple chargée, électriquement chargée, autour d’elle un champ électromagnétique, ce champ se propage de proche en proche et agit sur la seconde particule, ce mécanisme étant évidemment réciproque. Donc des particules qui interagissent via des champs. Là c’est le temps qui s’écoule et évidemment ce phénomène a lieu à tous les instants, ce diagramme est extrêmement schématique. Il a juste pour but de vous rappeler cette idée fondamentale de la dualité des objets en physique classique : particules et champs, particules interagissant via les champs. Maintenant que se passe-t-il en théorie quantique ? Eh bien en théorie quantique, nous l’avons vu, ni la notion de particule, ni la notion de champ ne subsistent ; elles sont remplacées par une seule et même notion, celle de quanton. Il n’y a plus désormais deux types d’objets, des particules d’un côté, des champs de l’autre, il n’y a que des quantons. Et donc vous ne serez pas surpris que la théorie quantique décrive les interactions par un schéma, que nous allons tracer, de ce genre-là, comme ceci. Ce ne sont donc plus des particules interagissant via des champs, mais des quantons interagissant via des quantons. Si l’on prend le modèle, le cas particulier des interactions électromagnétiques, quel est le quanton qui correspond au champ électromagnétique classique ? C’est naturellement le grain du champ électromagnétique, son quanton élémentaire, le photon. Cette ligne ondulée dans ce cas-ci représenterait un photon qui transporte, si j’ose dire, l’interaction entre deux quantons, qui pourraient être des électrons par exemple, ou des protons qui sont donc électriquement chargés. Ce qu’on appelle les diagrammes de Feynman, du nom de Richard Feynman, un des grands physiciens du XXe siècle, est plus qu’une représentation figurée, c’est en vérité, mais là naturellement, là on rentrerait dans des technicités qui ne sont pas notre propos, une sorte de sténographie à laquelle sont associés des modes de calcul. Quand un physicien dessine un diagramme de ce genre-là, il peut lui associer des formules qui vont lui permettre de calculer le processus par lequel les électrons interagissent via l’échange d’un photon, calculer par exemple la probabilité de cette interaction. Il ne faut surtout pas, et c’est là que la figure est un peu trompeuse par rapport à la première que j’avais tracée, il ne faut surtout pas interpréter ces lignes comme des trajectoires dans l’espace. Vous vous rappelez que les quantons ne sont pas ponctuellement localisables en règle générale, il ne s’agit donc pas là de trajectoire spatiale mais d’une représentation beaucoup plus abstraite de l’évolution du quanton au cours du temps. Le temps, par contre, correspond toujours à la définition usuelle du temps qui s’écoule. Voici deux électrons qui arrivent et, à un moment donné, l’un émet un photon, l’autre, un instant plus tard, l’absorbe et cette émission puis cette absorption les font changer d’énergie, de quantité de mouvement, bref les font interagir. Alors, le diagramme que j’ai illustré ici, je le dis en passant, est le plus élémentaire d’une longue série infinie parce que bien entendu rien n’interdit aux quantons, des électrons ici, d’échanger non pas un mais de deux photons, trois, quatre, cinq et il faudrait pour avoir une description correcte de l’ensemble du phénomène rajouter à ce diagramme-là des diagrammes nettement plus compliqués comme par exemple celui-ci, encore relativement simple où il y a un échange d deux photons, celui-ci qui est plus compliqué, vous voyez qu’ils échangent deux photons mais il y en a un qui est émis ici et qui est absorbé là, l’autre ici etc. Il y a une jungle de tels diagrammes, l’intérêt c’est que plus ils sont compliqués, dans le cas de l’électricité et du magnétisme, plus ils sont compliqués, plus leur contribution est faible et que donc on arrive à avoir une bonne définition des phénomènes que l’on veut décrire en s’en tenant au plus simple ; d’abord au singulier puis aux plus simples au pluriel, donc une série d’approximations successives qui a le bon goût de donner d’excellents résultats.
Alors, ce mécanisme représenté par le diagramme de Feynman se généralise à toutes sortes d’interactions, par exemple aux interactions nucléaires où cette fois-ci vous remplaceriez les deux quantons que j’ai pris comme électrons, par cette fois-ci des quantons soumis aux interactions nucléaires, par exemple les neutrons, les protons et cette fois-ci le médiateur de l’interaction est un quanton chargé de cette fonction, qui a une fonction particulière, c’est ce qu’on appelle un méson, peu importe, ici mon but n’est certainement pas de vous transmettre la zoologie compliquée des particules mais plutôt les mécanismes par lesquels elles interagissent. Donc ce serait un méson, un méson par exemple qui transmettrait l’interaction entre les deux nucléons. Une fois ceci dit, vous allez voir en quoi cette représentation trouve tout de suite une efficacité pour nous permettre de comprendre l’existence de l’antimatière sur la base de la théorie de la relativité.
Le phénomène fondamental ici, que je vais illustrer d’abord pour les interactions électromagnétiques, est le fait que la conception einsteinienne de l’espace et du temps présente, nous l’avons dit, quelques différences qualitatives fondamentales par rapport à la conception classique newtonienne, galiléenne, en particulier celle-ci sur laquelle je n’avais pas insisté mais c’est le moment, que la notion de simultanéité n’y est plus absolue. La simultanéité devient relative. Relative par rapport à quoi ? Relative par rapport au point de vue de l’observateur ou de façon moins subjective, plus objective, relative au système de référence dans lequel j’observe, je mesure, je repère, mes événements. Autrement dit, si pour reprendre l’exemple einsteinien qui était évidemment purement symbolique, si vous considérez un train, et qu’à l’arrière et à l’avant du train simultanément pour les gens qui sont dans le train, le conducteur par exemple et puis le contrôleur qui est à l’arrière du train allument simultanément un phare, un phare qui s’allume à l’avant, un phare qui s’allume à l’arrière, si le train est en train de rouler à grande vitesse sur ses rails, pour quelqu’un qui est à l’extérieur du train et qui est immobile par rapport aux rails, et donc par rapport à qui le train se déplace, les deux signaux ne seront plus simultanés. Alors évidemment, c’est très choquant par rapport à notre intuition courante suivant laquelle deux événements simultanés sont absolument simultanés pour quiconque. Eh bien il faut se faire une raison, tel n’est plus le cas en théorie einsteinienne de la relativité. Cela veut donc dire qu’il existe certains couples d’événements dont l’ordre temporel est relatif, parce que vous comprenez bien que si deux événements simultanés pour quelqu’un puissent se passer l’un après l’autre pour un autre, pas en inversant le sens du mouvement, le sens, la différence de leur temps sera inversée. Donc deux événements peuvent être soit simultanés soit A en même temps que B ou bien pour d’autres observateurs A après B ou bien encore pour d’autres observateurs A avant B. Rassurez-vous tout de suite : ce n’est pas le cas, et de loin, de tous les couples d’événements, il existe, Dieu merci, une large classe de couples d’événements pour lesquels l’ordre temporel reste absolu, ce qui permet de préserver la causalité. Évidemment, sinon on serait très embarrassé puisque si on pouvait toujours renverser l’ordre des événements il n’y aurait plus de cause ni d’effet. Tel n’est pas le cas. Il reste une notion de cause et d’effet mais un peu atténuée. N’importe quel couple d’événements ne peut pas être distribué sur cause et effet. La notion est donc un peu plus restreinte. Ce qui m’intéresse ici c’est le phénomène un peu plus fondamental qui permet pour certains couples d’événements de voir le phénomène de telle sorte que l’ordre temporel des événements, l’ordre est renversé.
Alors, venons-en au fait et considérez par exemple un diagramme de Feynman, puisque nous avons cet outil à disposition, qui serait le suivant : c’est une interaction dans laquelle j’ai un photon qui rentre d’un côté, un électron de l’autre. Ils interagissent. Ils interagissent, vous voyez cet électron-ci qui s’en va, se propage jusqu’en B, reçoit le photon qui arrive en B et continue. En fait ce qui s’est passé, si j’oublie ce qui s’est passé entre temps et que je regarde juste le début et la fin, j’ai un photon et un électron qui arrivent, un photon et un électron qui s’en vont, c’est une réaction qu’on peut symboliser ici : photon plus électron donne photon plus électron mais évidemment avec modifications des énergies, des vitesses des photons et des électrons initiaux, c’est donc une interaction. Dans le schéma tel que je l’ai tracé, n’oubliez pas que le temps se déplace comme ceci, dans le schéma tel que je l’ai tracé, l’émission du photon par l’électron à l’instant A, je ne dis pas au point A, rappelez-vous qu’il n’y a pas de spatialité claire mais il y a une temporalité, mais à l’instant A, vous voyez que le temps s’écoule dans ce sens-là, donc à l’instant A, eh bien l’émission est antérieure à l’instant B. Donc j’ai un électron qui émet un photon avant d’en absorber un. Maintenant, comme je viens de le dire, dans certaines conditions, je peux regarder le même phénomène dans un autre cadre spatio-temporel, depuis un train en mouvement par rapport à mon laboratoire, finalement un train fictif (il faut des vitesses très grandes, comparables à celles de la lumière) et dans ce nouveau référentiel, l’instant de l’absorption précédera l’instant de l’émission, j’aurai donc un diagramme qui sera celui-là. L’instant B où le photon est absorbé précède l’instant A où l’autre photon est émis. Donc l’instant « t’A » est supérieur, ultérieur, postérieur, à l’instant « t’B ». Alors là, vous avez un très gros problème. Qu’est-ce qui se passe entre A et B ? Qu’est-ce qui se propage entre A et B ? Qu’est-ce qui se propage de B vers A ? Puisque B est avant A. Qu’est-ce qui se propage de B vers A ? Sûrement pas un électron. Ça ne peut pas être un électron parce que vous ne pouvez pas avoir un photon et ensuite deux électrons. Même chose ici, vous ne pouvez pas avoir deux électrons qui arrivent et un photon qui s’en va. Pourquoi ? Tout simplement parce que la charge électrique ne serait pas conservée. Vous ne pouvez pas avoir deux particules chargées qui brusquement se transforment en une autre qui ne le serait pas. Conclusion, comment faut-il interpréter ce qui se passe de B à A ? Eh bien par une particule qui aurait une charge positive. C’est-à-dire quelque chose que nous allons appeler e+. Qu’est-ce que c’est, e+ ? C’est la même chose qu’un électron sauf que sa charge est positive au lieu d’être négative. C’est un positron, comme on dit trop souvent. Il faudrait l’appeler positon, bien sûr le « r » n’a rien à voir là-dedans, électron parce qu’électricité, mais positif donc positon. On a proposé d’appeler l’électron, négaton, mais ça n’a jamais pris, donc on a affaire à un électron et à un positon.
Vous voyez donc que c’est vraiment le cadre spatio-temporel de la relativité einsteinienne avec sa possibilité de renverser un ordre, une séquence temporelle, qui impose la considération des antiparticules comme on va les appeler, c’est-à-dire pour chaque espèce de particule il y en a une autre tout à fait semblable sauf que sa charge électrique sera inversée, et toutes les autres charges dans les détails desquels je ne rentrerai pas (il existe d’autres types de charges moins familières que la charge électrique).
Alors, illustration de ce même mécanisme dans un autre cas, qui est celui des interactions nucléaires, pour vous montrer que ça marche de façon très générale, c’est ce que je vous avais annoncé tout à l’heure. Par exemple un proton et un neutron, particules qui constituent le noyau, qui s’attirent pour former des noyaux, eh bien le mécanisme de l’interaction c’est l’échange d’un certain quanton (en l’occurrence un méson représenté ici en pointillés) et je prends le cas où ils échangent un méson+, chargé positivement, vous voyez qu’un proton arrivant en A émet un méson+. Ce faisant, il perd sa charge. Il se transforme donc en une particule sans charge, un neutron. Réciproquement un neutron arrive, absorbe un méson+, gagne de la charge et se transforme en proton. Il y a eu échange des charges, mais le résultat final c’est que vous aviez un neutron plus un proton à l’entrée et vous avez un proton plus un électron à la sortie. Inutile de dire que comme tout à l’heure dans le cas de l’électromagnétisme, il faudrait multiplier ces diagrammes avec tous les échanges possibles de méson+ dans tous les sens pour avoir une représentation complète du phénomène, et je mentionne au passage que là est la difficulté fondamentale du traitement des interactions nucléaires. C’est qu’autant dans le cas des interactions électromagnétiques, plus les diagrammes étaient compliqués plus leur contribution était faible, ceci est dû au fait que, nous allons le voir dans quelques minutes, les interactions électromagnétiques sont des interactions qui ne sont pas très fortes, plus il y en a moins la contribution est importante. Les interactions de type nucléaire sont appelées fortes parce que justement, elles sont fortes et quand deux nucléons échangent deux mésons au lieu d’un, la contribution est du même ordre de grandeur. Il est donc très difficile de séparer les contributions et de les ajouter de façon à avoir un résultat sensé, il y a là une difficulté technique précise des interactions nucléaires.
Je ferme cette parenthèse et maintenant je regarde ce même phénomène ici depuis un autre référentiel dans lequel B a lieu avant A au lieu d’avoir lieu après, donc dans un référentiel où le temps « t’ » tel que t’A > t’B, c’est-à-dire où A est postérieur à B. Même problème que tout à l’heure. Quel est cette fois-ci le quanton qui va de B à A ? Ça ne peut pas être un méson+ exactement pour la même raison que tout à l’heure, parce que votre neutron ne peut pas se transformer en deux particules chargées positivement. Il y aurait encore une fois non conservation de la charge électrique, un objet neutre ne peut pas se transformer en un objet chargé. De la même façon, de l’autre côté un proton ne peut pas absorber une particule chargée positivement pour donner un neutron, donc ceci impose l’existence d’un méson- qui est la même chose qu’un méson+ sauf qu’il a une charge négative.
Vous voyez donc que chaque fois qu’il y a une particule qui a une charge positive il faut pour que le même phénomène puisse être interprété d’un autre point de vue spatio-temporel, supposer l’existence d’une antiparticule. Alors, vous me direz, ce n’est pas la même chose puisque là ils échangent un méson+, et là un méson-. Si. C’est la même chose vue, si j’ose dire, sous des angles spatio-temporels différents. C’est un peu comme si je vous montrais cette feuille ; eh bien suivant l’endroit d’où vous êtes, vous voyez ce côté-là ou ce côté-là. Il y a deux points de vue possibles, il n’empêche que vous n’avez qu’une feuille. Là il en va de même. Vous avez un processus mais il y a deux angles de vision possibles qui diront, eh bien de la même façon (si) cette feuille était décrite les deux points de vue ne seraient pas décrits de la même façon, l’un verrait quelque chose, l’autre verrait autre chose. Là quelqu’un décrit l’échange de méson-, l’autre l’échange de méson+ mais c’est le même phénomène et le calcul du processus donnera évidemment le même résultat.
Alors, ceci est évidemment relativement schématique, il y a des tas de finesses et de subtilités mais le point qui m’importait ici c’était de vous montrer à quel point, chose un peu inattendue de prime abord, une modification radicale de la conception de l’espace et du temps, c’est-à-dire finalement de la grande scène sur laquelle se joue le théâtre de phénomènes de ce monde, eh bien une modification de la scène implique une modification des acteurs. Sur la scène relativiste, sur la scène einsteinienne, il faut convoquer des anti-acteurs chaque fois que vous avez des acteurs, vous y êtes obligés sinon le système n’est pas cohérent. Alors cela était prédit pour la première fois dans les années 1930 quand Dirac, un des grands physiciens de l’époque, était le premier à proposer une théorie en conformité avec la relativité einsteinienne, qui était une théorie de l’électron et dans cette théorie il se trouvait qu’il a trouvé plus de choses qu’il n’en avait mis. Cette théorie décrivait effectivement l’électron mais il avait à côté qui sortaient comme ça du cadre théorique sans qu’il l’ait voulu d’autres quantons de charge cette fois positive, alors il s’est dit dans un premier temps ah bon, mais c’est très bien, ça va être les protons et puis il s’est aperçu que ça ne marchait pas parce que les protons n’ont pas la même masse que les électrons et donc ces nouvelles solutions ne pouvaient pas être comme des protons. Il a bien fallu se résigner à l’idée que c’était des choses encore inconnues, ayant la même masse que l’électron mais une charge opposée, positive, que l’on a donc baptisée à cette époque des positons et dans l’espace d’un an, un expérimentateur, Karl Anderson, les a observées dans le rayonnement cosmique sur des plaques photo. Donc c’était bien, ça a marché, et depuis 1930 et quelque, il n’y a jamais eu d’exception, chaque fois que l’on a trouvé des particules on a trouvé, tôt ou tard, du fait des difficultés expérimentales, des antiparticules correspondantes. Il y a donc une dualité fondamentale de la nature qui à toute forme de matière telle que nous y sommes habitués, alors qu’est-ce que c’est que la matière pour nous ? Eh bien la matière pour nous, celle à laquelle nous avons à faire, elle est composée pour l’essentiel et de prime abord d’électrons qui sont dans les atomes, des protons et des neutrons qui sont dans les noyaux atomiques, et puis après il faut rajouter toute cette zoologie compliquée des particules fondamentales dans le détail desquelles je ne rentre pas, par exemple le méson+ pour fixer les idées, eh bien à cette liste de composants de ce que nous avons appelé matière, nous sommes obligés de faire correspondre ce que nous appelons « antimatière », je mets des guillemets que je vais expliquer, à l’électron va correspondre le positon, au proton va correspondre un antiproton, même masse mais une charge négative, au neutron va correspondre un antineutron, alors ça c’est déjà un peu plus subtil parce que la charge électrique du neutron est nulle, néanmoins le neutron a un autre type de charge, je ne rentre pas dans les détails, qui le distingue, qui fait que le neutron et l’antineutron ce n’est pas la même chose ; quant au méson+ il va lui correspondre le méson-. Est-ce que le mot d’antimatière est véritablement le bon ? Ça dépend comment on l’entend. Le « préfixe » « anti » a en fait deux significations dans la langue courante : ça peut désigner, par exemple dans « antibiotique », ce qui est opposé à, ce qui va détruire, ce qui va être contre, ou comme dans « antipode », ce qui est à l’opposé de, ce n’est pas la même signification. Un antibiotique, c’est contre les microbes (anti bio, contre la vie) les antipodes c’est simplement à l’opposé de nous. Eh bien, convenons qu’antimatière, adoptons-le, mais comprenons-le comme antipode, donc à l’opposé de. C’est une autre matière, c’est une autre forme de matière. La métaphore des antipodes fonctionne assez bien, très bien. Les antipodes si j’ose dire, c’est comme ici ; quand on est là-bas c’est nous qui sommes aux antipodes ; il y a une symétrie parfaite entre un point et son antipode à la surface de la terre. Du point de vue de quelqu’un qui est à un endroit, l’autre est aux antipodes, mais pour quelqu’un qui est aux antipodes, c’est nous. Autrement dit les antipodes des antipodes c’est le point de départ. Là il en est de même. L’antimatière de l’antimatière c’est la matière ordinaire. Et puis il faut rajouter ceci, et là l’analogie avec l’antimatière s’arrête, c’est qu’il y a des formes de matière qui sont absolument neutres, qui ne transportent aucune charge et donc pour lesquelles la distinction entre matière et antimatière n’a aucune signification. C’est par exemple le cas du photon et du méson0 qui se trouvent entre le + et le -. Autant vous pouvez dire le + c’est l’antiparticule du - et puis le - l’antiparticule du +, je signale d’ailleurs que là c’est très arbitraire de mettre le + à gauche et le - à droite puisqu’il appartient aux particules stables dont nous avons l’habitude donc j’aurais aussi bien pu mettre - de l’autre côté et + là, c’est tout à fait conventionnel, et le 0 il est au milieu, il est si j’ose dire sa propre antiparticule et il n’y a pas de dualité en ce qui le concerne, pas plus que pour le photon. Il n’y a pas d’anti photon. Plus exactement, dans ce cas-là, photon et anti photon, c’est exactement la même chose.
Vous voyez que la notion d’antimatière est relativement subtile et qu’elle correspond au fond, alors voici peut-être une meilleure représentation que celle des antipodes, c’est en fait une symétrie de type miroir analogue à la symétrie miroir visuelle à laquelle nous avons l’habitude d’avoir affaire avec les miroirs classiques, les miroirs qui renversent les objets. Si vous présentez votre main gauche à un miroir, vous voyez un objet dans le miroir qui est identique à votre main droite et réciproquement. Donc un objet qui n’est pas identique à son symétrique est transformé en son symétrique par un miroir. Un gant droit, son image est un gant gauche, un gant gauche son image est un gant droit et, par contre, il existe des objets qui sont identiques à leur image dans un miroir. Prenez des chaussures, alors il y a une gauche et une droite mais prenez une paire de chaussettes usuelles puisque maintenant on en fait où il y a des pieds gauches et des pieds droits, une paire de chaussettes habituelles, eh bien elle ne distingue pas entre la gauche et la droite, une chaussette gauche est identique à son image dans un miroir. Eh bien les chaussettes sont des photons, par contre les chaussures seraient matière et antimatière. Vous voyez bien que la symétrie miroir usuelle nous présente aussi cette caractéristique d’avoir ou bien des objets différents de leur symétrique, ou bien des objets identiques à leur symétrique. Alors, dans un miroir particulier, qui n’est pas un miroir visuel mais un miroir théorique qui renverse les charges, vous avez exactement la même situation. Ce qui permet aussi de se poser des questions sur la terminologie matière et antimatière, eh bien c’est le fait qu’encore une fois qu’est-ce qui fait que j’appelle celle-ci matière et celle-ci antimatière ? Eh bien tout simplement le fait que ça c’est celle à qui j’ai l’habitude d’avoir affaire mais celle-ci à rigoureusement les mêmes propriétés. Autrement dit, s’il existait, c’est la question pas tout à fait résolue aujourd’hui, s’il existait des morceaux d’univers lointains dans lesquels au lieu des électrons il y a des positons, au lieu des protons des antiprotons, vous auriez des antiatomes d’hydrogène, des antinoyaux, des antiatomes et la physique serait la même que la nôtre vue dans un miroir, la même. Et donc c’est uniquement que nous vivons dans un monde où la matière est prédominante, ce que nous, nous appelons la matière, parce que l’antimatière est, comme je vais vous le montrer, dans notre monde extrêmement éphémère. Pourquoi est-elle éphémère, là il faut se demander, puisqu’elle n’existe pas autour de nous, comment nous pouvons y avoir accès et comment nous pouvons par exemple la créer ? Eh bien rien de plus facile, et là aussi c’est un phénomène lié à la théorie de la relativité restreinte, eh bien vous pouvez le voir déjà sur un des schémas que nous avons regardés tout à l’heure, si vous ne regardez qu’un petit bout, reprenez ce schéma-là et isolez par la pensée le mécanisme qui est ici. Qu’est-ce que vous voyez là ? Un photon qui se transforme en une paire : électron et positon. Eh bien c’est effectivement le bon moyen de créer des positons. Alors c’est un tout petit peu plus compliqué parce que pour des raisons liées à la conservation de l’énergie il faut qu’il y ait un partenaire, une sorte de catalyseur, de partenaire neutre mais si vous envoyez un photon sur un noyau atomique quel qu’il soit, peu importe, si le photon a assez d’énergie, vous pouvez de l’autre côté retrouver votre noyau et puis avoir un couple électron et positon. Qu’est-ce qui s’est passé dans cette affaire-là ? L’énergie purement cinétique du photon, rappelez-vous, un photon n’a pas d’énergie interne, il n’a pas de masse, l’énergie cinétique du photon s’est entièrement transformée en énergie des positons et d’électrons, en particulier en énergie de masse. Vous avez là ce que je vous avais annoncé, un taux de conversion d’énergie cinétique en énergie interne qui est de 100%. Il n’y avait pas d’énergie interne au départ dans le photon, vous en retrouvez à l’arrivée, plus de l’énergie cinétique pour le positon et l’électron. Alors quand on a trouvé ces phénomènes pour la première fois dans les années 30 disons, on n’était pas bien accoutumé à la notion de photon, à cet objet quantique, on avait encore tendance à le penser sur le mode classique des ondes, du rayonnement, autrement dit pas quelque chose de matériel. La matière c’était des trucs qui avaient de la masse, qui pesaient, qui se cognaient : les électrons, les protons, ça oui, c’était de la matière, les photons c’était des trucs du rayonnement. On n’était pas habitué à ça. Et donc comment on a appelé ce phénomène-là ? On a dit : il y a création de matière, matérialisation de l’énergie. Alors ça posait des tas de problèmes philosophiques qui intriguaient beaucoup les gens. En vérité c’est une mauvaise façon de parler parce que le photon est aussi, ou tout aussi peu, matériel que l’électron ou le positon. C’est une réaction de transformation d’un photon en une paire électron-positon. Naturellement, ce phénomène est réversible. C’est-à-dire que vous pouvez très bien voir disparaître l’électron et le positon et ce qui donne lieu à des photons. Plus généralement d’ailleurs si vous avez un positon qui se balade dans la matière ordinaire, il va finir par rencontrer un électron et vous allez avoir au bout du compte deux ou trois photons, alors là aussi classiquement, enfin historiquement, au début on parlait d’annihilation de la matière, on disait « voilà, la physique moderne a démontré que la matière c’est quelque chose de plus éphémère… », vous voyez le rôle que ça peut jouer, une telle métaphore, dans de grands débats sur « matière et esprit » etc. La matière est éphémère, elle n’est pas nécessairement stable, c’est tout simplement parce que la conception de la matière que nous avions n’était pas la bonne. En fait les photons, c’est de la matière, il y a donc transformation de matière.
Alors le temps passe et je vais avoir du mal à remplir mon programme. Toujours est-il qu’avec ces transformations dues à la théorie de la relativité sur la conception que nous avons de la matière et des particules, nous avons assisté à un profond bouleversement de la notion même de particules élémentaires. Parce que la quête était celle-là. Descendons vers l’élémentaire, vous vous souvenez du petit schéma que je vous avais montré, qui était celui-ci où on descendait de la matière ordinaire vers les atomes les molécules, vers les noyaux et les électrons, vers les baryons et les mésons, vers les quarks et les gluons. Bon, d’accord, sauf que ce faisant, la notion même d’élémentarité ou plus profondément encore l’idée d’objet composé, c’est-à-dire la notion de composition, la relation entre composant et composé a dû se modifier profondément. Et qu’elle a rencontré deux types de limites : d’abord des limites de type épistémologique de plusieurs sortes : premièrement quant à la nature même des composants, j’ai commencé à y faire allusion à l’instant, pourquoi ? Parce que, prenez la métaphore suivante pour arriver à comprendre. Pensez à la différence entre un tas de briques et un mur de briques. Vous pouvez dire, c’est composé de briques. Oui, mais ce n’est pas composé de la même façon. Le mur de briques à une certaine structure qui fait que les briques tiennent ensemble. Qui tiennent ensemble pourquoi ? Eh bien parce qu’il y a du mortier, il y a du ciment qui assure la cohésion du mur et qui lui donne sa structure. On n’a pas l’habitude de penser, si on vous dit « avec quoi il est fait le mur ? » on va dire : il est fait avec des briques. Effectivement, les briques occupent la majorité du volume et comprennent l’essentiel de la masse et puis du mortier, il n’y en a pas beaucoup et vous n’y pensez pas comme étant un des composants du mur, mais vous devriez dire : « ce mur est composé de briques et de ciment ». Si vous oubliez le ciment vous n’avez pas un mur, vous avez un tas. Et donc ce qui assure la liaison dans une structure fait partie de la structure. Pourquoi ne pensons-nous pas comme ça en règle générale ? Parce que nous avons tendance quand nous regardons un objet construit à privilégier les éléments séparés, discrets, qui le composent. Une machine, nous la démontons en boulons, en éléments etc. et quand c’est un objet, par exemple comme un mur où il rentre en plus des objets discontinus, les briques en l’occurrence, une sorte de continu, de fluide, le ciment en l’occurrence, nous n’arrivons pas, nous n’avons pas spontanément le réflexe de le penser comme appartenant à la liste des constituants de l’objet. Eh bien dans le cas des objets quantiques ça va devenir indispensable. Par exemple, prenez tout simplement l’atome, on dit tout le temps, l’atome c’est constitué d’un noyau et d’électrons. C’est faux. S’il n’y avait qu’un noyau et des électrons, eh bien, ça ne tiendrait pas ensemble, comme un tas de briques sans ciment. C’est des noyaux et des électrons plus ce qui les fait tenir ensemble ; qu’est-ce qui les fait tenir ensemble ? L’attraction électromagnétique. Mais qu’est-ce que c’est que l’attraction électromagnétique ? Classiquement c’est un champ électromagnétique mais quantiquement puisque nous y sommes, ce sont ces fameux photons. Ce sont ces échanges de photons entre le noyau chargé et les électrons et donc il faut dire, en toute rigueur, qu’un atome, nous y sommes, ce sont ces fameux photons. Ce sont ces échanges de photons entre le noyau chargé et les électrons et donc il faut dire, en toute rigueur, qu’un atome c’est un noyau, des électrons et des photons. Alors ensuite ça va être compliqué parce que ces photons ne se dénombrent pas si aisément, c’est plus compliqué, mais ils sont un constituant essentiel de la matière, de la substantialité de l’atome. Et donc vous voyez que première conséquence sur la nature des composants des objets quantiques, nous sommes amenés, nous venions déjà de le voir à propos de l’antimatière, à élargir notre conception de la substantialité. Il faut que nous pensions maintenant les quantons de masse nulle comme les photons, ils sont tout aussi substantiels, ce sont des objets matériels au même titre que les électrons et les protons. Donc la notion de substance devient plus large.
Deuxième temps, nous avons l’habitude quand nous considérons un objet composé, que ce qui le compose a une existence actuelle dans le composé. Quand vous cassez un mur de briques, que vous le transformez en un tas de briques, vous n’êtes pas surpris parce que les briques sont dans le mur. Vous trouvez les mêmes briques, une fois le mur démoli, que les briques qui étaient dans le mur. Ah oui, justement, en théorie quantique ça ne va pas être la même chose. Ça reste la même chose encore au niveau atomique, au sens où, eh bien si par exemple par un procédé quelconque, l’électrolyse, ou autre, une réaction chimique, vous décomposez une molécule d’eau eh bien vous allez la décomposer en deux atomes d’hydrogène et un atome d’oxygène, c’est ce qui constituait la molécule d’eau, vous les avez cassés, la molécule d’eau, vous trouvez les mêmes briques séparées après. Mais prenez maintenant ce qui se passe dans le domaine de particules fondamentales de haute énergie, c’est-à-dire celles pour lesquelles on est obligé de faire appel aux conceptions précisément einsteinienne d’énergie, de masse, etc. Pour ces objets, vous pouvez avoir des réactions du genre suivant : un proton que vous envoyez sur un proton, si vous donnez suffisamment d’énergie à celui que vous envoyez avec un grand accélérateur de particules, vous pouvez trouver à l’arrivée, toujours les deux protons et puis par exemple un méson0. Qu’est-ce qui s’est passé ? Le même phénomène que celui que nous avions vu là. C’est-à-dire l’énergie cinétique des deux protons se transforme pour partie en énergie interne, en énergie de masse du méson0. Il y a apparition du méson0 parce qu’il y a suffisamment d’énergie pour lui donner de la masse. Oui, mais seulement alors, ce qui est tout à fait extraordinaire là c’est que vous voyez que le méson0, il n’y était pas avant, il est vraiment apparu. C’est comme si quand vous cassiez un tas de briques, vous obteniez les briques initiales, les deux protons, plus d’autres choses. Comme si quand il y avait un accident de voiture, une fois que la voiture part en l’air et qu’elle retombe au sol, vous trouviez six pneus au lieu de quatre. Alors c’est quelque chose à quoi nous ne sommes pas habitués bien entendu, c’est ce phénomène de transformation qui permet l’apparition et la disparition d’objets. Autrement dit, dans ce domaine quantique einsteinien, le nombre d’objets, de quantons, n’est pas fixé. Il y en a qui peuvent apparaître et il y en a qui peuvent disparaître. Alors attention, ce n’est pas la matière qui apparaît et qui disparaît, c’est la matière qui se transforme. Certaines particules apparaissent, d’autres peuvent disparaître et donc vous voyez que cette stabilité des composants à laquelle la chimie nous avait habitués, effectivement en chimie ce ne sont jamais que des réactions de réarrangement, un atome passe d’une molécule dans une autre mais tout ça c’est de la permutation, une combinatoire pure, ici c’est beaucoup plus compliqué maintenant, il y a des objets qui apparaissent ou qui disparaissent, d’où évidemment la complexité considérable de la physique des particules, d’autant plus considérable que l’énergie est plus élevée et qu’aujourd’hui dans les grands accélérateurs de particules ou pire encore, quand une particule de très haute énergie qui nous vient du fin fond de l’univers par les rayons cosmiques frappe un noyau de l’atmosphère, elle peut avoir assez d’énergie pour créer des milliers d’autres particules. Là je n’en crée qu’un : un méson0, mais je sais maintenant déjà en laboratoire, je viens de le dire, plus encore dans la nature, en créer des dizaines, voire des centaines, voire des milliers. Vous imaginez bien que le traitement de tels phénomènes a commencé d’ailleurs par leur observation, si vous avez 70 particules qui émergent, mesurer leur direction, leur énergie, devient extrêmement compliqué et ce domaine de la physique devient d’une complexité expérimentale extrême ; j’en dirai un mot pour terminer.
Troisième phénomène, toujours du point de vue des limites épistémologiques, qui est tout à fait troublant, c’est la question de la stabilité des composants. Alors prenons un exemple tout simple. Il y a beaucoup de noyaux atomiques qui sont des noyaux stables. Si j’en mets un là, il reste là. Il y a des noyaux radioactifs bien entendu qui se désintègrent, ne parlons pas de cela. Prenons un noyau stable et prenons, sinon le plus simple, vous savez c’est le proton qui est le noyau de l’atome d’hydrogène, quel est le plus simple après lui ? C’est le noyau de l’hydrogène lourd, autrement dit deutérium, dans lequel vous avez un proton et un neutron. C’est le plus petit noyau composite que nous connaissons : un proton et un neutron. Vous l’avez là, ça tient, le deutérium, l’hydrogène lourd, c’est un élément chimique stable que l’on peut isoler dans la nature, il n’est pas si rare que ça, vous le trouvez dans l’eau, c’est ce que l’on appelle l’eau lourde dans laquelle H est remplacé par de l’hydrogène lourd. Le deutérium, vous pouvez l’isoler par des moyens pas trop compliqués, donc le deutérium qui existe, qui est très familier, dont le noyau est parfaitement stable ad vitam eternam, proton et neutron. Maintenant prenez un neutron tout seul, par exemple en cassant un noyau de deutérium. Le proton sera d’un côté et le neutron de l’autre et regardez votre neutron. Eh bien le neutron est instable. Quand il est isolé de façon spontanée, au bout d’un temps qui est de l’ordre du quart d’heure, le neutron se désintègre. Pour la complétude je vous dis en quoi, il se désintègre en un proton, un électron et un anti neutrino, peu importe, mais c’est l’exemple le plus simple de la radioactivité, celle qui émet des électrons. On pourrait dire que le neutron c’est le noyau radioactif le plus simple. Ce qui m’intéresse ce n’est pas ça, ce n’est pas en quoi il se désintègre, c’est le fait qu’il se désintègre, parce que là vous avez quelque chose de tout à fait surprenant, un objet qui est spontanément instable qui, s’il est isolé, se désintègre. Quand il rentre en combinaison avec un autre il est stable. Alors vous voyez que ça c’est très bizarre parce qu’on aurait tendance de prime abord à n’attribuer la qualité d’élémentaire ou fondamentale qu’aux objets qui sont stables, s’ils se désintègrent, ben c’est qu’ils ne sont pas si élémentaires. Si le neutron se désintègre, ben c’est que dedans d’une certaine façon il y avait un proton, un électron, un antineutrino. Ben non. Non. Autrement dit la stabilité n’est plus un critère d’élémentarité. Et il nous faut, toute la physique nucléaire nous le dit, considérer proton et neutron comme des espèces de cousins, qui ont des propriétés extrêmement voisines au regard des interactions nucléaires, il se trouve qu’il y en a un qui est instable, l’autre pas, mais c’est d’une certaine façon secondaire. Alors vous voyez que ça modifie complètement notre vision de ce qu’est un objet composé, nous n’avions pas l’habitude dans notre monde d’objets composés, d’objets plus fondamentaux mais qui soient plus instables alors que le composé est stable, c’est tout à fait étrange. L’exemple que je donne là est beaucoup plus général. Et nous avons dû nous accoutumer au cours des 3, 4 dernières décennies à avoir des familles de particules fondamentales qui sont toutes à mettre sur un même plan bien que les unes soient stables, les autres instables. Le cas du proton et du neutron est l’un des plus simples, mais il y en a bien d’autres. Et la question de la stabilité devient donc une question seconde par rapport à la notion d’élémentarité.
Quatrième modification et peut-être la plus profonde, la plus radicale et pour l’instant la moins dominée, c’est la question de la séparabilité des composants. Quand on dit qu’un mur est composé de briques, c’est qu’on peut le casser et éparpiller les briques. Quand nous disons que la molécule d’H2O est constituée de deux atomes d’hydrogène et d’un atome d’oxygène c’est que oui, on peut la casser avec des tas de moyens, en envoyant un objet dessus, en faisant passer un courant électrique, de la lumière, peu importe, on peut la casser en envoyant les hydrogènes d’un côté et l’oxygène de l’autre. Eh bien à l’échelle du dessous, c’est-à-dire quand on considère justement les nucléons dont nous avons appris qu’ils sont composés, composés de quoi ? Eh bien ces fameux et mystérieux quarks, il faut que nous acceptions l’idée tout à fait perturbante qu’un proton est constitué de 3 quarks et que nous ne pouvons pas les séparer. Alors nous allons dire : un neutron c’est 3 quarks ou bien par exemple un méson c’est un quark et un anti-quark, mais nous ne pouvons pas les séparer. Quel que soit le choc que nous ferons subir au neutron, quelle que soit l’énergie avec laquelle nous allons le bombarder, nous n’arriverons pas à séparer les quarks les uns des autres. Alors, pour imaginer ça, il faut penser la chose suivante, c’est que les forces dont nous avons l’habitude, par exemple la plus familière, qui est la force de gravitation ou la force électrique, ce sont des forces qui diminuent quand la distance augmente. Quand vous prenez deux objets chargés, deux électrons, qui se repoussent parce qu’ils ont la même charge, si vous les mettez très loin l’un de l’autre ils se repoussent beaucoup moins que quand ils sont près. Si vous mettez un électron et un proton, ils s’attirent beaucoup moins à grande distance que quand ils sont près. Gravitationnellement c’est pareil. L’attraction gravitationnelle d’un objet : la terre, le soleil, diminue, c’est la fameuse loi de Newton, la force diminue comme l’inverse du carré de la distance. Les interactions proprement nucléaires entre deux noyaux, c’est pareil, elles ont une portée très courte et au-delà de quelques nanomètres plus rien. Mais à l’intérieur des nucléons, les interactions entre les quarks, appelons ça les interactions quarkiennes, faute de mieux, les interactions quarkiennes présentent une propriété opposée, elles augmentent avec la distance. Plus vous tentez de séparer deux quarks plus la force qui va vouloir les re-rapprocher augmente. Alors vous me direz, eh bien ça c’est un mécanisme que l’on connaît très bien avec un objet très familier : un ressort. Prenez un ressort à boudin comme ça, vous tirez dessus, loi de Hooke qu’on connaît depuis 1700 et qu’on apprend aux enfants : la force croît avec l’élongation. Plus vous tirez dessus, plus il a envie de se rétracter. D’accord, sauf qu’il y a un moment où vous dépassez la limite d’élasticité, donc la force croît mais jusqu’à une limite finie et après cette limite finie le ressort casse et la force décroît à 0. Il n’existe pas de ressort incassable. Donc d’accord, la force croît mais jusqu’à une certaine limite. Donc là, nous avons l’habitude de ça. Eh bien il faut imaginer la force entre les quarks comme s’il y avait un ressort absolument incassable, comme si plus vous tiriez, plus vous vouliez les séparer, plus ils voulaient se regrouper, une sorte de ressort absolu, sans limite, qui fait qu’au regard de nos connaissances actuelles, parce que nous en sommes là aujourd’hui, au regard de nos connaissances actuelles il ne semble pas y avoir moyen d’obtenir des quarks isolés dans la nature, nous ne pouvons pas casser un neutron en ses constituants élémentaires. Mais vous direz ; : comment sait-on qu’il est constitué de 3 quarks ? Eh bien oui on le sait de façon indirecte parce que les expériences de collision entre les différents nucléons, l’exploration de ces nucléons par toutes sortes de moyens, sur le détail desquels je ne m’étends pas, nous montrent que cette interprétation est la meilleure et la plus cohérente, de même qu’il n’est pas toujours nécessaire de casser un objet pour savoir de quoi il est composé. Imaginez que vous ayez un sac, vous pouvez à l’oreille comprendre qu’il y a des billes dedans et même éventuellement en le manipulant de l’extérieur sans l’ouvrir, savoir quel est le nombre de billes que vous avez à l’intérieur. Donc la théorie des quarks qui nous fait penser qu’il y a 3 quarks dans les nucléons et des paires de quarks/antiquarks dans les mésons est une théorie extrêmement solide, bien assise, même si justement nous ne savons pas exactement encore comment pousser les calculs jusqu’au bout et interpréter complètement la physique des nucléons en termes de la physique des quarks, c’est le chantier ouvert à l’heure actuelle.
J’ai fait allusion plusieurs fois, cette physique se fait autour de grands accélérateurs qui sont des machines qui donnent aux particules fondamentales des énergies considérables pour leur permettre dans leurs collisions de mettre en évidence les différents phénomènes dont j’ai parlé. Il faut bien voir quelle est l’échelle désormais de ces machines. Ces machines qui ont commencé à naître avec les cyclotrons des années 1930, un cyclotron c’est quelque chose qui tenait dans une salle de laboratoire, ça pesait déjà une ou deux tonnes, un gros électro-aimant, ça mesurait quelques mètres, c’est déjà beaucoup plus que la physique du XIXe siècle qui se faisait sur une table mais enfin c’était à cette échelle-là. Nous sommes maintenant, les grands accélérateurs, celui qui existe au CERN, ce sont des objets qui sont des anneaux d’électro-aimants qui sont dans un tunnel qui fait quelques dizaines de kilomètres de circonférence, qui sont creusés à cent mètres sous terre et l’ensemble des aimants qui tiennent les particules sur leurs trajectoires circulaires pèsent quelques dizaines de milliers de tonnes. Vous imaginez le câblage électrique de ces machins-là sur des kilomètres et des kilomètres, la puissance énergétique qu’il faut pour les alimenter, ce sont des objets consommant autant d’énergie électrique qu’une ville entière, en puissance, une ville moyenne. Ce sont des objets qui coûtent quelques milliards d’euros ou de dollars. L’échelle typique c’est la dizaine de milliards.
Vous voyez que là on est à un niveau où le problème est un problème politique global. Ce n’est plus le problème du financement d’un laboratoire. L’échelle humaine est du même ordre de grandeur colossale, c’est des milliers de personnes. Le centre européen de recherche nucléaire, c’est 4 à 5 mille personnes qui sont en permanence sur le site, quand je dis 4 à 5 mille personnes c’est 4 à 5 cent chercheurs, et les autres, vous me direz ? Pour faire marcher une machine comme ça il faut quelques centaines d’ingénieurs, un bon millier de techniciens, évidemment tout un arsenal de personnel de maintenance, des balayeurs, des femmes de ménage, du personnel administratif… autrement dit c’est une échelle industrielle, c’est une usine. C’est vraiment une usine. Les coûts, les échelles, sont celles de l’industrie et est-ce que cette échelle est une échelle raisonnable en coût social pour continuer à faire de la physique ? La question est légitime, quelle que soit la réponse qu’on y apporte, la question est légitime. Quand on est à ces échelles-là il faut se poser la question. Un argument utilisé par mes collègues, qui est de dire que cela ne coûte pas plus cher qu’un sous-marin nucléaire ou qu’un chasseur, merci pour la comparaison. Je trouve que c’est une faible justification suffisante. Ce n’est pas parce qu’on dépense de l’argent pour des armes que ça implique automatiquement autant. Peut-être qu’il ne faudrait faire ni l’un ni l’autre. En tout cas c’est une question qui mérite d’être débattue collectivement aujourd’hui. Vous constaterez que tel n’est pas le cas. Pas plus pour les armes, bien entendu et il faudrait probablement commencer par là. Le point simplement que je veux soulever c’est que nous sommes là vraiment en train d’atteindre la limite de ce qui est allé de soi pendant des décennies. Comment est-ce allé de soi ? Eh bien d’abord parce que la croissance de cette physique est allée graduellement et que les changements d’échelle se sont faits petit à petit sans qu’on les voie venir. Et que quand dans les années 50, 60 les politiciens commençaient à se faire tirer l’oreille quand ils voyaient les budgets de la physique des particules augmenter, l’argument c’était : Bon d’accord c’est un peu plus cher que la génération précédente mais à peine plus, allez les gars un bon mouvement, c’est tellement important ce qu’on est en train de faire… alors il y avait un double argument et on voit d’ailleurs que ni l’un ni l’autre n’était convaincants. Le premier c’était : dites donc vous avez quand même vu ce que la physique nucléaire a réussi à faire pendant la guerre, c’est quand même grâce à nous que l’armement nucléaire a eu lieu et qu’eh bien nous avons écrasé le Japon et que la Guerre Froide nous avons résisté etc., argument employé de part et d’autre d’ailleurs, l’équilibre de la terreur. Et le deuxième argument était : On ne sait jamais à quelles applications futures ça va servir, et cette physique était d’ailleurs dénommée physique des hautes énergies d’une façon extrêmement perverse, dans la mesure où s’était souvent entendu comme la physique qui allait produire des très grandes énergies, en fait c’était souvent de la physique qui consommait de très grandes énergies, jusqu’au moment où les coûts montant, les politiciens, à juste titre, se sont posé des questions et il y a eu une mutation radicale qui a eu lieu en 1985, à un ou deux ans près, quand les États-Unis ont brusquement abandonné le projet d’accélérateur géant qui était en cours, je passe une minute avant de m’arrêter là-dessus, parce que c’est pour moi un événement qui a marqué un point tournant dans la science moderne tout entière. Le projet du grand accélérateur, il était le projet le plus gigantesque qu’on ait jamais vu, il était à peu près dix fois l’échelle spatiale de celui qui est à l’heure actuelle à Genève au Centre Européen de Recherche Nucléaire (CERN) et il avait été estimé au départ à un coût qui devait être de l’ordre de 2, 3 milliards de dollars. Comme d’habitude ce genre de grand projet, ce n’est pas spécifique à la physique ; c’est vrai pour le Concorde, pour les autoroutes, pour ce que vous voulez, ça dérape. On dit en général, les ingénieurs aiment bien dire que le facteur de dérapage vaut à peu près 3 et effectivement on s’est vite retrouvé non pas à deux fois trois, six milliards, mais à dix milliards de dollars et là le Congrès Américain s’est dit : Oh là-là, est-ce que ça vaut la peine ? Il a répondu non et le Sénat a répondu non et la politique a dit : on arrête les frais. Alors les scientifiques ont tenté de se débattre et en disant : mais attendez, vous savez on a déjà commencé. Il y a un grand trou dans le sous-sol du Texas, on a déjà dépensé 2 milliards de dollars, on ne va pas les avoir dépensés pour rien ! C’était la première fois pendant toute l’histoire des grands projets scientifiques que, non pas qu’on en abandonnait, il y a eu beaucoup de projets qu’on n’a pas réalisés parce qu’on s’est dit qu’ils coûtent très cher, mais celui-là on avait donné le feu vert, on avait commencé, quand on a dépensé 2 milliards on n’arrête pas comme ça d’un coup, un paquebot ça ne s’arrête pas brutalement, il a fallu dépenser encore un milliard de dollars de dédit aux entreprises, de licenciement pour le personnel, reboucher le trou dans le sous-sol du Texas parce que les écologistes n’étaient pas contents … bref, toutes sortes d’événements mais le fait est qu’on a abandonné. Alors qu’est-ce qui s’est passé après pour le projet européen ? Moi je me rappelle très bien, j’avais beaucoup de collègues qui disaient « chouette alors, nos projets qui étaient un peu plus bas, et on se disait zut on va être battus dans la course par les Américains, ça y est maintenant on est les seuls ». Je leur disais : mais attendez, vous vous réjouissez un peu trop vite parce que comme il n’y a pas de concurrence ce n’est pas sûr que votre truc va marcher. Nous en sommes là aujourd’hui, oui on construit un super accélérateur à Genève mais beaucoup plus lentement que prévu, il n’y a rien qui urge puisqu’il n’y a plus personne dans la course, ni les Américains, ni les Soviétiques ne sont concurrentiels et puis de toute façon promis juré ça sera le dernier … alors nous en sommes exactement au point maintenant où d’une certaine façon à cause des coûts atteints par ce type de science, elle atteint des limites qui ne sont pas de type intellectuel mais des limites matérielles effectives, il y a là une sorte de carrefour auquel nous arrivons où deux voies sont possibles. Je ne sais pas, je crois que nul ne sait ce qui va se passer d’ici une dizaine d’années, ou bien, personnellement c’est ce qui me semble le plus plausible, on va assister à une décadence provisoire de ce type de programme de recherche, oui on va faire là encore un accélérateur, oui on va trouver encore autre chose, peut être le fameux boson de Higgs dont je ne vous ai pas parlé mais dont vous avez peut–être entendu parler, une sorte de quête du Graal et puis ça s’arrêtera là parce que la suite ça sera trop cher, on dira bon attendons, peut-être que dans 50 ans on reprendra. Il y a eu déjà plein de phénomènes comme ça dans l’histoire des sciences où un programme de recherche s’est momentanément arrêté pour être repris 40 ou 50 ans après quand il est redevenu faisable, soit pour des raisons théoriques soit pour des raisons pratiques, donc c’est possible ou bien, et beaucoup de gens se rendent compte maintenant que c’est la seule alternative, il faut développer des méthodes moins chères, des accélérateurs moins imposants, reprendre ce slogan des années 80 « Small is beautiful » faire du petit plus efficace, chose qu’on fait dans l’espace maintenant, parce que les mêmes phénomènes se posent à toutes les échelles, pour la physique spatiale c’est vrai et ça va être vrai de plus en plus pour les sciences de la vie. Dans le spatial on sait faire maintenant des sondes, des petits satellites beaucoup plus légers, beaucoup plus subtils, beaucoup plus intelligents que les grosses machines comme le satellite Hubble qu’on avait lancé, il y a 15 ans et qui d’ailleurs a mal fonctionné. Alors cela va-t-il être possible en physique des particules ? Je n’en sais rien. Pour l’instant, personne n’en sait rien, mais je terminerai par une analogie qui est intéressante, c’est que la course au gigantisme, si on y réfléchit une seconde, n’est jamais signe de maturité dans un domaine quel qu’il soit. Je prendrais un exemple, les physiciens aimaient bien dans les années 60 quand c’était vraiment le développement triomphal, jouer comme je vous l’ai dit sur les deux plans : d’une part les applications militaires mais d’autre part aussi les progrès fondamentaux de la connaissance, le mythe idéologique d’une société et ils disaient très souvent : les grands accélérateurs c’est les cathédrales des temps modernes. Vous trouverez ça dans beaucoup d’articles de vulgarisation ou de lobbying pour la physique dans les années 60, simplement ils n’avaient pas réfléchi à une chose, c’est qu’historiquement les grandes cathédrales, les belles cathédrales gothiques, Notre-Dame, Beauvais etc., ça n’a pas duré très longtemps, du XIe, allez, jusqu’au XIIe, c’est à peu près tout, deux siècles et après ça s’arrête, et pourquoi ? Eh bien parce qu’on veut les construire toujours plus hautes, plus grandes et on ne sait pas. La cathédrale de Beauvais, elle s’est effondrée deux, trois fois avant qu’on arrive à la construire plus haute, la voûte, puis on n’a jamais construit de plus grande parce que c’était hors de portée et que par rapport aux fonctions religieuses et politiques qu’on leur attribuait, on a fait autrement, on a fait des choses plus petites d’une autre nature qui ont rempli leur office, si j’ose dire, d’une façon tout aussi efficace. Si vous voulez un autre exemple, celui des grandes pyramides égyptiennes. Les grandes pyramides égyptiennes sont contemporaines du début du Haut Empire, -2007, pendant deux, trois siècles, puis après on ne construit plus de grandes pyramides. À partir du 25, 24ème siècle, pendant vingt siècles et plus d’existence de la civilisation égyptienne, on ne construit plus de grandes pyramides. Donc ceci laisse à penser que le gigantisme est plutôt un signe d’adolescence et d’arrogance et qu’au bout d’un moment l’âge adulte et la maturité permet de savoir faire mieux et à plus petite échelle. C’est ce que je souhaite pour cette physique parce que, comme j’ai essayé de vous le dire, elle recèle beaucoup de phénomènes que je trouve passionnants sur le plan intellectuel et ça me désolerait pour ma part qu’elle soit obligée à s’arrêter même temporairement, sur le long terme je pense que forcément on reprendra mais sur le long terme je ne serai plus là, alors ça m’ennuierait. Merci beaucoup.
Question 1 : Est-ce que vous pensez que pour augmenter nos connaissances sans avoir à construire des installations gigantesques on pourrait faire quelque chose qui ressemblerait à ce que l’État Français décide pour perfectionner l’armement atomique, c’est-à-dire un mélange de simulation et d’expérimentation ? Alors je pense laser mégajoule plus des simulations extrêmement fines sur ordinateur.
Jean-Marc Lévy-Leblond : Alors, la réponse est partiellement oui. C’est-à-dire que bien évidemment d’ores et déjà les gens multiplient les simulations mais le problème de la simulation c’est qu’il faut que vous connaissiez d’avance les lois physiques que vous allez simuler. Donc effectivement une bonne simulation est capable de prédire, plus ou moins bien, les résultats d’une expérience fondée sur des lois de la physique déjà connues, ce qui est pour l’essentiel le cas pour les phénomènes nucléaires de fusion ou de fission qui dominent l’armement nucléaire. Mais là nous sommes dans une autre problématique, nous voulons trouver des lois inconnues. Alors il est extrêmement difficile de les simuler. Ce que nous pouvons tenter de faire et qui est fait ci où là, c’est de tenter sur la base de théories imparfaites où nous ne savons pas très bien faire des calculs, essayer à l’aide des machines de faire des calculs aussi approximatifs que possible et puis de les comparer à des expériences elles-mêmes approximatives, tirées par exemples d’observations astrophysiques par exemple, dont je n’ai pas parlé. Mais ces phénomènes de très, très haute énergie que nous ne savons pas créer parce que nous n’avons pas des accélérateurs assez puissants, il s’en produit dans la nature, sauf qu’il s’en produit peu. Ils sont très loin, ils sont très rares, ils ne nous préviennent pas quand ils ont lieu, de façon à ce qu’on puisse les observer… donc évidemment l’observation passive ne remplace jamais une expérimentation active, mais évidemment tous les moyens sont utilisés et de fait le couplage entre l’astrophysique fondamentale et la physique des particules qui est devenu très intense dans les vingt dernières années, ne réglera pas les problèmes de fond pourtant. De toute façon, même dans le cas de l’armement nucléaire, je serais bien surpris que, ce qu’à Dieu ne plaise, on utilise un jour des armes nucléaires qu’on n’aurait fait que simuler, j’ai des doutes. Je serais content que cela soit un bon argument pour ne pas les utiliser mais …
Question 2 : Je vais vous poser une question sur l’énergie interne. L’énergie interne d’un photon est nulle, d’accord, il n’a pas de masse. Est-ce que l’énergie interne d’un électron est la même qu’un positon ? Autrement dit, est-ce que l’énergie interne de l’antimatière est la même que la matière ?
Jean-Marc Lévy-Leblond : Absolument ! Absolument, puisque je crois l’avoir dit, mais peut-être trop fugitivement, les masses sont identiques entre une particule et son antiparticule. Les charges sont inversées mais la masse, c’est quelque chose d’une autre nature, il n’y a pas de masse négative, ça n’aurait pas de sens, et les masses sont absolument identiques. La masse d’un électron c’est la même que celle d’un positon, la masse d’un proton c’est la même que celle d’un antiproton, il y a donc cette symétrie parfaite entre les deux. La réponse est donc absolument affirmative et c’est d’ailleurs un des tests de la symétrie, qui est de mesurer aussi précisément que possible la masse des antiparticules pour la comparer aux particules et voir si cette symétrie tient le coup.
Question 3 : J’aurais deux questions. La première c’est que toute théorie et c’est vrai en physique, toute théorie a besoin de s’appuyer sur quelque chose qu’on n’a pas discuté sur le moment et j’ai l’impression que la conservation de la matière, la conservation de l’énergie sont les deux dogmes que la physique a actuellement et à la lumière desquelles, par déduction, elle donne les différents phénomènes qui sont supposés être. Et ma deuxième question, c’est plutôt une remarque, je suis frappé entre l’opposition de la physique qui recherche finalement les lois qui se produisent à des échelles de plus en plus faibles, de plus en plus petits, on recherche ce qui est le plus petit et d’autre part la biologie qui au contraire, cherche le complexe c’est-à-dire des choses qui sont relativement grandes par rapport aux éléments.
Jean-Marc Lévy-Leblond : Je répondrai d’abord à votre deuxième remarque. Je ne pense pas qu’il y ait contraste, bien au contraire, dans la mesure où moi je vous ai parlé d’une certaine physique, la physique fondamentale. Je vous ai montré en concluant qu’à mon avis elle arrivait au bout d’une certaine trajectoire historique. Mais j’aurais pu vous dire, pour conforter cette idée, que ce qui est remarquable dans les dernières décennies, c’est justement le redéploiement d’une physique de notre échelle, là où notre génération a été élevée, il y a une quarantaine d’années, dans l’idée que la seule physique intéressante est celle du tout petit ou du très grand, la physique nucléaire, subnucléaire, des particules ou la cosmologie, l’astrophysique etc. Ça a été une grande surprise pour nous que dans les années 80 on voie revenir à la mode et avec un grand intérêt à la fois pratique et conceptuel, eh bien par exemple l’hydrodynamique des fluides, la physique de la turbulence, qui était considérée comme une vieille physique du XIXe siècle et qui tout d’un coup est redevenue une physique absolument moderne. Les travaux de quelqu’un comme Gilles de Gennes qui a eu le prix Nobel il y a quelques années sont pour l’essentiel des travaux sur la matière mésoscopique, à notre échelle, les colles, les polymères les écoulements, les tas de sable et donc on ne peut pas dire, bien au contraire, que ça soit la physique qui va vers le plus petit et l’élémentaire - c’est au contraire, je pense, un domaine de la physique qui est à l’heure actuelle en perte de vitesse. Il n’y a pas de jugement de valeur pour savoir si c’est bien ou mal, c’est, me semble-t-il, comme ça. Pour la biologie, vous remarquerez pour l’essentiel, celle qui est dominante aujourd’hui, c’est-à-dire la biologie moléculaire, moi je crois plutôt qu’elle cherche à ramener le complexe à l’élémentaire, c’est-à-dire qu’elle tente d’essayer de comprendre les mécanismes extrêmement compliqués de la cellule sur une base purement moléculaire comme les physiciens l’ont fait dans les années trente pour comprendre la chimie sur la base de la physique atomique puis nucléaire et qu’à mon avis c’est justement une voie dans laquelle elle va rencontrer, elle rencontre d’ailleurs déjà, des limites et que nombreux sont les biologistes qui attirent l’attention sur le fait qu’il ne faut pas perdre de vue l’étude de la complexité du vivant à son niveau propre, par exemple de la bonne vieille zoologie de terrain traditionnelle. Ce n’est pas parce qu’on étudie ce qui se passe à l’intérieur de la cellule qu’il faut oublier de regarder comment les animaux se comportent dans la nature et dans leur milieu. Toutes ces visées trop réductionnistes, alors évidemment remportent des succès jusqu’à présent notables, mais sont soumises comme la physique à ces phénomènes d’industrialisation, d’enjeux à court terme et qui nous mènent dans des situations que vous connaissez, il suffit de lire les journaux aujourd’hui avec les tribunes libres et les pétitions qui circulent et qui témoignent d’une situation assez problématique de ce qu’est la recherche aujourd’hui, de ses modes d’organisation et du choix de ses priorités.
Sur votre première question, il ne peut pas n’y avoir dans tout type de recherche des présupposés admis sur lesquels on part et la conservation d’énergie en fait partie, pas la conservation de la matière au sens où je vous ai expliqué que notre notion de matière était devenue tellement souple, je crois que je ne sais pas ce que ça voudra dire la conservation de la matière, la conservation de l’énergie, certes, et d’autres grandeurs, des charges électriques par exemple, mais nous sommes devenus suffisamment sophistiqués au cours des dernières décennies, c’est-à-dire que nous avons eu des déconvenues, nous nous sommes aperçus que certaines choses que nous tenions pour acquises finalement devaient être remises en cause, si j’avais le temps je vous expliquerais par exemple que ce à quoi j’ai fait allusion, la symétrie miroir, le fait qu’un gant droit soit identique avec un gant gauche, eh bien au niveau des particules fondamentales ça n’est pas tout à fait vrai et qu’un neutron regardé dans un miroir ne se comporte pas tout à fait comme le vrai neutron. Ça c’est une découverte des années 50, c’est ce qu’on appelait la non-conservation de la parité, la terminologie n’est pas bonne, il faudrait dire plutôt la violation de la symétrie miroir, c’est venu comme un choc terrible, mais il a été absorbé par la théorie, le cadre théorique était déjà suffisamment large pour dire, ah bon d’accord, mais finalement on peut faire avec. L’intérêt, c’est que du coup nous sommes prêts à absorber une série de remises en cause d’un certain nombre de présupposés. Alors, évidemment, il y a d’autres présupposés qui ne sont pas explicites et ceux-là, le jour où ils seront remis en cause, eh ben là on sera bien étonnés, mais ceux que vous venez d’énoncer, la conservation d’énergie, le jour où on s’apercevra qu’elle n’est pas tout à fait conservée, parce qu’il faudra que ce soit une petite violation vu que ça marche si bien à toutes les échelles que nous connaissons désormais, que la non-conservation d’énergie ne pourra être à certaines échelles qu’un petit phénomène latéral et pas un phénomène majeur. Le jour où elle sera remise en cause on dira : ah bien, d’accord, c’est intéressant, qu’est-ce qu’on fait ? Mais ça ne sera pas renversé. C’est si vrai d’ailleurs que dans les années 30 quand les physiciens du noyau ont découvert un phénomène de radioactivité, celui auquel je faisais allusion, un noyau qui se désintègre en émettant des électrons, il y avait un problème, c’est qu’on n’arrivait pas à vérifier justement la loi de conservation d’énergie. Il y avait de l’énergie qui disparaissait et on ne savait pas où elle allait, eh bien, les plus grands esprits de l’époque, des gens comme Nils Bohr, père fondateur de la théorie quantique, ont été les premiers à dire :eh bien ce n’est pas grave, dans la foulée on peut renoncer à la loi de conservation de l’énergie. Autrement dit, ils avaient fait une telle révolution, la révolution quantique, qu’ils étaient prêts à jeter du leste par-dessus bord et en fait la solution n’est pas venue de là. C’est Pauli qui a dit non, nous conservons l’énergie et simplement imaginons qu’il y a une autre particule inconnue qui est émise, le fameux neutrino, et on s’est retrouvés d’accord. Tout ceci pour vous dire qu’il y a toute une série de présupposés que nous serions prêts à remettre en cause sauf que nous ne les percevons même pas et là probablement, j’espère pour ma part, qu’ils seront un jour ébranlés et qu’on pourra repartir sur des voies absolument inédites et totalement nouvelles, ça sera vraiment intéressant.
Question 4 : Vous avez exprimé l’opinion, le constat, que la course au gigantisme n’était pas un signe de maturité. On constate dans le domaine en particulier de la recherche sur la fusion nucléaire avec la technologie du Tokamak qu’on est dans cette évolution depuis une machine opérationnelle « JET à Cul Ham ? » en Grande Bretagne et puis maintenant avec le projet ITER. Alors comment situez-vous ce type de recherche par rapport à votre principe que vous avez émis ?
Jean-Marc Lévy-Leblond : Écoutez, là je suis un peu au-delà de mes compétences parce que la physique appliquée de la fusion je la connais mal. Je dirais cependant qu’il me semble qu’un projet comme ITER c’est un peu comme le projet du SSC, ça ne peut être que le dernier projet d’une certaine filière. Alors si les gens qui le proposent sont intimement persuadés qu’ils tiennent là quelque chose qui va vraiment nous permettre d’avancer, soit vous voyez bien les difficultés qu’on obtient, qu’on a, qui sont des difficultés politico-économiques, économiques d’abord parce que ça coûte très cher et qu’il faut se mettre à plusieurs, s’il faut se mettre à plusieurs c’est des difficultés politiques. Où est-ce qu’on le construit : au Japon, en France… donc on voit bien la problématique, on ne peut plus désormais isoler une interrogation qui serait purement scientifique d’un questionnement qui, lui, est socio-politico-économique. Les choses sont, désormais, complètement couplées. Mon impression, mais là-dessus encore une fois c’est vraiment une opinion très personnelle, c’est que j’ai peine à croire que quelque chose comme ITER donnera la solution. S’il doit y avoir un jour industrialisation de l’énergie de fusion il me semble que ça sera quand on aura trouvé des moyens à plus petite échelle, plus économiques, de réaliser les choses pour lesquelles ITER sera peut-être un passage obligé, après lequel on tentera de redescendre l’échelle. Mais j’ai peine à croire que ce gigantisme soit appelé à continuer, il y a suffisamment d’éléments qui nous montrent aujourd’hui que ce n’est pas dans cette direction-là qu’on va, y compris pour l’énergie nucléaire conventionnelle, les recherches aujourd’hui tentent de construire aujourd’hui des centrales plus petites, plus souples, plus recyclables. Prenez aussi un autre cas, l’aviation civile, vous me direz : on construit des avions de plus en plus grands, d’accord, mais pas de plus en plus rapides, le Concorde ça été un point final sur une lignée technologique et on est reparti dans une autre voie, donc les courses vers les plus performants atteignent des échelles où on a l’impression qu’on touche au moins dans un certain nombre de domaines à des limites aujourd’hui.
Question 5 : Est-ce que quand on touche un fauteuil, on touche des électrons ?
Jean-Marc Lévy-Leblond : Vous ne touchez rien du tout. J’aime bien cette question-là parce qu’elle me renvoie à une autre problématique sur laquelle je suis en train de travailler en ce moment. Je relis le fameux livre de Lucrèce, De Rerum Natura, « De la nature des choses », qui est un des livres fondateurs de l’atomisme, ça fait vingt siècles que Lucrèce, dans la suite de Démocrite et puis Épicure, propose que le monde est constitué d’atomes, très belle idée, très audacieuse, très avancée pour son époque, mais quand on relit ce texte c’est tout à fait frappant de voir qu’il avait raison pour de mauvaises raisons. Et l’une des mauvaises raisons c’est qu’à travers tout son livre, il insiste sur le fait qu’il privilégie le sens du toucher. La vision peut tromper, l’odorat peut tromper, mais le toucher, lui, forcément nous dit le vrai parce qu’il nous donne accès à la matière telle qu’elle est. Si je touche cette table je ne me trompe pas sur la substantialité de cette table. Alors, c’est amusant parce que c’est tout à fait paradoxal vu du point de vue moderne parce que du point de vue moderne la notion de contact entre objets matériels a totalement disparu. Les électrons et les protons sont tellement petits chacun à leur échelle à l’intérieur de l’atome que quand deux atomes se cognent, il n’y a aucunement contact entre deux électrons et deux protons qui ne sont jamais au même point. Qu’est-ce qui se passe ? Les forces de répulsion électrostatiques entre les uns et les autres sont tellement fortes qu’au moment où les atomes sont tellement proches qu’ils sont amenés à se repousser. Alors évidemment, la distance à laquelle ils se repoussent est une distance de l’ordre atomique c’est-à-dire de l’ordre de l’angström, mais quand vous posez votre doigt sur la table, aucun des électrons ou des noyaux de votre doigt n’arrive à moins de quelques angströms des électrons et des atomes de la table, donc vous ne touchez jamais rien. Je ne sais pas si c’est rassurant ou inquiétant, suivant ce que ou qui vous avez envie de toucher, mais c’est comme ça. C’est aussi un cas intéressant, vous voyez qu’un sens qui pourrait paraître le plus immédiat et le plus direct est au contraire le plus indirect d’une certaine façon. Vous ne touchez rien au sens où il n’y a pas de contact. Il y a un champ entre vos électrons, à toute petite échelle, c’est un peu comme vous faites l’expérience avec deux aimants qui se repoussent, vous tentez de les pousser mais s’ils sont suffisamment puissants, vous n’arrivez pas à les faire se toucher, mais néanmoins vous sentez qu’ils se repoussent, c’est presque comme si vous les aviez mis en contact mais ils ne se sont jamais touchés, donc c’est en fait la notion de contact qui disparaît puisqu’il n’y a plus de substantialité volumique, ni un électron ni un proton ne peuvent être imaginés comme des boules qui viendraient en contact par leur surface. C’est des objets dont la nature géométrique est d’un autre type. Donc la notion même de contact devient indirecte, d’une certaine façon.
Question 6 : Dans l’univers, actuellement on dit qu’on connaît la masse, la masse qu’on connaît, c’est l’ordre de 10% et puis il y a une quantité prépondérante qu’on ne sait pas expliquer, on ne sait pas ce que c’est. Est-ce que ça peut intervenir au niveau de toutes ces théories actuelles ?
Jean-Marc Lévy-Leblond : Eh bien oui, parce que c’est là le grand problème. Ça c’est vraiment une des grandes découvertes mystérieuses parce que personne n’a d’idées claires sur la question des dernières décennies. Tout le monde était persuadé jusqu’à il y a au moins vingt ans que nous ne connaissions peut-être pas les détails de la structure de l’univers, ni son extension réelle, mais qu’au moins ce dont il était fait, nous le savions. Nous connaissions les objets qui le constituent. Force est de constater maintenant que tel n’est pas le cas, loin de là. Les objets dont je vous ai parlé, nous avons de bonnes raisons de penser, mais là il faudrait demander à des astrophysiciens, ça c’est une question pour Roland Lehoucq qui me succédera prochainement, je crois qu’il va en parler d’ailleurs, ce que nous connaissons n’est qu’une faible partie des objets qui constituent l’univers. Alors, par contre, je vais peut-être rajouter un petit mot pour conclure parce que j’ai oublié de le mentionner au passage, dans ce que nous connaissons, c’est-à-dire les objets, la matière ordinaire et l’antimatière, la question reste ouverte. De la fameuse symétrie entre matière et antimatière, j’ai dit qu’ils avaient les mêmes propriétés, bon. Pourquoi il n’y a que de la matière autour de nous ? L’hypothèse qui pourrait sembler la plus raisonnable serait qu’il y a d’autres endroits dans l’univers qui sont faits d’antimatière. Il y a d’autres galaxies qui seraient des anti-galaxies. Alors je n’ai vraiment pas le temps et c’est aussi une question pour Roland Lehoucq, vous pouvez l’interroger là-dessus, il se trouve que nous ayons maintenant de bonnes raisons de penser que la matière que nous connaissons est prépondérante, il y a un peu d’antimatière qui circule de-ci de-là, parce que par exemple, comme je l’ai montré, elle peut être créée dans des chocs et du coup elle se balade, mais que pour l’essentiel, dans le 1% que nous connaissons, c’est pour l’essentiel de notre matière et donc la raison de cette dissymétrie de l’existant […] il y a peut-être une dissymétrie très tenue à l’échelle fondamentale ou une sorte de contingence. Une métaphore pour l’imaginer : par exemple vous prenez les vis, elles tournent toutes dans le même sens, il faut toujours tourner dans le même sens pour visser et dans l’autre sens pour dévisser, mais rien n’interdit évidemment à quiconque de fabriquer des vis qui visseraient dans l’autre sens, pour les gauchers se serait mieux d’ailleurs. Donc il n’y a aucune loi de la nature qui interdit aux vis de tourner dans un sens et qui privilégient celles qui tournent dans un sens. Eh bien il y a une contingence de départ liée au choix des fabricants et peut-être aussi au fait que la plupart d’entre nous sommes droitiers et qu’on a plus de force comme ça que comme ça, mais vous voyez bien que cette dissymétrie, elle n’est pas au niveau des lois fondamentales qui, elles, sont parfaitement symétriques. Alors est-ce que c’est quelque chose de ce genre-là qui explique la prépondérance de la matière ou de l’antimatière ? Est-ce que c’est au contraire plus profondément une dissymétrie effective ? C’est une question encore ouverte.