Fabrique de sens
 
Accueil > Médiation scientifique > "Les révolutions du XXe siècle", cours (1) par Jean-Marc Lévy-Leblond au (...)

"Les révolutions du XXe siècle", cours (1) par Jean-Marc Lévy-Leblond au Collège de la Cité des sciences

Cours du jeudi 08 janvier 2004, « La révolution quantique : une matière qui défie l’intuition », transcrit par Taos Aït Si Slimane

Résumés : L’exploration des atomes et de leur structure au début du XXe siècle révéla des propriétés absolument inédites de leurs constituants (électrons, photons, noyaux). Les qualités usuelles de la matière (consistance, localité, impénétrabilité) ne valent pas au niveau microscopique - ce qui rend paradoxale leur émergence au niveau macroscopique.

Texte intialement édité sur mon blog "Tinhinane", le dimanche 22 juillet 2007 à 19 h 02.

Je suis ici pour cette seconde partie du cycle sur la matière où il s’agira de parler des révolutions du XXe siècle. J’aurai l’occasion de vous dire sans doute la prochaine fois que ce pluriel pose problème, mais aujourd’hui en tout cas il s’agit de la révolution quantique qui est une vraie révolution. La prochaine fois nous parlerons de relativité et je mettrais peut-être en question son caractère révolutionnaire. En tout cas, aujourd’hui la révolution quantique est une véritable révolution comme je vais tenter de vous le montrer après néanmoins une mise en place de cette thématique.

Permettez-moi de commencer par un bref commentaire sur le titre même de ce cours : « De l’atome au quark ». Ce qui m’intéresse c’est plutôt la suite, « les secrets de la matière ». Je préférerais qu’il y ait quelques guillemets autour du mot secret parce qu’il n’y a dans la science contemporaine aucun ésotérisme délibéré. Nous ne sommes pas dans la situation où étaient les pythagoriciens au VIe siècle avant J.-C., les alchimistes à la Renaissance, où le savoir était considéré comme réservé à une poignée et devant rester secret ou tout au moins réservé de la façon la plus étroite possible. Aujourd’hui, la science moderne n’a aucun secret dans la mesure où elle est publiée et donc publique, enseignée, vulgarisée. Il est vrai cependant qu’elle peine à partager son savoir hors du champ de ses professionnels. C’est bien l’une des raisons d’être de la Cité des sciences et de l’industrie et du Collège et de cette série de conférences d’ailleurs.

Pour ce qui est plus spécifiquement de la théorie quantique, il faut bien dire qu’après pratiquement un siècle d’existence, nous fêtons l’an prochain les centenaires exacts des articles d’Einstein, 1905. Après donc pratiquement un siècle d’existence, il subsiste, il faut bien le dire, un très large hiatus entre la connaissance des spécialistes, les physiciens, qui est une connaissance désormais fort bien maîtrisée, apprivoisée, devenue largement intuitive et empirique, et de l’autre côté celle pour les profanes, pour laquelle on multiplie les livres de vulgarisation, les conférences, les cours comme celui-ci, avec, il faut bien le dire, un succès mitigé. J’espère que nous ferons exception aujourd’hui. Je reviendrais peut-être à la fin de cet exposé sur la raison d’être, me semble-t-il, de ce qui est une difficulté, qui n’est pas secondaire et que je crois tout à fait fondamentale et liée à la nature même de la science contemporaine.

Commençons par évoquer, pour prendre la suite de ce que Françoise Balibar a pu vous raconter, les différents niveaux de la matière pour en arriver au moment où la théorie quantique va devoir entrer en jeu. Il faut pour cela remonter finalement au projet réductionniste initial, c’est-à-dire tout simplement aux atomistes de l’Antiquité, Démocrite, Epicure puis Lucrèce, qui ont eu cette intuition géniale que la matière telle que nous la connaissons, la pratiquons à notre échelle, celle qui nous entoure, celle dont nous sommes constitués est en fait constituée d’éléments invisibles, imperceptibles, donc extrêmement petits et dont les agencements et les comportements peuvent expliquer ceux de la matière à notre échelle. Projet réductionniste donc en ceci qu’il s’agit d’une part de découvrir ces constituants élémentaires de la matière, d’analyse où l’on ouvre si l’on veut la boîte de la matière, où l’on descend dans son cœur pour voir de quoi elle est faite, et puis dans un deuxième temps, une phase de remontée, de synthèse qui tend à expliquer le comportement de la matière telle que nous la connaissons en fonction des comportements de ses constituants élémentaires. Alors, sur la lancée de ce programme, donc énoncé, mais non pas réalisé, faute évidemment des connaissances scientifiques et des méthodes expérimentales nécessaires, énoncés dans l’Antiquité, mais qui n’a pris son plein essor qu’assez tardivement, je vous rappelle que la découverte des atomes dans les sciences modernes, l’atome de la science ne date pratiquement que du XIXe siècle, cela ne fait pas deux siècles, c’est donc tout récent. Ce programme a assez considérablement accéléré dans les décennies récentes au cours de ces deux siècles et a mis en évidence une structure feuilletée de la matière, différents niveaux d’organisation, sur laquelle je voudrais m’attarder une seconde en vous les montrant et en commentant ce phénomène de réduction.

Voici comment aujourd’hui on peut comprendre l’organisation de la matière. D’abord le niveau de la matière ordinaire, celle qui nous entoure, puis la première phase de la descente, premier niveau, celui effectivement des atomes et des molécules, connu depuis le XIXe siècle, mais je vais revenir sur ces questions de dates et d’échelles, ensuite au sein même des atomes, on découvre des noyaux et des électrons, ensuite au sein même des noyaux on découvre des particules : kaon, baryon et méson et ensuite, encore vers le deuxième tiers du XXe siècle, on s’aperçoit que ces baryons, ces mésons, sont constitués de quarks et de gluons, donc un cinquième niveau de structuration de la matière.

Il est intéressant de voir d’une façon un peu plus précise, les échelles spatiales d’une part et temporelles de la découverte de ces différents niveaux. La matière ordinaire est évidemment connue depuis toujours, disons qu’elle s’étend depuis les échelles que nous connaissons : les kilomètres, les mètres, jusqu’à une échelle du millimètre qui était familière déjà dans l’Antiquité et plus encore aux artisans du Moyen Âge jusqu’au XIXe siècle. Le XIXe siècle commence à plonger plus profond et va découvrir les atomes et les molécules à une échelle qui est celle de 10-10 m, c’est-à-dire l’échelle de l’angström, du dixième de nanomètre, dixième du milliardième du mètre.

Notez le bond considérable, un facteur 107, donc un facteur de dix millions, ce qui est une accélération vertigineuse, il a fallu disons quelques siècles pour descendre de cette échelle-là et ensuite moins de quelques décennies pour descendre encore d’un facteur 10 mille, atteindre au début du XXe siècle le niveau interne à l’atome, celui des noyaux et des électrons. Je vous rappelle que la découverte de la radioactivité date de 1913, donc l’existence du noyau. Un peu plus tard vers 1935, on commence à percevoir et on l’étudie plutôt dans les années 50, la structure interne des noyaux, les baryons et les mésons à une échelle qui est de 10-16 mètre. Et enfin, vers 1970, le niveau des quarks et des gluons à une échelle de 10-18 mètre.

Il faut bien prendre la mesure de cette descente vertigineuse qui en à peine plus d’un siècle nous a fait gagner 8 ordres de grandeur : de 10-10 à 10-18, c’est-à-dire à peu près autant que pendant tout le temps qui précédait, depuis l’Antiquité jusqu’au XIXe siècle. Il y a donc dans cette phase de descente, je n’ose pas dire vers l’élémentaire, puisque précisément ce dont on va s’apercevoir c’est que chaque fois qu’on croit avoir atteint un niveau élémentaire il ne l’est pas et que nul ne sait aujourd’hui s’il se cache encore un niveau sous-jacent, c’est ce que nous réserve l’avenir.

Cette descente en tout cas vers le plus élémentaire est un succès considérable de la science moderne et les physiciens peuvent être en droit d’être fiers de leurs réussites dans cette phase de descente et d’analyse. En revanche, on ne peut probablement pas jeter un regard aussi satisfaisant sur la phase de remontée et de synthèse, qui aujourd’hui encore pose bien des problèmes. Celle qui est, à l’heure actuelle encore, la mieux comprise et la mieux réussie c’est la phase qui permet de passer des propriétés des noyaux et des électrons aux atomes et aux molécules. Ça, c’est ce que la théorie quantique développée dans les années 20 du XXe siècle a permis. Dès les années 30 et 40 on a une bonne compréhension des atomes et des molécules sur la base des comportements des noyaux et des électrons. Je laisse quand même un point d’interrogation parce que cette compréhension, pour être bonne n’est pas parfaite, n’est pas exhaustive. Elle est aussi bonne que l’on peut l’espérer quand il s’agit d’atomes légers ou de petites molécules. Quand il s’agit de gros atomes ayant un grand nombre d’électrons et plus encore de plus grosses molécules, on peut aujourd’hui grâce aux moyens de calculs modernes, les grands ordinateurs, faire des calculs formidables et des simulations qui donnent de bons résultats, il n’est pas sûr pour autant qu’on en a une compréhension intellectuelle et conceptuelle suffisante. En revanche, ce qui me paraît étrange, c’est que la phase qui pourtant serait plus proche de nous, qui permet de remonter des propriétés des atomes et des molécules au comportement de la matière ordinaire, est en fait plus problématique que la précédente. Certes, beaucoup de comportements de la matière ordinaire sont compris dans le principe, sur la base de sa structure électronique en particulier. La conductivité électrique, la production de la chaleur, les propriétés de dureté des solides, beaucoup de choses sont comprises au niveau des principes. Mais par contre, et plus encore qu’en ce qui concerne les atomes et les électrons, le détail de ces propriétés et fort loin d’être bien compris. Je vous donne juste un exemple particulièrement frappant parce qu’il ne s’agit pas d’une substance ésotérique, mais de celle qui nous est la plus familière et la plus importante, à savoir l’eau. Comme vous le savez la glace flotte sur l’eau, sinon d’ailleurs nous ne serions pas là pour en parler. Pourquoi ? Parce que si la glace ne flottait pas sur l’eau dans les phases glacières, les océans auraient pris en masse et la vie aurait été éradiquée. C’est parce que la glace flotte sur l’eau, que l’eau reste liquide en dessous et que la vie dans les fonds marins est protégée. Donc, c’est un phénomène absolument capital. Le fait que la glace est plus légère que l’eau est un comportement étrange, la plupart des solides sont plus lourds que leurs liquides, cela paraît normal, un solide c’est plus tassé. L’eau échappe à ça. Or à l’heure actuelle, si l’on a une explication de principe de cette chose, nous ne sommes pas capables de la calculer et si nous ne connaissions pas les propriétés macroscopiques de l’eau et que quelqu’un nous dise : « Voilà, c’est fabriqué avec des molécules,… » ces fameuses molécules H2O sur lesquelles on sait tout, on connaît leur composition, leur forme géométrique, la distance qui sépare les différents atomes, les modes de vibrations, les fréquences, etc. on connaît parfaitement la molécule d’eau. On connaît très bien les interactions entre deux molécules d’eau qui gouvernent l’ensemble d’une masse liquide, eh bien passer du comportement d’une, deux, trois molécules d’eau au comportement d’un très grand nombre, nous ne savons pas bien le faire, et nous serions incapables si nous n’avions pas les faits expérimentaux de prédire que la glace flotte sur l’eau, comportement pourtant quotidien et bien connu. Je pourrais multiplier les exemples, mais comme ce n’est pas mon propos ici, je m’en tiens là.

En ce qui concerne les autres phases, le passage des baryons et des mésons aux noyaux et électrons est problématique. On sait des choses, mais on ne comprend pas très bien. C’est d’ailleurs l’une des raisons pour lesquelles, voulant expliquer les comportements des noyaux, on s’est livré à la recherche des particules dites « élémentaires », qu’on a découvert les baryons et les mésons, mais on s’est aperçu que cela ne suffisait pas vraiment pour comprendre les noyaux et que dans une sorte de fuite en avant on est descendu au niveau sous-jacent, ce qui en fait n’a rien réglé, puisqu’il est encore plus compliqué, à l’heure actuelle, de remonter des quarks et des gluons aux baryons et aux mésons. J’ajoute, pour la bonne bouche, qu’évidemment on pourrait se poser la question du passage de la matière ordinaire inanimée, physique, à la vie et à la pensée et que là évidemment je mets quatre points d’interrogation, parce que le réductionnisme qui permettrait d’expliquer la vie, l’existence des êtres vivants et les comportements de la matière animée à partir de la matière ordinaire qui est le grand programme de la biochimie contemporaine, on ne peut pas dire, loin de là, qu’il soit vraiment assuré à l’heure actuelle. Et pour vous dire la vérité, j’ai des grands doutes sur sa possibilité même et sa signification.

Pourquoi ce succès variable, problématique, de la remontée synthétique de la compréhension d’un niveau à partir d’un autre ? C’est que, justement, la matière à petite échelle, à partir du niveau atomique, se comporte, nous allons arriver au cœur de notre sujet, d’une façon extrêmement différente de celle dont nous avons l’habitude. Là, il faut que je dise un mot de ce que l’on pourrait appeler, en suivant les classiques, les « qualités de la matière » Vous savez que les physiciens classiques, Françoise Balibar vous en a sans doute déjà parlé, mais je reprends pour assurer mon propos, les physiciens classiques ont fait un effort de pensée considérable qui a consisté à distinguer, dans les qualités perceptibles de la matière, ce qu’ils appelaient les qualités premières et les qualités secondes. Je vous lis par exemple un texte de Galilée, qui est tout à fait éloquent à cet égard. Galilée dit : « Je dis que je me sens nécessairement amené, sitôt que je conçois une matière, une substance corporelle, à la concevoir tout à la fois comme limitée et douée de telle ou telle figure, grande ou petite par rapport à d’autres, occupant tel ou tel lieu à tel moment, en mouvement ou immobile, en contact ou non avec un autre corps, simple ou composée. Et par aucun effort d’imagination je ne puis la séparer de ces conditions, mais qu’elle doive être blanche ou rouge, amère ou douce, sonore ou sourde, d’odeur agréable ou désagréable, je ne vois rien qui contraigne mon esprit de l’appréhender nécessairement accompagnée de ces conditions et peut-être n’était le secours des sens, le raisonnement de l’imagination ne les découvrirait jamais. Je pense donc que ces saveurs, odeurs, couleurs, etc., ne sont que de purs noms et n’ont leurs sièges que dans les corps sensitifs, nous-mêmes, de sorte qu’une fois le vivant supprimé, toutes ces qualités sont détruites et annihilées ». Autrement dit, l’odeur, la couleur, la saveur ne sont pas des propriétés des corps, mais des propriétés de notre interaction avec les corps, elles n’appartiennent pas en propre aux objets matériels. Ce qui appartient en propre aux objets matériels, ce sont non pas ces qualités dites secondes, mais les qualités premières qui sont, comme dit Galilée, la forme, le mouvement, etc.

L’énoncé le plus clair, on va retrouver cette idée chez Descartes, chez Boyle, mais l’énoncé le plus clair est dû à Locke, dans un passage célèbre de l’Essai concernant l’entendement humain, datant de 1690, où il dit : « On doit distinguer dans les corps deux sortes de qualités. Premièrement celles qui sont entièrement inséparables du corps en quelque état qu’il soit de sorte qu’il les conserve toujours, ces qualités sont de telle nature que nos sens les trouvent toujours dans chaque partie de matière assez grosse pour être aperçue et l’esprit les regarde comme inséparables de chaque partie de matière, même si nous ne pouvons pas l’apercevoir. Ces qualités du corps qui n’en peuvent être séparées, je les nomme qualités originales premières, ce sont la solidité, l’étendue, la figure, le nombre, le mouvement ou le repos et qui produisent en nous des idées simples comme chacun peut à mon avis s’en assurer par soi-même. Il y a en second lieu, des qualités qui dans les corps ne sont effectivement autre chose que la puissance de produire diverses sensations en nous par le moyen de leurs premières qualités, c’est-à-dire par la grosseur, figure, contexture et mouvement de leurs parties insensibles comme sont les couleurs, les sons, le goût, etc., je donne à ces qualités le nom de qualités secondes. »

L’idée des classiques, de Galilée, de Locke, etc. c’est de descendre vers le niveau élémentaire, celui des atomes - je vous rappelle que le XVIIe siècle redécouvre Lucrèce, donc il y a un atomisme latent qui se répand et qui va éclater en pleine lumière au XIXe siècle - et d’essayer de comprendre les couleurs, les odeurs, etc. sur la base des figures, formes, nombres, mouvements, des corpuscules élémentaires. Problème, ces corpuscules dits élémentaires, en tout cas au niveau des constituants de l’atome, les électrons par exemple ou les noyaux, ne présentent pas les qualités premières en question. Et là où Galilée, Descartes, Locke, pensaient que la figure, le nombre, le mouvement, étaient comme ils disent à la fois expérimentalement et conceptuellement inséparables de tout objet, eh bien les physiciens vont devoir découvrir, douloureusement, péniblement, à partir du début du XXe siècle, que tel n’est pas le cas et qu’un gigantesque défi leur est lancé, un défi à l’intuition, qui si elle continue à se baser sur notre expérience commune de la matière, de celle que nous touchons, voyons, sentons, ne pourra pas rendre compte de la nature de ces objets microscopiques. Et c’est donc là que doit s’introduire la notion des objets quantiques, les êtres quantiques, que je vais dénommer suivant une convention qui n’est pas à l’heure actuelle encore universellement partagée, mais qui me semble être la bonne dénomination, je vais appeler ça des quantons, en empruntant un néologisme relativement récent, forgé évidemment sur le modèle d’électron, proton, photon, neutron, etc. ; ils sont tous des instances particulières, des exemples spécifiques, de cette classe générique d’objets.

Pour bien comprendre ce qu’est un quanton et voir à quel point son comportement rompt avec les notions classiques, il faut revenir un instant à la physique classique, celle que vous a décrite Françoise Balibar dans sa vision de la matière. Pour la physique classique, c’est-à-dire jusqu’à la fin du XIXe siècle, on peut rendre compte de la structure de la matière grâce à deux types de concepts, d’une part et d’abord les corpuscules, particules, points matériels, appelez ça comme vous voulez, qui correspondent à cette idéalité, à cet objet théorique inventé par Newton essentiellement, qui dit sur la base de ce que je vois autour de moi, les cailloux, les grains de sable, les planètes quand je les vois de loin, je forge un concept qui est celui de point matériel, objet ponctuel sans étendue, doté de masse. Ce qui fait que ce n’est pas un point géométrique, mathématique, c’est un point physique, il porte une masse. Evidemment, ce point matériel est une abstraction, la science travaille avec des abstractions, avec des concepts, qui idéalisent les objets réels. Ce concept de point matériel va se révéler d’une extrême fécondité, il va être à la base de toute la mécanique classique, celle de Newton d’abord, il va permettre de développer la notion de trajectoire, l’idée de force, les équations différentielles, le fameux F=mgamma qui est la loi de Newton et de proche en proche toute la mécanique céleste du XIXe siècle va être fondée à partir de là, donc l’idée de particules et de corpuscules. Reste un problème gravissime que Newton ne peut pas résoudre et c’est à partir de quoi il énoncera son fameux hypotheses non fingo : Je ne feins pas d’hypothèses, je ne fais pas semblant de savoir lorsque je ne sais pas, pour rendre compte de la notion d’interaction.

En effet, il reste très mystérieux, dans la théorie newtonienne de la gravitation, la raison d’être de cette force à distance qui agit entre la Terre et la Lune. Comment la Lune sait-elle que la Terre est à 384 000 kilomètres, à travers le vide intersidéral et, qu’est-ce que c’est que cette action qui à travers le vide va passer de la Terre à la Lune. C’est extrêmement mystérieux pour quiconque est accoutumé, comme on l’est à cette époque-là, à des actions, qui sont toujours des actions de contact, de choc. Quand les corps se touchent, on sait - tout au moins on croit savoir - pourquoi, comment ils agissent l’un sur l’autre. Quand ils sont séparés, séparés par le vide, comment font-ils pour agir l’un sur l’autre ? Newton énonce une loi, la fameuse loi de la gravitation, la force égale le produit des masses, l’inverse du carré de la distance, mais hypotheses non fingo, je ne sais pas pourquoi, je ne fais pas semblant de savoir.

Et alors c’est pour répondre à cette question que va naître, au XIXe siècle, une deuxième idée clef, qui déjà, le point est capital ici, qui déjà va mettre en lumière les limites de la pensée classique, celle des qualités premières des corps, c’est la notion d’onde ou de champ. Cette notion d’onde qui est au préalable associée à des mouvements particuliers de certains milieux, les vagues sur l’eau, le son dans l’air, et donc qui décrit de façon macroscopique le mouvement d’un substrat sous-jacent, les atomes de l’air, les atomes de l’eau, que l’on peut décrire en gros par le mouvement ondulatoire plutôt que de suivre en détail le mouvement de chacune des particules, en fait ce concept va s’émanciper de sa base matérielle et quand il va s’agir du champ électromagnétique, des ondes électromagnétiques, de la lumière, des ondes radio, des rayons « X », après des recherches qui vont rester sans aboutissement quant au milieu dans lequel il est sensé se propager ce champ, c’est le fameux éther, on invente pour la lumière un milieu hypothétique dans lequel elle est sensée se propager, à l’instar du son qui se propage dans l’air ou qui se propage dans l’eau. Malheureusement cet éther se trouve doté de propriétés tellement bizarres et tellement contradictoires que l’on s’aperçoit qu’il vaut mieux y renoncer et accepter l’idée que le champ électromagnétique, les ondes électromagnétiques, ne sont pas la description d’un mouvement d’un substrat sous-jacent, mais constituent un être physique en soi. Autrement dit, elles acquièrent un statut ontologique, elles existent comme entités physiques au même niveau d’idéalité, mais ni plus ni moins que le point matériel.

La physique classique est donc entièrement basée sur ces deux piliers, les corpuscules et les ondes ou les champs j’emploie les deux mots indifféremment. A quoi servent ces ondes ou ces champs ? Eh bien justement, à transporter les interactions entre les particules, de sorte que la difficulté, l’aporie à laquelle se heurtait Newton est ainsi réglée : Pourquoi la Terre agit-elle sur la Lune ? Eh bien parce que la Terre engendre autour d’elle un champ de gravitation qui se propage de proche en proche dans l’espace et qui, quand il arrive à la Lune, agit sur elle. Il n’y a plus d’action à distance, cette action n’est d’ailleurs pas instantanée, elle est locale et elle prend un certain temps, et donc de ce point de vue-là, le problème de la transmission de l’action incompréhensible pour les classiques se trouve réglé. Même chose quand deux corpuscules chargés interagissent par une force électrostatique. Cette force électrostatique n’a rien de mystérieux, c’est la résultante de l’action du champ électrostatique sur une des particules, champ émis, créé, par l’autre particule. Et donc toute la physique classique jusqu’à la fin du XIXe siècle fonctionne très bien avec ces deux concepts. Inutile de dire que ce que je fais là c’est une reconstruction logique a posteriori et que ça n’a pas été perçu immédiatement comme tel.

Vous voyez que déjà la notion de champ est en rupture avec les notions classiques des qualités premières des corps puisqu’un champ n’est pas substantiel au sens de la matière ordinaire, ni même d’un fluide liquide ou gazeux. Il est beaucoup plus, si j’ose dire, impalpable et au surplus il n’a pas de forme propre, d’extension particulière, il remplit ipso facto tout l’espace disponible. Il se peut très bien que dans telle ou telle zone de l’espace il soit nul ou négligeable, mais a priori, connaître un champ c’est connaître sa valeur en tout point de l’espace. Ce qui veut dire que l’évolution d’un champ ne procède pas du tout sur le mode d’une trajectoire comme l’évolution d’une particule. C’est tout l’espace qu’il occupe et c’est dans l’espace qu’il se propage. Il y a propagation et non pas mouvement. La terminologie est déjà différente. Donc, un champ, une onde, ne répond déjà plus, bien avant la théorie quantique, ne répond déjà plus à cette norme des qualités premières que devraient posséder tous les corps. Pour être encore un peu plus clair et en venir cette fois-ci au quanton, voici un petit schéma, qui je crois, permet de comprendre les choses.

Je vous propose d’examiner, je ne vais pas faire un cours détaillé sur ce que sont les quantons, il me suffira de mettre l’accent sur deux de leurs aspects fondamentaux, qui sont la description de leur quantité et la description de leur spatialité, par rapport à une question qui traverse toute la physique, qui est la question du continu et du discontinu. Autrement dit la question c’est : est-ce que du point de vue de la quantité d’une part et de la spatialité d’autre part, tel ou tel objet physique relève du continu ou du discontinu ? En ce qui concerne la physique classique les choses sont claires. Les corpuscules classiques relèvent du discontinu dans les deux ordres en question. Du point de vue de la quantité les corpuscules peuvent se compter, un, deux, trois, quatre, cinq, ils appartiennent au discontinu, au discret mathématique, pour le dire en des termes mathématiques un peu plus sophistiqués. Du point de vue de leur spatialité, ils sont également discontinus, puisqu’ils occupent des points spécifiques dans l’espace, points séparés, donc ce sont des objets discontinus, et la discontinuité semble, je dis bien semble […] c’est semble-t-il, précisément parce qu’ils occupent des points séparés, individualisés dans l’espace, que l’on peut les compter, il y en a un ici, un autre là, je compte un, deux, trois, quatre, cinq. Quant aux ondes classiques, eh bien elles relèvent du continu dans les deux ordres. Du point de vue de leur quantité, elles sont continues. Si vous voulez caractériser l’intensité d’une onde, elle peut prendre a priori n’importe quelle valeur en décibels s’il s’agit du son, n’importe quelle hauteur en mètres s’il s’agit des vagues à la surface de l’eau, n’importe quelle valeur du champ électrique s’il s’agit d’une onde électromagnétique, donc la quantité des ondes est continue et leur spatialité est également continue puisque, comme je l’ai dit tout à l’heure, une onde c’est par essence un être qui occupe tout l’espace.

Alors voilà maintenant ce qui se passe pour le quanton et voilà la surprise. Là, je ramène, je crois, la difficulté conceptuelle de la théorie quantique à son nœud, à son noyau le plus profond. Eh bien les quantons montrent du discontinu quant à leur quantité et du continu quant à leur spatialité. Autrement dit un quanton est un objet qu’on ne peut pas, sauf circonstances tout à fait exceptionnelles, mais vraiment trop particulières pour servir de norme, qu’on ne peut pas localiser en un point, a priori un quanton occupe tout l’espace qui lui est disponible sous des formes particulières, spécifiques. Il n’empêche que ce sont des objets qui du point de vue de leur quantité sont discontinus, on peut les compter, d’où d’ailleurs leur nom, initialement tout ceci vient de la théorie dite des quanta qui montrait que la lumière était composée non pas d’une onde continue mais de petits paquets discontinus, discrets, quantifiés, les fameux quanta de lumière qui ont donné leur nom à la théorie quantique.

Gardez bien en tête cette bizarrerie qui est que les quantons, discontinus en quantité, continus en spatialité, ont donc une analogie avec les corpuscules en ce qui concerne la quantité, mais avec les ondes en ce qui concerne leur spatialité. C’est là précisément ce qui a surpris les physiciens au début du XXe siècle, quand ils se sont aperçus, je reprends l’exemple que je mentionnais à l’instant, que les ondes électromagnétiques n’étaient pas des ondes puisqu’elles avaient un aspect discontinu, mais que cette discontinuité n’était pas non plus celle des corpuscules classiques. Les petites entités, les grains de lumière, les quantons de lumière auxquels on finira par donner le nom de photons comme vous le savez, ne sont pas des corpuscules classiques, inversement, on s’aperçoit dans les années 1920, que les électrons dont on pensait jusque-là que c’étaient des corpuscules au sens classique, des objets localisés, ponctuels, présentent, eux, des caractéristiques spatiales qui relèvent du continu, et donc, de ce point de vue-là les électrons et les photons vont se rejoindre dans cette nouvelle conceptualisation des objets quantiques, des quantons.

Vous voyez donc qu’à la structure dualiste de la physique classique des corpuscules et des ondes succède un monisme quantique. Il n’y a qu’un seul type d’objet en théorie quantique. Ces objets peuvent différer par telle ou telle propriété, leur masse, leur charge électrique, etc., mais quant à leur nature profonde, ils sont tous de la même nature, les électrons, les photons, les protons, toute la zoologie de ces particules-là relève d’une seule et même notion. Comme le disait Richard Feynman, un des plus grands physiciens du XXe siècle, il disait : « Les objets quantiques sont complètement dingues, mais au moins ils le sont tous de la même façon, ce qui rend les choses un peu plus aisées. »

Vous comprenez aussi pourquoi on a pendant longtemps caractérisé les choses suivant une terminologie qui se révèle aujourd’hui inadaptée, mais que j’explicite pour la critiquer, qui a été une façon de parler au début du XXe siècle (mais ça a persisté et ça persiste encore dans pas mal de livres de vulgarisation, voire d’enseignement) de parler de la dualité ondes-corpuscules dans le cadre de la théorie quantique. Ça s’explique historiquement, puisque historiquement on découvre effectivement que ce qu’on croyait être un corpuscule : l’électron, ah ! Présente des aspects ondulatoires, que ce que l’on croyait être une onde : les ondes électromagnétiques, ah ! Présente un aspect corpusculaire. On s’est dit :  » Tiens, c’est tantôt l’un, tantôt l’autre, c’est bizarre quand même, il y a une dualité tout de même, tantôt l’un, tantôt l’autre. » Ceci n’est pas une bonne façon de penser, d’abord c’est contradictoire, un objet ne peut pas être tantôt un type d’objet, tantôt un autre type d’objet. Et il faut bien se rendre à l’évidence, après quelques décennies, la réalité c’est que les objets quantiques, les quantons, ce ne sont ni des ondes ni des corpuscules, mais que, dans certaines conditions, ils peuvent ressembler à des ondes et dans certaines autres conditions, ils peuvent ressembler à des corpuscules.

Quand on était au début de la théorie quantique les conditions de types classiques prévalaient, c’est-à-dire que la plupart des objets apparaissaient soit comme corpuscules soit comme ondes, mais depuis que notre connaissance du monde quantique s’est approfondie et que la sophistication des expérimentateurs s’est donnée libre cours, la plupart des quantons que nous manipulons se présentent d’une façon qui n’est ni ondulatoire ni corpusculaire et ils révèlent leur nature propre en plein. Une métaphore, qui vaut ce qu’elle vaut, vous me pardonnerez j’espère, peut éclairer ce propos. Imaginez que vous êtes au XVIIe, XVIIIe siècle parmi les malheureux qu’on envoie en Australie, je dis les malheureux parce que le Royaume-Uni expédiait là-bas ses bandits de grand chemin, ses prostituées, il fallait absolument peupler cette nouvelle terre et on embarquait les gens de force. Alors il débarquent sur ce nouveau continent, dans des conditions totalement inconnues, ils ne reconnaissent rien, ni les plantes, ni les bêtes qui sont extraordinairement bizarres, il y a des tas de bestioles qui sautent de partout, c’est des kangourous et puis en explorant un peu mieux ce domaine, dans les cours d’eau ils s’aperçoivent qu’il y a une sorte de bête un peu timide qui fuit dès qu’on l’approche, qui est tout à fait bizarre parce que quand on arrive à voir sa tête et ses pattes de devant ça ressemble curieusement à un canard, ça a un bec de canard et des pattes palmées, et puis quand on la regarde de derrière, d’abord on s’aperçoit qu’elle en a quatre des pattes et ensuite que c’est une bestiole à fourrure et que de derrière elle ressemble beaucoup plus, disons, à une taupe. Alors comment ces colons anglais l’appellent-ils ? « Duck-mole » canard-taupe et ils décrivent cette bestiole nouvelle en termes de dualité : canard-taupe et quand ils arrivent à s’en saisir et à la regarder de plus près, de quoi s’aperçoivent-ils ? Eh bien ce n’est pas un canard ni une taupe, c’est, vous l’avez reconnu, un ornithorynque et que sauf s’ils regardent ses apparences extrêmes, son petit derrière ou sa tête, on ne peut pas le confondre ni avec un canard ni avec une taupe, que sa nature profonde est toute différente. Nous avons exactement la même chose ici, si j’ose dire, les quantons sont les ornithorynques, en ce sens que ce ne sont que des aspects très particuliers qui peuvent nous les faire prendre soit pour des particules, soit pour des ondes et que leur nature propre est d’un autre genre.

Vous voyez que le problème, maintenant, c’est de se demander comment il est possible d’expliquer ce que nous pensions être les qualités premières des corps : la solidité, la figure, l’étendue, le mouvement, le nombre, en termes de ces objets quantiques qui les constituent et qui de toute évidence en sont dépourvus ? Ils ont d’autres qualités que décrit la théorie formelle, dans le détail de laquelle je ne vais évidemment pas entrer ici. Nous assistons donc, quand nous descendons du niveau de la matière ordinaire au niveau atomique, ou plus précisément encore au niveau subatomique - les électrons, les noyaux, les particules - nous assistons à ce qu’on pourrait appeler une sublimation des qualités premières en tant que telles. Elles disparaissent, elles s’évaporent, pourrait-on dire, mais non sans laisser derrière elles un reliquat subtil qui s’y substitue. Je vais les commenter tour à tour.

Considérons d’abord la notion de solidité. La solidité est un concept sans pertinence aucune dans le domaine subatomique. On ne peut pas dire d’un électron qu’il est solide. Au sens où la solidité - il faudrait relire les textes de Locke, les grands textes des classiques à cet égard - la notion de solidité qu’est la nôtre, la notion intuitive que nous avons tous les jours pour dire que cette table est solide, c’est qu’elle conjoint trois types de caractéristiques : une forme de spatialité, elle occupe de l’espace, une massivité, ça a de la masse et l’impénétrabilité, on ne peut pas passer à travers. Ces trois notions de spatialité, de massivité et d’impénétrabilité se disjoignent désormais et il n’existe rien que l’on puisse appeler solidité qui les conjoindrait dans ce domaine-là. Prenez l’exemple de l’atome lui-même, dans la conception antique, celle de Lucrèce, mais qui sera aussi celle des classiques, un atome c’est une petite bille très dure, infiniment dure, infiniment solide, qui n’a pas de parties élémentaires et qui est lui-même absolument impénétrable. La matière ordinaire est pénétrable parce qu’on peut séparer ses atomes, mais quand on arrive au niveau de l’atome il est infiniment solide, c’est ce qui, pour ces gens-là, explique la solidité de notre matière. Plus les atomes sont serrés les uns avec les autres, plus leur solidité infinie donne une solidité grande à leur assemblage. Oui, mais nous, notre atome d’abord ne répond en rien à son nom, comme vous le savez, atomos, cela veut dire que l’on ne peut pas séparer, c’est l’idée justement d’élémentarité d’Epicure, Démocrite et Lucrèce. Le paradoxe c’est que les scientifiques modernes découvrent les atomes et très peu de temps après, découvrent qu’ils ne sont pas des atomes en ce sens qu’ils sont sécables. Entre la mise en évidence des atomes et la mise en évidence de leur structure interne, c’est-à-dire le fait qu’ils soient séparables en constituants le noyau, les électrons, il s’écoule quelques décennies au plus. Un atome finalement, bizarrement, c’est quelque chose d’extrêmement ténu. C’est plein de vide. Sa mesure, ça a une taille, qui est difficile à définir précisément, justement parce qu’un atome ce n’est pas une boule qui aurait une frontière bien définie, disons que ça occupe un volume, ça occupe un volume d’une façon ou d’une autre, qui est de l’ordre, je le disais tout à l’heure, qui est de l’ordre de l’angström, c’est-à-dire du dix milliardième du mètre. Oui, mais l’essentiel de cet espace est en fait occupé par des électrons qui sont des objets extrêmement légers, extrêmement ténus, extrêmement volatiles, qui sont en train de circuler à grande vitesse et qui sont là comme une espèce d’essaim de mouches autour du noyau qui est dix mille fois plus petit, cent mille fois plus petit que l’atome lui-même et qui comporte l’essentiel de la masse. La masse est concentrée dans un domaine extraordinairement petit et pourtant la spatialité de l’atome est beaucoup plus grande. C’est cette disjonction que j’énonçais tout à l’heure entre spatialité et massivité. Quant à l’impénétrabilité, loin d’être comme la solidité classique, quelque chose d’absolu, quand on dit qu’un corps est solide, il est solide, rien ne peut le traverser sauf si on le casse, ça c’est autre chose.

Eh bien, un atome est plus ou moins pénétrable suivant ce que vous envoyez dessus. Si vous envoyez un autre atome, en général il rebondira. Donc deux atomes entre eux peuvent être considérés comme à peu près impénétrables l’un à l’autre. Par contre, si vous envoyez sur cet atome des électrons, qui sont très légers, très volatils, en général ils pourront traverser l’atome, passer au travers. D’autres particules y arriveront aussi et encore mieux les neutrons qui, n’ayant pas de charge électrique, ne voient même pas les électrons, ils peuvent traverser l’atome sans être défléchis sauf s’ils cognent directement sur le noyau. Donc, l’impénétrabilité devient quelque chose de relatif. On ne peut pas dire qu’un corps est impénétrable, comme on dit de la matière ordinaire, sans dire à quoi il l’est. Donc la pénétrabilité ne se fait plus par oui ou par non, c’est selon ce dont il s’agit.

Vous voyez que l’idée de solidité se dissipe. Il en reste pourtant quelque chose. Qu’est-ce qui reste de l’idée de solidité ? Il reste la notion de conservation, de loi de conservation. Il y a quelque chose qui reste à travers la transformation de la matière. La solidité avait pour effet de nous dire que la matière sera toujours là. Ce corps, je peux toujours le casser en morceaux, j’aurai toujours les morceaux qui peuvent se reconstituer pour donner la matière, même si c’est du métal et que je le fonds, j’aurai toujours la matière qui sera là. Eh bien, de ce point de vue-là, il reste quelque chose qui se conserve dans les différentes transformations de la matière, il y a même plusieurs choses qui se conservent. Il y a l’énergie qui reste une loi de conservation valable en théorie quantique, comme elle l’était en théorie classique, mais j’en dirais plus la semaine prochaine à propos de la relativité. Il y a la charge électrique qui se conserve. Et donc il y a, mais il y en a d’autres dans le détail desquelles je ne rentre pas, il y a donc un certain nombre de grandeurs physiques, de propriétés, obéissant à des lois de conservation, garantissant un certain type de permanence à la matière par delà la solidité de type classique.

Quant à la figure, ce que Locke a appelé figure, elle, elle disparaît aussi. Là où Lucrèce imaginait ses atomes ayant des formes sphériques ou pointues, alors par exemple, pour lui, et là vous allez bien voir le rapport qu’il y a, dans la théorie classique, entre les qualités premières et les qualités secondes, disait : le miel est certainement fait de corpuscules extrêmement ronds et doux parce qu’il est suave en bouche et donc sa qualité seconde, son goût sucré et doux, est dû au côté lisse et poli de ses corpuscules. Par contre le sel, qui pique, est sûrement fait de petits hérissons très pointus. Donc, il attribuait, effectivement, une figure au sens classique avec des formes géométriques particulières aux atomes. Cette notion de figure disparaît totalement. Un atome n’a pas de forme propre, mais notez bien que cette notion de forme a déjà disparue en physique classique avec l’idée de champ. Le champ classique, les ondes classiques, n’ont pas de forme propre, puisque leur structure spatiale dépend essentiellement des contraintes aux limites de l’espace dans lequel elles sont. Si vous faites passer une onde électromagnétique dans un tube circulaire ou si vous l’enfermez dans une enceinte cubique, vous aurez des modes différentes et l’occupation de l’espace ne sera pas le même. Ce qui veut dire, ce que l’on pourrait appeler la forme de l’onde n’est pas une figure qui lui appartient en propre, mais est gouvernée par l’extérieur, par des conditions extérieures. Donc là aussi, la notion de forme s’évanouit, c’est une forme sans figure. C’est quand même une forme en un certain sens. Qu’est-ce qui reste, comme l’idée qui restait tout à l’heure comme notion de loi de conservation qui remplaçait la solidité, pour étayer quelque matérialité, ce qui reste maintenant c’est la notion de symétrie. On peut attribuer aux atomes, non pas une forme, qui par exemple serait sphérique, mais certains atomes ont la symétrie sphérique en ce sens qu’ils auront, comme une sphère ordinaire, la même apparence quel que soit l’angle sous lequel vous le considérez. Donc, subsiste cette idée de symétrie, qui peut être sphérique ou d’une autre nature pour certaines molécules, et qui se substitue à l’idée d’une forme propre. Il peut y avoir une symétrie cubique sans qu’il y ait un cube, symétrie cylindrique, ça ne veut pas dire qu’il y a un cylindre, cela veut seulement dire que quand vous tournez autour d’un axe rien ne change. Cette notion de symétrie, symétrie géométrique, est capitale dans la physique moderne, précisément parce qu’elle vient relayer la notion de forme géométrique, qui, elle, disparaît.

La notion d’étendue des corps, maintenant, elle va subir le même affaiblissement, pour ne pas dire d’évanouissement, essentiellement parce que l’étendue d’un quanton va dépendre de ses interactions avec les autres. Je veux dire par là que si vous prenez par exemple un corpuscule électriquement chargé, un électron, mettons, comment interagit-il avec un autre électron ? Eh bien, suivant une loi de force, qui est tout à fait homologue à la loi classique, qui est une loi de force comme celle de Newton pour la gravitation d’ailleurs, qui dépend de l’inverse carré de la distance. Ce qui veut dire que ça s’affaiblit avec la distance, mais la portée est infinie. Deux électrons, aussi loin que vous les placiez l’un de l’autre, continuent à interagir, de plus en plus faiblement, soit, mais ils continuent à interagir. Ou bien, j’aurais mieux fait de prendre l’exemple de deux protons, ces particules chargées qui constituent les noyaux, il en va de même. Mais considérez maintenant ces mêmes deux protons, ils n’interagissent pas seulement par des forces électromagnétiques, il existe entre eux un autre type de force, qui s’est révélée dans l’étude de la physique nucléaire au début du XXe siècle, qui sont ce qu’on appelle, eh bien tout bêtement, les forces nucléaires, qui ne se ramènent ni aux forces électromagnétiques, ni aux forces de gravitation, qui sont des forces spécifiques qui interviennent au niveau des noyaux. Pourquoi n’interviennent-elles qu’au niveau des noyaux ? Eh bien justement parce que leur portée est une portée limitée, très courte, de l’ordre du fermi, le fermi c’est 10-15 mètres, c’est l’ordre de grandeur de la taille des noyaux, c’est donc 100 mille fois plus petit que les atomes. Eh bien deux neutrons ou deux protons, ou toutes ces particules-là, interagissent ensemble si elles sont à des distances inférieures à quelque chose qui est de l’ordre de ce fermi, mais ne se sentent plus, ne se voient plus dès qu’elles sont plus éloignées. Et donc, vous voyez que si je prends un proton et que je me demande quelle est son étendue, c’est-à-dire jusqu’où il fait sentir sa présence, eh bien s’il s’agit d’un corpuscule électriquement chargé, un électron par exemple, le sentira aussi loin qu’il soit, mais s’il s’agit d’un corpuscule qui n’a que des interactions nucléaires, par exemple un neutron, qui n’a pas de charge électrique, il ne sentira le proton qu’à de très courtes distances, de l’ordre du fermi. Donc la notion d’étendue, d’extension propre, disparaît là encore. Alors, ceux qui ont suivi, eh bien c’est bien cette notion de portée des interactions qui est en quelque sorte une étendue relative, relative aux interactions entre les corps.

Je n’ai pas le temps de m’attarder sur deux autres aspects : l’un, c’est l’idée de mouvement. Il n’y a plus de mouvement pour les quantons. Plus de mouvement dans le sens de la trajectoire suivie par une particule classique. Puisqu’un quanton possède une spatialité continue, a une occupation spatiale indéfinie, eh bien, son mode d’évolution est plus proche de la propagation des ondes que du mouvement au sens des trajectoires des corpuscules. Donc, il y a bien quelque chose qui évolue, qui change avec le temps, mais qui ne peut certainement pas être décrite par un mouvement. Vous voyez que nous avons rompu avec Descartes, rompu avec le projet cartésien qui était de décrire le monde, la nature, par figures et mouvements. Plus de figures, plus de mouvements, mais autre chose, bien sûr à la place, mais autre chose qui ne correspond pas à nos intuitions et à nos pratiques communes et qui doit donc être forgé par les théories que produisent les physiciens, qui sont de nouvelles notions qui émergent.

Un dernier mot sur la notion de nombre, qui présente un caractère assez mystérieux en ce sens qu’il y a un nombre sans distinction. Je veux dire par là que Locke nous disait : il y a du nombre parce qu’il y a des corpuscules distincts et c’est l’idée que j’évoquais tout à l’heure en disant ils sont discontinus du point de vue quantité, donc on peut les compter : 1, 2, 3, 4, 5… Oui, mais si maintenant les quantons ne sont plus ponctuels, n’occupent plus un point déterminé de l’espace, je ne peux plus dire celui-ci, celui-là, si j’ose dire, tout est mélangé dans l’espace et je ne peux plus les suivre individuellement, la distinction se perd. Et la théorie quantique apporte ainsi une explication claire et nette à un très vieux problème philosophique qui est celui de l’existence de corps identiques, qui était pour Leibniz une impossibilité. Leibniz disait : il est impossible que deux corps soient identiques, en vertu du principe de raison suffisante. S’il y a deux corps identiques, eh bien le simple fait que l’un soit ici et l’autre soit là, montre qu’ils ne sont pas identiques. Oui, mais si je n’ai plus de localisation cet argument se perd et de fait une propriété essentielle des objets quantiques est leur identité absolue, tous les électrons sont absolument identiques, je ne peux pas les discerner. Je peux dire il y a deux électrons, je ne peux pas les dénommer, les étiqueter, dire celui-là c’est le numéro un, celui-là c’est le numéro deux, leur mettre une étiquette sur le dos qui me permettrait de les discriminer. Alors vous me direz, comment je fais pour les distinguer ? Très simple, il suffit de calculer la masse totale et ça je sais le faire. Je sais calculer la masse des électrons dans un atome d’oxygène, je divise par la masse de l’électron, je vois que cela fait 8. Il y a donc 8 électrons dans un atome d’oxygène. Ou je peux calculer la charge électrique. Il n’y a aucun problème. Je peux compter les électrons mais pas en les distinguant, ce qui veut dire que la notion de nombre, ici, est une notion plus ténue que la notion classique, vous savez que l’on distingue dans la notion classique de nombre qui sert à compter les pommes, les torchons, les serviettes, tout ce que vous voulez, deux aspects : l’aspect cardinal et l’aspect ordinal et qui semblent aller de pair. L’aspect ordinal c’est que je peux compter le premier, le deuxième, le troisième, le quatrième, le cinquième et au bout du compte je dis qu’il y en a cinq. Cinq caractérise l’ensemble, mais pour tous les objets dont nous avons l’habitude, je peux les ordonner et donc l’ordinalité décompte un à un et va de pair avec la cardinalité. Les objets quantiques perdent l’ordinalité, gardent la cardinalité. Je peux dire : il y a cinq électrons, je ne peux pas dire : il y a le premier, le deuxième, le troisième, le quatrième, le cinquième. Ce qui est évidemment une notion de nombre assez étrange.

Je vous montrerai la prochaine fois, en parlant de la relativité, qu’il y a d’autres aspects de la relativité qui, eux aussi, viennent réagir sur la notion de la qualité première, mais je vais terminer, aujourd’hui, en revenant sur la question que je posais au début, qui était la question de la difficulté du partage du savoir, en particulier en ce qui concerne la théorie quantique. Evidemment, je ne vous ai pas fait, ici, un cours sur la théorie quantique. Ceci exigerait, pour l’instant en tout cas je ne sais pas faire autrement, que j’aie un tableau, un crayon et que j’écrive quelques formules, peut-être pas des très compliquées, mais quelques-unes quand même. Autrement dit, il n’y a pas de théorie physique sans son substrat formel qui soit parfaitement cohérente. Alors qu’est-ce que j’ai tenté de faire ici ? Eh bien, je dirais que j’ai plutôt essayé de vous montrer ce que n’étaient pas les quantons plutôt que de vous montrer ce qu’ils étaient. Autrement dit, je me demande si en ce qui concerne la physique contemporaine, d’ailleurs une bonne partie des sciences contemporaines en général, nous ne devons pas nous résoudre à nous contenter, au moins provisoirement, de ce que l’on pourrait appeler une vulgarisation négative. Comme il y a une théologie négative. On ne peut pas dire ce que Dieu est, mais on peut dire ce qu’Il n’est pas, c’est déjà beaucoup. Il n’est pas fini, Il n’est pas etc., etc., etc., quant à dire ce qu’il est, c’est au-dessus de nos forces.

En ce qui concerne les quantons, c’est ce que j’ai essayé de faire, vous dire ce qu’ils n’étaient pas. Quant à vous dire ce qu’ils sont, eh bien il faudrait là que je plonge au cœur de la théorie et de ses concepts à travers son formalisme. Pourquoi cette difficulté, vous pourriez me dire, mais déjà la physique classique est aussi une théorie physique mathématiquement formalisée et on devrait trouver la même difficulté. On la trouve. On la trouve pour, par exemple, la théorie classique des champs. Dans l’électromagnétisme maxwellien la notion de champ n’est pas une notion très commune et j’ai eu quelque mal à vous la présenter. On ne la trouve plus ou beaucoup moins pour des objets comme le point matériel ou pour des concepts de la physique classique, comme par exemple, je prends deux ou trois exemples de ce que les physiciens classiques ont du apprendre avec difficulté au XVIe puis au XVIIe sicle, et dont vous allez voir que ce sont des notions qui nous sont parfaitement familières à nous aujourd’hui ici. Par exemple le fait que la Terre puisse être isolée dans l’espace, comme ça, elle est là et elle n’a pas besoin d’être posée sur le dos d’une tortue qui elle-même est sur le dos d’un éléphant, etc., etc. Que la Terre soit isolée dans l’espace, si vous y pensez, et ça continue ou ça recommence à poser des questions, il n’empêche que c’est quelque chose que vous savez, vous le savez empiriquement parce que vous avez vu des tas de dessins et même maintenant des photos de la Terre prise de loin dans l’espace, il y a donc une pratique, qui est une pratique collective, sociale, fut-elle purement observationnelle, qui nous montre que c’est comme ça. Alors qu’évidemment, déjà pour Copernic et pour ses successeurs, imaginer la Terre dans l’espace, ça ne peut être que l’imaginer, vous ne pouvez pas la voir, c’est donc un effort mental absolument gigantesque. Je ne dis pas qu’aujourd’hui, nous comprenons tous immédiatement, mais en tout cas nous le voyons. Deuxième exemple, une des plus grandes batailles intellectuelles de Galilée va être sa construction de la notion de vitesse instantanée pour expliquer la loi de la chute des corps. Quand un corps tombe, il tombe avec une vitesse qui change d’instant en instant. Mais qu’est-ce que ça veut dire ça ? La vitesse qui change d’instant en instant. C’est très bizarre. La notion de vitesse, je sais ce que cela veut dire entre deux instants. Si je parcours cinq kilomètres en une heure, eh bien je fais du 5 kilomètres à l’heure. Si je fais deux kilomètres cinq en une demi-heure c’est pareil, je peux réduire mon intervalle de temps et l’intervalle d’espace en même temps, mais à la limite, à la limite où j’ai juste un point, comment je peux dire que quelque chose a une vitesse en un point puisqu’en ce point ça ne bouge pas ? Je retrouve le vieux paradoxe éléate de Zénon. La flèche, si elle est en un point, en un point il n’y a qu’un instant, elle ne bouge pas : le paradoxe du mouvement auquel Galilée va répondre en forgeant la notion de vitesse instantanée par ce passage de la limite. Il n’a même pas de notion de dérivée à son époque, pas d’analyse de mathématique pour ce faire, il est obligé de penser ça, si j’ose dire, à tête nue et c’est un effort mental absolument extraordinaire. Aujourd’hui, eh bien vous avez tous un tachymètre, un compteur de vitesse dans votre voiture et vous voyez l’aguille du compteur de vitesse qui bouge à chaque moment. Comme disait Bachelard, les concepts sont maintenant matérialisés dans des objets, ce concept théorique très profond, très difficile, chez Galilée, est maintenant matérialisé dans un objet de métal qui vous le fait voir sinon comprendre. Vous pourrez dire la même chose de la tension électrique, je passe faute de temps, mais il y a un texte assez drôle de Langevin dans lequel il explique […] la tension électrique c’était une des choses les plus difficiles à comprendre de tout son cursus, eh bien aujourd’hui on sait que les piles font 4,5 voltes ou 1,5 voltes, il y a du 200 voltes là, donc il y a une approche empirique de la notion de tension qui répond à la question.

Mais, mais voilà la question maintenant sur laquelle je termine, en ce qui concerne les théories scientifiques, en tout cas la physique moderne, moderne notez bien que ça veut dire contemporaine, c’est comme l’art, l’art moderne c’est l’art depuis un siècle, la physique moderne c’est depuis un siècle. En ce qui concerne la physique moderne, elle s’est investie certainement, par la technologie, sous une forme qui est doublement invisible. Doublement invisible parce que premièrement il se trouve qu’elle est microscopique donc que les atomes ça ne se voit pas, c’est vrai, à l’œil nu j’entends, mais pour une autre raison aussi, c’est que la technologie moderne est, par sa nature, sa nature économique, faite de boîtes noires. Vous avez tous des objets quantiques sinon dans votre poche du moins chez vous, ce sont les lecteurs de compact discs qui utilisent un faisceau laser. Un faisceau laser est un phénomène quantique par essence. Vous n’avez jamais vu un faisceau laser de votre lecteur de CD parce que tous les objets techniques contemporains sont soigneusement fermés. On ne touche plus à rien, on ne démonte pas, là où les enfants encore jusqu’à la première moitié du XXe siècle, ceux de ma génération, au tournant des années 50, démontaient les réveils et voyaient les engrenages qui tournaient et pouvaient les remonter, aujourd’hui vous donnez un réveil à quartz à vos enfants, ils peuvent éventuellement le mettre en pièce, mais ils ne comprendront absolument pas comment ça marche pour autant. Il y a donc une opacité de la technologie et à la fois de la théorie sous-jacente qui fait que le rapport que nous entretenons avec les idées scientifiques a changé de nature et que c’est un des paradoxes de la modernité qui est qu’à certains égards, malgré les efforts gigantesques que déploie la société, par exemple en créant et en alimentant une maison comme celle-ci, eh bien la tâche du partage du savoir scientifique est plus difficile aujourd’hui qu’elle ne l’a jamais été. Je m’arrêterai sur ce paradoxe un peu pessimiste.

Question 1 : Bonsoir Monsieur. Vous nous avez très bien expliqué le passage des notions classiques disons à la mécanique quantique en partant de la notion de solidité et vous l’avez divisé en trois critères : la spatialité, l’impénétrabilité et disons la présence de masse. On a bien vu, enfin du moins je pense avoir bien vu, l’évolution de la spatialité, de l’impénétrabilité, en ce qui concerne la masse, alors est-ce qu’il subsiste quelque chose qui se rapproche de la notion classique ? Comment cela a évolué ?

Réponse JMLL : Si vous revenez la semaine prochaine je vous le dirai. La notion de masse a effectivement subi des transformations mais moins du fait de la théorie quantique que du fait de la théorie relativiste. Elle a évolué, elle est différente, elle garde des traits analogues à la notion antérieure, mais je vous en parlerai la prochaine fois.

Question 2 : Je voudrais savoir pourquoi les notions de forme, etc., ont disparue alors que Bohr quand il a fait son modèle, un modèle quand même planétaire, il a pris des notions de vitesse, de trajectoire et il a retrouvé ce que Rydberg avait, lui, trouvé sans comprendre. Donc en fait on ne peut pas dire que toutes ces notions ont disparu.

Réponse JMLL : Alors, le modèle de Bohr qui date de 1913 a permis effectivement de comprendre le spectre de l’atome d’hydrogène. Point. Le spectre de l’atome d’hydrogène et c’est tout. C’est-à-dire que c’est un modèle qui vu la simplicité de l’atome d’hydrogène, il n’y a pas d’atome plus simple, il y a juste un électron tournant autour d’un proton, la simplicité de l’atome d’hydrogène a pour conséquence qu’il est susceptible d’une analyse qui est pré quantique et dans laquelle, ça a été le génie de Bohr, qui est un génie. Le génie de Bohr ça a été d’utiliser les notions classiques, comme vous le dites fort bien la notion de trajectoire, la notion de vitesse, sous une contrainte. Par exemple Bohr a dit :  » Oui les électrons suivent des trajectoires autour du noyau, mais ils n’ont pas le droit de suivre toutes les trajectoires. Et il a énoncé une règle, mais qui est une règle qui n’a plus rien à voir avec les théories classiques, il faut rajouter de l’extérieur, qui est même incompatible avec la théorie classique, qui est une règle de sélection des trajectoires qui permettait d’obtenir de bons résultats. Ça c’est dû exclusivement à la simplicité de l’atome d’hydrogène qui se trouve pouvoir répondre à un modèle du genre. Le succès n’était pas garanti au départ, ça marche, mais ça cesse de marcher dès que vous mettez deux électrons, dès que vous mettez deux électrons c’est-à-dire pour l’atome d’hélium, il est impossible de procéder à une démarche telle que celle de Bohr c’est-à-dire d’imaginer des trajectoires classiques pour les deux électrons avec des règles etc. Ce n’est pas faute d’avoir essayé, tous les physiciens de l’époque s’y sont cassé les dents et tant et si bien que c’est à partir de là, justement du fait que l’atome de Bohr, l’atome d’hydrogène dans la vision de Bohr, le modèle de Bohr ne pouvait pas être généralisé, qu’il a bien fallu construire autre chose qui est la théorie quantique et qui a dit : désolée mais il faut qu’on se passe complètement désormais de la notion de trajectoire.

Question 3 : Pouvez-vous éclairer ma lanterne, s’il vous plaît, sur le principe d’incertitude, c’est-à-dire de la probabilité de présence d’un électron par exemple qui est indiscernable avec la notion de la notion de mécanique quantique ? Merci.

Réponse JMLL : Alors, on a affaire avec la notion d’incertitude et le fameux principe d’incertitude d’Heisenberg, je mets beaucoup de guillemets comme vous allez voir, à un phénomène un peu du même genre que celui que j’énonçais à propos de la dualité onde-corpuscule. Autrement dit, un type d’énoncé qui se comprend historiquement, parce qu’après tout les grands physiciens, les hommes de génie qui ont construit la théorie quantique ils ne la connaissaient pas, et donc comme toute nouveauté elle ne peut apparaître que dans les termes de l’ancienne qu’elle remplace. On ne connaît pas d’avance les bons mots, les bonnes formulations, les bonnes expressions pour désigner ce qui apparaît, puisque justement c’est nouveau. Et donc le terme d’incertitude, le principe d’incertitude, a été forgé pour rendre compte de cette spatialité étendue des quantons, le fait qu’ils ne pouvaient, sauf exception, en règle générale pas être assignés à un point particulier de l’espace, mais qu’ils étaient quelque part dans une certaine zone. Dans un premier temps ça a été pensé sur le modèle de la notion classique d’incertitude, c’est-à-dire j’ai un objet, il est quelque part mais je ne sais pas ou, l’incertitude expérimentale. Tous les expérimentateurs, quand ils mesurent la position d’un objet, sinon ce ne sont pas des physiciens dignes de confiance, vous disent je connais sa position à tant près. Cette table fait 1,5 mètre ± 0,5 mm parce que jamais je ne pourrais définir la longueur de cette table à 0,5 mm près, les bords sont arrondis, etc., donc, il y a une incertitude qui porte sur toute valeur. Mais l’incertitude n’empêche pas qu’un objet classique, une particule, soit à un endroit bien défini, même si je ne connais pas cette position. Et alors, dans un premier temps, les physiciens se sont dit, mais c’est là qu’est le problème, il y a une incertitude je n’arrive pas à savoir exactement où est l’électron, parce que alors il y a une sorte de conspiration, mais il faut que je rentre plus dans les détails, qui fait que l’incertitude sur la position et l’incertitude sur la vitesse, qui sont totalement indépendantes pour une particule classique, je peux essayer de mesurer aussi finement que je veux sa vitesse et aussi finement que je veux sa position, deux choses qui sont sans rapport l’une avec l’autre. En théorie quantique quelque chose qui va nouer les deux concepts l’un avec l’autre qui va faire que si j’essaye d’attribuer une position bien définie à l’électron en l’obligeant à se localiser en un point aussi précis que possible, alors du coup je vais perdre toute notion sur sa vitesse et inversement. Alors on a dit c’est des incertitudes, l’incertitude sur la vitesse, l’incertitude sur la position sont corrélées, mais ce ne sont pas des incertitudes. Si vous employez le mot incertitude ça veut dire que vous persistez à penser que l’électron est quelque part mais que vous ne savez pas où. Donc, vous continuez à le penser sur le mode d’une particule classique et c’est en ce sens que le terme d’incertitude est en fait un reliquat des conceptions classiques que la théorie quantique elle-même dépasse. Quant à l’idée de principe elle est encore moins fondée puisque désormais cette idée est la conséquence d’axiomes de base de la théorie quantique beaucoup plus généraux et beaucoup plus profonds qui montrent qu’il y a, comment appeler les chose ? Problème. Quel mot employer si je n’emploie pas le mot d’incertitude ? Eh bien, on est obligé de puiser dans le vocabulaire tel qu’il existe, il y a eu, à un moment donné une tentative qui était un peu meilleure, au début d’ailleurs dans les textes d’Heisenberg lui-même il emploie des mots allemands différents, il parle aussi bien de Unbestimmtheit ( ?) que de Ungenauigkeit ( ?) ce qui veut dire soit incertitude soit indétermination ou même mieux d’ailleurs « indéterminité », pour employer un mot extrêmement savant, ce qui est meilleur. Parce que vous voyez, incertitude ça veut dire je ne sais pas où il est, indétermination, « indéterminité » ça veut dire ça n’est pas déterminé de façon précise. Et ça c’est quelque chose qu’on connaît déjà, et je rejoins ce à quoi j’ai déjà fait allusion plusieurs fois, je rejoins là la théorie classique des ondes qui à beaucoup d’égard anticipe sur certains aspects de la théorie quantique et explique certaines de ses difficultés en les manifestant déjà. Je prends ici la notion de fréquence d’un son. Si j’émets un son pur avec un corde vibrante que je fais vibrer d’une façon bien sinusoïdale, j’ai une fréquence unique bien déterminée. Oui, mais si je prends une corde de violon, je passe mon archet dessus, ma corde de violon va émettre un son qui n’aura pas une fréquence unique. Le son qui sera émis aura ce qu’on appelle un timbre, c’est-à-dire qu’il résultera de la superposition de plusieurs fréquences, il y aura des harmoniques. Un son en général n’est pas caractérisé par une fréquence bien déterminée. Il a un spectre de fréquences. La plupart des sons qui sortent de ma bouche en ce moment, si je les analysais dans un spectrographe, vous verriez qu’ils ont toute une gamme spectrale. Il y a évidemment un fondamental, un formant, comme on dit puis il y a bien d’autres fréquences qui leur appartiennent. Donc, la notion de fréquence est adaptée pour certains sons purs, mais un son en général n’a pas une fréquence unique. Sa fréquence n’est pas déterminée, elle a un spectre de fréquence, une gamme de fréquence et il faudrait utiliser exactement, parce que ça relève tout à fait de la même analyse, les mêmes termes pour parler de la position et de la vitesse en termes quantiques, vous avez une gamme de positions, un spectre de positions, avec une largeur de spectre, une largeur de bande, une largeur de bande, tout ce que vous voulez, pas une incertitude qui est un laissé pour compte, un reliquat d’une conception ancienne et dont il serait, me semble-t-il, temps de se débarrasser. Vous observerez au passage, je fais une parenthèse, qu’un paradoxe de la physique contemporaine qui n’est pas sans liens avec celui que j’énonçais quant aux difficultés à en partager les savoirs, tient à l’archaïsme de son vocabulaire. C’est tout à fait bizarre de constater que la physique la plus moderne a moins fait évoluer son vocabulaire que ne l’avait fait la physique classique du XIXe siècle. Entre 1850 et 1900, le début de la théorie des ondes, par exemple, et son aboutissement, les termes changent, les gens emploient de nouveaux mots, laissent tomber les anciens, pas toujours mais beaucoup, alors que nous restons aujourd’hui beaucoup trop prisonniers à la fois en théorie quantique et en relativité, je vous le montrerai la semaine prochaine, d’une terminologie ancienne et désuète, ce qui ne facilite pas non plus évidemment les énoncés.

Question 4 : Oui, ce que j’aimerais savoir, comment se passe le passage du monde quantique au monde macroscopique. Un électron ce n’est pas qu’on ne sait pas où il est. Il est nulle part et partout, par contre un atome on sait parfaitement où il est parce que maintenant on peut travailler dans les nanotechnologies, à déplacer un atome. Lui, il a bien un endroit bien précis, il occupe un espace. Comment se fait le passage d’un univers à un autre. Est-ce que c’est brusquement, d’un seul coup ? Est-ce qu’il y a une zone imprécise ? Enfin voilà.

Réponse JMLL : C’est la grande question et qui n’est pas encore résolue complètement aujourd’hui. Alors, ce qui est clair, c’est que la théorie quantique cède la place à la théorie classique pour des objets de plus en plus gros en règle générale, mais que ce n’est pas aussi simple que ça. Il ne suffit pas d’avoir un corps macroscopique avec des milliards d’atomes pour qu’il ait un comportement classique et ce qui montre les difficultés du passage du quantique au classique, autrement dit la difficulté de considérer la théorie classique comme une approximation de la théorie quantique, ce dont nous sommes tous convaincus, physiciens, la bonne théorie c’est la théorie quantique, que tous les objets qui nous constituent, nous sommes faits de protons et d’électrons qui sont des objets quantiques, donc la question c’est comment il se fait que ces objets quantiques aient l’air de se comporter comme des objets classiques ? Donc, c’est la question de l’approximation. Comment peut-on rendre compte du fait que la théorie classique est à une certaine échelle une bonne approximation de la théorie quantique. Ce qui montre que le problème est compliqué. Nous connaissons des objets et des objets de plus en plus gros qui ne perdent pas entièrement traces de leurs caractéristiques quantiques par exemple les atomes justement. Il est à la fois vrai, comme vous le dites, que l’on sait désormais, grâce à des technologies de type quantique d’ailleurs, observer la matière à l’échelle atomique et voir que dans un cristal les atomes sont à des positions relativement bien déterminées. Je dis relativement ça veut dire que leur incertitude comme l’aurait dit Heisenberg, leur dispersion spatiale, comme je préférerais dire, ou leur largeur de spectre de positions n’est pas nulle. Elle est petite. C’est-à-dire qu’ils sont assez bien localisés pour que je puisse dire il est à peu près là ou à peu près là. Mais, et ça c’est une mise en évidence expérimentale relativement récente, on sait justement du même coup manipuler les atomes de façon à montrer des comportements qui sont des comportements typiquement ondulatoires où ils sont proprement délocalisés comme on savait le faire depuis longtemps avec des électrons ou avec des photons. On sait faire, désormais, interférer des atomes, difracter des atomes et même des molécules de plus en plus grosses, on l’a fait récemment avec les macromolécules qu’on a mis en évidence il y a quelques années : les foutballènes ( ?) Ces molécules qui ont 40 atomes de carbone, des objets qui sont relativement gros, et dont on a envie de penser qu’on doit pouvoir commencer à les concevoir comme des petits grains de matière presque classique, eh bien on sait, dans certaines conditions, conditions bien contrôlées, on sait mettre en évidence leur comportement quantique. Mais ça ne s’arrête pas là. Il y a des objets proprement macroscopiques qui quant à certaines de leurs propriétés, je dis bien certaines, propriétés un peu sophistiquées, difficiles à mettre en évidence, garde des comportements quantiques. C’est par exemple le cas des matériaux, des métaux, supraconducteurs. La supraconductivité, c’est-à-dire la capacité pour certains métaux à basse température de conduire le courant électrique sans résistance aucune, pas avec une petite résistance, sans résistance aucune, ce qu’on appelle la supraconductivité, est un phénomène quantique, fondamentalement quantique qui se manifeste dans des objets de taille centimétrique ou plus. Il en va de même pour la superfluidité de l’hélium liquide qui peut couler dans des tuyaux à basse température sans aucune viscosité sans aucun frottement et donc vous avez des écoulements d’hélium que vous voyez dans un vase, vous voyez votre hélium, c’est un liquide, apparemment au sens classique, mais certaines de ses propriétés, sa fluidité en particulier est quantique. Dernier exemple, j’y ai déjà fait allusion, un faisceau laser. Un faisceau laser est un champ électromagnétique quantique bien qu’il soit macroscopique, visible, mais ses propriétés de « mono chromaticité » c’est-à-dire le fait qu’il ait une fréquence bien déterminée de directivité, de cohérence sont proprement quantiques. Et donc vous voyez qu’il ne suffit pas d’avoir de gros objets pour dire : je passe du classique au quantique et les conditions précises qui permettent de savoir qu’on pourra traiter tel ou tel corps de façon correcte par la mécanique classique, ce qui est en général vrai, si je lance ce stylo et que je veux calculer sa trajectoire, je vais oublier la théorie quantique. Il est sûr que les équations de Newton me suffiront. Donc, dans la plupart des comportements des objets macroscopiques il est certain que la théorie classique me donne une bonne approximation mais je ne dispose pas encore à l’heure actuelle de critères théoriques, formels et précis pour m’en assurer et cette question reste, encore aujourd’hui, la grande question de la théorie quantique. Vous voyez que ce qui est mystérieux dans cette affaire ce que au fond, paradoxalement, ce qui est le plus difficile à comprendre du point de vue moderne, ce n’est pas la théorie quantique, c’est la théorie classique. C’est, si nous connaissons bien la théorie quantique, comment cela se fait que la théorie classique marche ? Et ça encore une fois ça reste une question largement ouverte dans laquelle on a fait certains progrès mais qui est loin d’être résolue.

Question 5 : La mécanique quantique est basée sur des postulats. Est-ce qu’on peut la qualifier comme science exacte ?

Réponse JMLL : Je ne saisis pas très bien quel rapport il y a entre les deux aspects qu’il y a de votre question. Toute théorie commence par poser des axiomes de départ. La théorie classique aussi. Elle suppose une action de masse qui est axiomatisée, qui est un postulat de départ. Il n’y a pas de théorie, sinon ce ne serait pas une théorie, qui ne repose pas sur des concepts, donc sur des postulats ou des axiomes appelez ça comme vous voulez.

Suite question 5 : Parce qu’en fait on accepte des choses pour expliquer d’autres choses. Est-ce que le départ ne pose pas de problème ?

Réponse JMLL : Bien sûr que ça pose des problèmes. La question que ça pose c’est y a-t-il une théorie plus profonde que la théorie quantique qui un jour nous permettra de comprendre ses propres axiomes. De même ce qui a été les axiomes ou les postulats de départ de la théorie classique, à savoir corpuscule, matériel, quelque chose qui occupe un point donné, qui a une vitesse de telle ou telle nature, c’est des postulats ; c’est des choses qu’on énonce à un moment donné parce que la masse des données expérimentales nous invite à faire cet effort d’abstraction. De ce point de vue-là la théorie classique est une théorie, c’est-à-dire repose sur des postulats. Il se trouve simplement que de façon pas très encore très maîtrisée comme je viens de vous le dire ces postulats peuvent être maintenant ramenés aux postulats plus fondamentaux de la théorie quantique, la question, absolument ouverte, c’est est-ce que la théorie quantique elle-même un jour laissera la place à une théorie plus profonde. Ma réponse de principe c’est oui. Je n’arrive pas à croire une seule seconde qu’une théorie donnée, dans la mesure où c’est une construction de l’esprit humain, puisse épuiser la réalité. Ça c’est une position philosophique qui est la mienne, qui est indémontrable. Cela dit il faut bien reconnaître, j’aurais peut-être dû dire ça d’entrée au début et peut-être ça sera notre conclusion parce que je crois que l’heure est a peu près venue, il faut dire une chose qui est tout à fait remarquable, c’est que aujourd’hui, après un siècle d’existence, la théorie quantique n’a montré aucune limitation de sa validité. C’est tout à fait remarquable dans la mesure où comme je vous l’ai montré on est passé du niveau atomique au niveau « subnucléaire » c’est-à-dire un approfondissement, une descente d’échelle d’un facteur 107 presque autant que quand on passe de la matière macroscopique à la matière atomique. On aurait pu imaginer que de même qu’il faut changer complètement de conceptualisation quand on passe de la matière ordinaire à l’atome, eh bien il faudrait changer de conceptualisation quand on passe de l’atome disons aux quarks. Eh bien quand on passe de l’atome au quark ce n’est pas la peine de changer, la théorie quantique reste valable de deux façons : d’une part toutes les prédictions expérimentales qu’elle est capable de faire sont avérées, alors oui il y a des domaines en physique nucléaire où on n’est pas capable de faire les calculs proprement et donc on patauge un peu, et donc chaque fois qu’on est capable de faire des prédictions elles sont vérifiées et de l’autre côté on a mis en évidence aucune contradiction interne de la théorie. Sa structure logique reste à l’heure actuelle parfaitement solide, même si elle a des difficultés pour s’harmoniser avec celle de la relativité, mais ça c’est un autre aspect, sa structure interne reste propre reste inchangé. Donc elle reste aujourd’hui aussi moderne et aussi valide et beaucoup plus même qu’elle l’était il y a un siècle.



Haut de pageMentions légalesContactRédactionSPIP