Parcours
Parcours lévinassien
Parcours axiologique
Parcours cartésien
Parcours hellénique
Parcours ricordien
Parcours spinoziste
Parcours habermassien
Parcours deleuzien
Parcours bergsonien
Parcours augustinien Parcours braguien
Parcours boutangien
Glossématique
Synthèses
Ouvrages publiés Suivi des progrès aux USA
Parcours psychophysique
L'art et la science
Parcours nietzschéen
Philosophies médiévales Autres perspectives
Archéologie Economie
Sciences politiques
Sociologie
Poésie
Théologie 1
Théologie 2
Théologie 3
Psychanalyse générale
Points dhistoire revisités
Edification morale par les fables
Histoire
Phénoménologie
Philosophie et science
Mises à jour du site
18/02//2017 ajout :
21/01//2017 ajout :
21/01//2017 ajout :
08/01/2017 ajout :
01/01/2017 nouveau parcours
18/12//2016 ajout :
24/11//2016 ajout : Liens Wikipédia
Visites
visiteurs visiteurs en ligne |
Philosophie et science - Glossaire
5/ GLOSSAIRE Les expressions de la nouvelle physique Est rassemblé ici lessentiel de larsenal théorique de la « nouvelle physique » dont les différentes notions figurent dans les textes la concernant et sont marqués par un astérisque ; ils sont redéfinis, dune manière aussi concise que possible. Les astérisques qui apparaissent de nouveau dans ce glossaire se rapportent à des termes qui eux-mêmes y figurent. Assimilation du corpusculaire à londulatoire. Cest en 1923, que Louis de Broglie sest posé la bonne question : puisque dans le cas des photons les ondes peuvent être considérés comme des corpuscules, pourquoi la réciproque serait-elle impossible ? Doù sa proposition dassimiler le corpusculaire à londulatoire en quantité de mouvement du corpuscule produit de sa masse par sa vitesse). Précision importante apportée par DE BROGLIE, cette onde associée nest pas une onde monochromatique qui aurait une étendue illimitée dans lespace , mais un « paquet dondes* » dont le maximum damplitude se déplace avec la vitesse du corpuscule. Or, il se trouve que, lorsque les ondes superposées, en grand nombre, se déplacent à des vitesse légèrement différentes, presque partout le creux de lune compense la crête de lautre et les ondes sannulent sauf à un endroit où les crêtes sajoutent les unes aux autres, formant un énorme renflement. Cest précisément ce renflement qui, daprès les calculs de DE BROGLIE se déplace à la vitesse du corpuscule. La confirmation expérimentale viendra, par hasard, en 1927, quand deux jeunes chercheurs américains (DAVISSON et GERMER) observent fortuitement quun pinceau sélectrons réfléchi par la surface dun cristal de nickel donne, sur une plaque photographique, des taches de diffraction (des interférences) analogues que le physicien allemand VON LAUE avait trouvées quinze ans auparavant pour des rayons X. Si des électrons peuvent conduire à des interférences (fig.ci-contre), cest quils se conduisent, eux aussi, comme des ondes. LOUIS DE BROGLIE avait donc raison. Cette confirmation de laspect ondulatoire dune paericule autre que le photon représente un pas décisif sur la voie de lunité de la physique. Sur le plan pratique aussi, la « mécanique ondulatoire » de LOUIS DE BROGLIE va connaître des développements intéressants : la diffraction des électrons sera utilisée concurremment à celle des rayons X pour les études sur la constitution des molécules. Une de ses plus belles applications est celle du microscope électronique. Restait cependant à trouver lexpression mathématique précise de londe axxociée à toute particule, expression rendant compte des effets de diffraction et dinterférence. Deux noms restent associés à ce travail de mise en forme de la physique quantique, celui de SCHRÖDINGER et dHEISENBERG. Axiome. Cétait autrefois, en mathématiques, une proposition élémentaire qui apparaissait comme évidente. À lépoque contemporaine, cest une proposition appartenant à un langage formel* qui est posée comme vraie par hypothèse. Béance. Un terme introduit dans les textes concernant la physique pour désigner limpossibilité de décrire tous les aspects de la réalité physique par la théorie, leur écart irréductible provenant d'un conflit entre lunicité des faits et le probabilisme profond de la théorie quantique. Il a trait à des faits parfaitement visibles, et non, comme le voudrait le Réel voilé de DESPAGNAT, à des propriétés qui ne sont que concevables, auxquelles on ne parvient pas à assigner une valeur de vérité*. Bosons. Les bosons , contrairement aux fermions ne servent pas à constituer la matière, mais sont les médiateurs des forces. Cela signifie que quand une force sexerce entre deux particules de matière, cela se fait par lintermédiaire des bosons. Pour comprendre ce principe, on peut avoir recours à une analogie mécanique. Imaginez que vous soyez sur une patinoire avec un ami, immobiles et face-à-face. Supposons que vous teniez une boule de bowling et que vous la lanciez en lair à votre ami. Quand la boule quitte vos bras, vous êtes propulsé en arrière, par effet de recul. Mais quand la boule atterrit dans les bras de votre partenaire, lui aussi se trouve mis en mouvement. Donc après ce lancer, votre ami et vous, vous vous éloignez lun de lautre : tout se passe comme si la boule de bowling avait été le médiateur dune force répulsive entre vous deux. Le phénomène est le même avec les quatre forces fondamentales* : les bosons sont comme des boules de bowling, et servent de messagers des forces. Chacune de ces forces possède ses bosons attitrés. Pour la force électromagnétique, cest tout simplement le photon*. Pour la force nucléaire forte, ce sont les 8 particules appelées gluons. Pour la force nucléaire faible, on les appelle les bosons W. Pour la gravité, on ne les a jamais mis en évidence, mais on les appelle hypothétiquement les gravitons. Cest à partir du boson que sest articulé, à partir des années 1940-50, le programme de recherche dunification de lélectromagnétisme et de la force nucléaire faible en une seule théorie, unification qui sappellerait « lunion électrofaible ». Calcul de propositions. En logique, cest le maniement des propositions dun langage formel*, à laide principalement des opérations logiques « non, et, ou », et létablissement entre elles de relations déquivalence ou dimplication. Champ de propositions. En logique, l'ensemble des propositions sur lesquelles on se propose de raisonner. Il peut être défini à laide d'ensembles à la manière de Boole (point de vue exhaustif) ou construit au moyen d'un langage plus ou moins formel. Commutation. En mathématiques et en mécanique quantique, le produit AB de deux opérateurs* A et B sobtient en faisant dabord agir lopérateur B sur une fonction quelconque u pour former la fonction Bu sur laquelle on fait alors agir lopérateur A, ce qui donne ABu et qui définit lopérateur AB agissant sur u. Les opérations A et B commutent quand AB = BA. En général, on appelle commutateur de A et B la différence des deux produits AB - BA. Constante de Planck. En décembre 1900, une voix avisée se fait entendre, cest celle de PLANCK qui tire les conclusions du rayonnement du corps noir. Prenant pour image celle dune barre de fer portée au rouge, il émet lhypothèse que le rayonnement émis ne se fait pas de façon continue à la manière dun liquide sécoulant dun récipient à un autre, mais quil se fait de manière discontinue, comme un écoulement de billes et, qui plus est de billes qui nont pas toutes la même taille. À mesure que la fréquence sélève (de linfrarouge à lultraviolet), elles sont de plus en plus grosses. Ainsi, les échanges dénergie entre matière et rayonnement se fait par paquets, par quantités définies (doù le nom de « quantum » attribué à chacun de ces paquets élémentaires, dont la pluralité est « quanta »). Et chaque quantum contient une énergie proportionnelle au rayonnement. La plus petite quantité d'énergie ε (le quantum d'énergie) échangée par un rayonnement de fréquence est liée mathématiquement à cette fréquence par la relation : h= εν La constante h fut alors proposée comme nouvelle constante universelle. Sa dimension, bien que considérablement faible, est cependant celle d'une action (une énergie multipliée par un temps). Les déterminations expérimentales ultérieures de h conduiront à la valeur : 6,62 x 10- 43 J.s (joule-seconde) Cette quantification de l'échange d'énergie entre matière et rayonnement apparut à l'époque comme une révolution. Au grand dam de Planck, avec le maniement dunités si petites, il fallut renoncer à intégrer cette avancée dans la physique classique : la mécanique quantique était née. La valeur de la constante de Planck ne sera jamais remise en cause, dautant moins quon la retrouvera lors de nouvelles observations. On vérifiera beaucoup plus tard (à partir de 1960) quelle correspond à la masse de la particule dont la longueur donde de Compton est égale au rayon du plus petit trou noir* compatible avec la physique quantique, lequel plus petit trou noir sévapore en un peu plus de 10 - 43 secondes. Remarquons au passage que la matière qui est happée par un trou noir est chauffée à des températures considérables avant dêtre engloutie et émet de ce fait une quantité importante de rayons X. Ainsi, même si un trou noir német pas lui-même de rayonnement, il peut néanmoins être détectable. Crédible. En mécanique quantique, une proposition crédible résulte dun fait observé, mais elle na de sens que dans certains des cadres logiques autorisés par lexistence de la complémentarité*, et non dans tous, au contraire des propositions vraies (voir Vérité). Elle ne peut conduire à une contradiction logique, à condition que lon ne sorte pas du cadre qui lui convient, lequel reste arbitraire et non objectif. Décohérence. En mécanique quantique, la décohérence est un effet physique grâce auquel les effets dinterférence* quantique entre des états macroscopiquement distincts disparaissent très rapidement. Denkbereich. Voir Champ de propositions. Diffraction. En optique, les phénomènes de diffraction sont ceux qui se manifestent par un écart à la propagation rectiligne de la lumière montrant son caractère ondulatoire. Ainsi, le bord d'une ombre produite par une source ponctuelle nest pas parfaitement net quand on lobserve avec soin. Diffraction par une fente
Diptyque de la physique quantique.
Discontinuité (domaine du rayonnement). À la fin du XIXe siècle plusieurs physiciens se sont consacrés à létude du « spectre » du morceau de fer chauffé en fonction de la température à laquelle il a été chauffé. Deux bornes à lobservation ont été constatées :
Ces études ont servi de base à partir de 1893 aux physiciens allemands, PASCHEN et WIEN et qui finissent par la loi de Wien formulée en 1896 : la longueur donde de la lumière dont la puissance dans le rayonnement émis par un corps noir est la plus grande et inversement proportionnelle à la température. On a dabord linfrarouge, puis le rouge, le jaune, le vert, le bleu, encore le blanc (addition de toutes les lumières visibles), jusquà lultraviolet et au-delà. Complétant cette loi, le physicien anglais RAYLEIGH en juin 1900 en propose une seconde qui détermine, pour une température et une longueur donde données, la puissance rayonnée. De cette deuxième loi, on tire la conclusion que le rayonnement thermique est dautant plus intense que la longueur donde est plus courte. Dans un premier temps, lexpérience corrobore la loi ; pour les longueurs allant de linfrarouge au vert, les résultats sont conformes aux prévisions. Mais pour la suite des couleurs, à partir du bleu lexpérience est en contradiction flagrante avec la théorie qui conduit à des valeurs immensément grandes pour les très petites longueurs donde. Cest ce que le physicien autrichien EHRENFEST, grossissant le trait, appellera « la catastrophe ultraviolette ». Voilà la physique classique qui, pour la première fois, est prise en défaut. En décembre 1900, une voix avisée se fait entendre, cest celle de PLANCK qui tire les conclusions du rayonnement du corps noir et lui permet détablir la constante universelle qui porte son nom : constante de Planck.* Discontinuité (domaine de la lumière). Du XVIIe au XIXe siècle, la lumière a fini par simposer par son caractère ondulatoire plutôt que corpusculaire. HUYGENS fut le premier à le reconnaître. Il découvrit en 1677, grâce aux propriétés des cristaux et de leur coupe géométrique, en particulier grâce au spath d'Islande, que les lois de réflexion et de réfraction de SNELL-DESCARTES étaient conservées si l'on supposait une propagation de la lumière sous la forme d'ondes. En outre, la double réfraction du spath d'Islande peut être expliquée, ce qui n'est pas le cas avec une théorie corpusculaire. La théorie ondulatoire, bien que présentée sous une forme encore très peu développée fut publiée en 1690 dans son Traité de la Lumière. FRESNEL en retrouvera le sens, plus dun siècle plus tard, en toute indépendance puisqu'il ne semble pas avoir connu les travaux de HUYGENS. En 1815, FRESNEL, à vingt-sept ans, sopposa à la théorie corpusculaire de la lumière de NEWTON en vigueur jusque là, et par des expériences sur la diffraction de la lumière, p²osa les bases de sa théorie « vibratoire » de la lumière, à laquelle il apportera compléments et corrections en 1818. Il appuya la théorie ondulatoire de la lumière en prouvant le premier que deux faisceaux de lumière polarisés dans des plans différents navaient aucun effet dinterférence et en déduisant en 1821 de cette expérience que le mouvement ondulatoire de la lumière polarisée était transversal et non longitudinal (comme celui du son), ainsi qu'on le croyait avant lui. Il était le premier à produire une lumière polarisée circulaire. Ses formules, dites de FRESNEL, sur la réfraction sont toujours utilisées. Près dun siècle plus tard, malgré ces avancées, les conceptions vont sinverser. Lannée 1905 marque un rebondissement inattendu de la théorie des « quanta ». Une communication étonnante dALBERT EINSTEIN, ancien élève de lécole Polytechnique de Lausanne, alors jeune employé du bureau des brevets de Berne, démontre elle aussi que leffet photoélectrique ne peut être compris que si la lumière qui le produit est formée de « quanta discontinus » dénergie. On savait depuis HERTZ (1887) que la lumière ultraviolette avait la propriété dextraire des corpuscules chargés négativement, cest-à-dire des électrons, de la surface dune plaque de métal. Or, si le nombre des électrons arrachés était proportionnel à la quantité de lumière fournie, la vitesse à laquelle les électrons jaillissaient, cest-à-dire leur énergie cinétique, nen dépendait absolument pas. Cétait dire quelle relevait exclusivement de la composition spectrale de la lumière qui éclairait la plaque : plus la longueur de la radiation était courte, plus lénergie cinétique des électrons arrachés était grande. De plus, il y avait une longueur donde maximale au-dessus de laquelle aucun électron nétait arraché, ce qui nétait pas sans rappeler lanomalie du rayonnement pour cette lumière ultraviolette. Il y avait là un mystère que la physique classique ne parvenait pas à résoudre. Dans sa communication, EINSTEIN reprend lhypothèse de PLANCK et ladapte à la lumière. Il suppose quune lumière monochromatique, cest-à-dire ne contenant quune radiation de fréquence unique ν, est formée dune myriade de corpuscules porteurs dun même quantum dénergie. Quand un de ces corpuscules frappe la plaque métallique, il communique son quantum dénergie à un électron, lequel en dépense une partie pour sarracher à lattraction de son noyau, et transforme le reste en énergie cinétique, cest-à-dire en vitesse. Conformément à la doctrine de PLANCK, EINSTEIN ajoute que le quantum dénergie possédé par le corpuscule de lumière est dautant plus grand que la fréquence de la radiation est plus élevée (ou que sa longueur donde, inversement proportionnelle à la fréquence, est plus courte). Métaphoriquement parlant comme lont fait SVEN ORTOLI et JEAN-PIERRE PHARABOND dans le « Cantique des quantiques », leffet photoélectrique pourrait être comparé à un jeu consistant à lancer des balles de tennis sur une cible. Chaque fois quune balle (le corpuscule de lumière) atteint la cible, elle déclenche un mécanisme qui envoie des pièces de monnaie (les électrons) en direction du tireur, pièces (électrons) qui sont projetées plus ou moins loin selon la force avec laquelle la balle ((le corpuscule de lumière) touche la cible. Plus on envoie de balles de tennis (corpuscules de lumière) sur la cible cest-à-dire plus lintensité du flux lumineux est grande, plus on récolte de pièces de monnaie (délectrons) ; mais si les balles (corpuscules de lumière) sont envoyées trop mollement (basses fréquences), les pièces (les électrons) ne vont pas très loin, ou même ne sont pas éjectées du tout ; par contre, si les balles (les corpuscules de lumière) sont lancées avec grande vigueur (hautes fréquences) , les pièces peuvent parvenir jusquau tireur. De sorte quEINSTEIN est amené à conclure que lénergie cinétique des électrons est donnée par une formule très simple : E= h x ν - W où W est la dépense dénergie que doit fournir lélectron pour sarracher au métal. EINSTEIN suggère ainsi que la quantité hν est l'énergie d'une particule électromagnétique qui sera plus tard appelée photon. La constante h, dont il obtient alors facilement une valeur numérique précise en confrontant son modèle aux données expérimentales, est alors et est toujours une grandeur fondamentale en mécanique quantique, au même titre que va être, lannée suivante, la vitesse de la lumière en relativité. En effet, dès 1906, Einstein propose une expérience de pensée basée sur lémission de grains de lumière appelés ultérieurement photons, dénommée « La boîte dEinstein » dans un article de la revue «Annal of Physics». Elle aboutit à létablissement de la formule révolutionnaire : E = m.c2 où E est lénergie de masse, m la masse de la particule isolée et au repos, et c la vitesse de la lumière, la Relativité* venait de nous être donnée et avec elle de nouvelles notions concernant lordre et la mesure du temps. Discontinuité (domaine de latome). BOHR postule que dans le modèle solaire de latome de RUTHERFORD électrons de charge négative [planètes] gravitant autour du noyau [soleil] le rayon de lorbite circulaire ne peut varier de façon continue, mais quil faut au contraire lui assigner des valeurs déterminées dans lesquelles intervient la constante de PLANCK. En clair, cela signifie que les électrons gravitant autour du noyau ne peuvent le faire que selon des orbites bien précises, et que, en particulier il leur est impossible de descendre au-dessous dune orbite dite « fondamentale ». Ils ne risquent donc pas de sécraser sur le noyau. SVEN ORTOLI et JEAN-PIERRE PHARABOD dans « Le cantique des quantiques » proposent dimaginer un escalier. Lélectron peut ou bien se tenir sur une marche, ou bien grimper sur la marche supérieure si on lui fournit lénergie nécessaire (sous la forme dune particule électromagnétique appelée photon), ou bien descendre sur la marche inférieure en rendant de lénergie (sous la forme dun photon) ; mais en aucun cas il ne peut rester entre deux marches. Dans ce modèle chaque marche est « étiquetée » par un nombre caractéristique du rapport entre le rayon orbital et la vitesse de lélectron. Au départ, simple construction de lesprit, sans justification apparente, la théorie de BOHR va connaître a posteriori déclatants succès. Elle permettra, entre autres, dexplique les radiations lumineuses de fréquences bien spéciales (raies spectrales) émises par différents corps chimiques : quand un électron placé sur une orbite élevée descend sur une orbite inférieure, il émet un photon ; lémission dune raie colorée de fréquence ν correspond donc à des sauts délectrons de lorbite extérieure vers une orbite plus interne. On appelle ces bonds des « sauts quantiques ». Dautres nombres viendront caractériser lorbite dun électron,
Dualité onde-corpuscule. Laspect corpusculaire et laspect ondulatoire sont deux représentations « complémentaires » dune seule et même réalité. Un être physique unique peut nous apparaître tantôt sous forme de corpuscule (quand, par exemple, il provoque un scintillement sur un écran fluorescent), tantôt sous forme donde (quand, par exemple, nous observons les tranches dinterférence ptoduite par un flot délectrons).
Ainsi aux alentours de 1927, on peut dire que larsenal théorique de la nouvelle physique est, pour lessentiel achevé. De lintroduction par PLANCK de la notion de quantum à la synthèse de DIRAC, il aura fallu un bon quart de siècle pour le réaliser. Mais il est maintenant solide et performant du fait quil rend compte dun très grand nombre de phénomènes restés jusqualors mystérieux. La physique quantique serait purement déterministe, sil ny avait pas dobservateur. Elle ne permet pas de prévoir le résultat dune mesure ; elle permet de calculer les valeurs possibles et leur probabilité. Mais la mesure elle-même est très précise. Effet tunnel. Cest un phénomène qui se produit couramment au niveau des particules et jamais au niveau macroscopique (système comprenant un grand nombre de corpuscules atomiques ou moléculaires dont les dimensions dépassent le micron). Il est inexplicable en physique classique et très bien compris en physique quantique. On peut imager la situation de manière simple : un objet usuel (à notre échelle) qui se trouve dans un creux ne pourra pas remonter la pente spontanément pour parvenir à un autre creux. Sil est au fond dun puits, il y restera à moins quon mette de lénergie pour en sortir. En physique, cette situation sappelle un puits de potentiel, quil sagisse dun potentiel lié au champ de gravitation ou à un autre champ.
Eh bien, les particules parviennent sans cesse à sortir des puits de potentiel ! Cest complètement en contradiction avec les lois de la physique classique.
Normalement, on ne peut pas passer dune vallée à une autre vallée voisine sans passer par un sommet ou un col de la montagne qui les sépare, à moins de creuser un tunnel dans la montagne. Cest pourtant ce que parviennent à faire les particules de matière et tout objet quantique. Cest pour cela quon appelle cela un effet tunnel, comme si la particule avait creusé un tunnel pour sortir du puits de potentiel. Doù est venue lénergie donnée à la particule pour sortir du puits puisquon a laissé la particule sans intervenir ? Eh bien, cest le vide quantique qui a prêté cette énergie dans un temps très court et qui la ensuite récupérée. Cela nécessite que le tunnel soit de courte longueur. Leffet tunnel dévoile les relations de la matière particulaire (monde quantique) et du vide quantique (monde virtuel). Même si le virtuel nest directement "visible" ou "sensible" pour nous et nos appareils dobservation, les expériences de toutes sortes sur les particules imposent son existence qui seule peut permettre de les expliquer. La particule est "habillée" par son nuage virtuel constitué par la transformation à proximité de la particule du vide quantique qui lentoure. Cela signifie que toutes les caractéristiques de la particule, comme la masse ou la charge, et toutes les expériences dinteraction de la particule ne peuvent sinterpréter si on considère le corpuscule "nu" sans nuage virtuel autour. Virtuel signifie fugitif mais signifie aussi potentiel parce que la particule peut sauter dun point de son nuage à un autre.
Électron. Lélectron de la nouvelle physique nest plus une sorte de planète qui tourne autour dun astre, le noyau de latome. Il ne parcourt pas un chemin précis, mais des trajectoires possibles. Invisible et insaisissable, ce nest plus un objet : cest un nuage.
C'est une sorte de chose qui influence le milieu, qui l'imprègne, qui lui donne une propriété globale. Deux électrons quelconques ne peuvent jamais occuper le même état quantique (posséder les mêmes nombres quantiques) [Principe dexclusion de Pauli*].
Entre deux électrons, la force d'attraction gravitationnelle est 1040 fois plus faible que la force de répulsion électrostatique. Alors que l'interaction gravitationnelle est uniquement attractive, l'interaction électromagnétique peut être soit attractive soit répulsive. Il existe deux types de charges électriques, les positives et les négatives. Deux charges de même signe se repoussent, deux charges de signe opposé s'attirent. Cette propriété est très importante : une charge positive a tendance à attirer, dans sa proximité, une charge négative de même valeur et inversement. La matière reste alors globalement neutre : la force de répulsion que la première charge exercerait sur une tierce charge positive est pratiquement compensée par la force d'attraction de la deuxième charge. C'est pourquoi à l'échelle des distances astronomiques, l'interaction électromagnétique, malgré son intensité 1040 fois plus forte que l'intensité de l'interaction gravitationnelle, est négligeable par rapport à cette dernière. Énergie. En physique classique, l'énergie est une quantité physique qui se conserve pour un système isolé. Elle se décompose souvent en une partie qui dépend des seules vitesses (énergie cinétique) et une autre qui dépend des seules positions (énergie potentielle). En mécanique quantique, lénergie est une observable* quon appelle aussi lhamiltonien. Équation de Schrödinger. En mécanique quantique, léquation de SCHRÖDINGER exprime la variation de la fonction donde* au cours du temps et joue ainsi le rôle de la dynamique. Elle fait intervenir de manière essentielle une observable* particulière qui est lhamiltonien ou énergie*. Équations de Maxwell En physique (électrodynamique), il s'agit dun ensemble d'équations qui régissent les propriétés des champs électrique et magnétique ainsi que leur évolution au cours du temps. Avant le travail dû à J. C. Maxwell au XIXème siècle, nous avions le champ électrique et le champ magnétique, qui semblaient deux phénomènes indépendants. Puis Maxwell a compris quils nétaient que deux manifestations différentes dun même objet : le champ électromagnétique, lequel est également responsable de la lumière. Unifier lélectricité, le magnétisme et la lumière, à juste titre a été considéré comme un véritable tour de force. Espace-temps. Ce terme de physique désigne la conjonction de lespace et du temps en un seul système, conçu comme une entité première et représenté par un espace mathématique abstrait à quatre dimensions. Il y a de multiples manières dintroduire des coordonnées dans cet espace abstrait, dont chacune est interprétable comme une structuration en espace et en temps, tels quils peuvent être constatés empiriquement par un observateur particulier dans son propre voisinage. Éther. Milieu hypothétique emplissant l'espace, longtemps supposé par la physique classique. Il était censé permettre la propagation de la lumière puis, lorsque cette dernière fut identifiée à un champ électromagnétique vibrant, celle de ce champ. Il a disparu des concepts actuels après lexpérience de MICHELSON. Fentes de Young. Les fentes de Young (ou interférences de Young) désignent en physique une expérience qui consiste à faire interférer deux faisceaux de lumière issus d'une même source, en les faisant passer par deux petits trous percés dans un plan opaque. Cette expérience fut réalisée pour la première fois par Thomas Young en 1801 et permit de comprendre le comportement et la nature de la lumière. Sur un écran disposé en face des fentes de Young, on observe un motif de diffraction qui est une zone où s'alternent des franges sombres et illuminées. Cette expérience permet alors de mettre en évidence la nature ondulatoire de la lumière. Elle a été également réalisée avec de la matière, comme les électrons, neutrons, atomes, molécules, avec lesquels on observe aussi des interférences. Cela illustre la dualité onde-particule : les interférences montrent que la matière présente un comportement ondulatoire, mais la façon dont ils sont détectés (impact sur un écran) montre leur comportement particulaire.
Schéma de principe des fentes de Young
Illustration de lapparition des franges dinterférence Quand la particule interfère avec elle-même comme dans lexpérience des fentes de Young, la seule interprétation possible est quelle a à la fois traversé les deux fentes, ce nest pas le corpuscule mais le nuage qui traverse les deux et qui interfère avec lui-même en modifiant ainsi les probabilités de présence.
Une propriété fondamentale des ondes est leur capacité à interagir entre-elles, c'est-à-dire de s'additionner si elles sont en phases ou de s'annuler en cas de déphasage, exactement comme le feraient 2 vagues identiques se croisant, dont la vague résultante serait soit 2 fois plus haute (les crêtes d'une vague correspondent aux crêtes de l'autre), soit inexistante (les crêtes de l'une correspondent aux creux de l'autre). Or, l'expérience de Young a montré que 2 rayons lumineux sont capables de s'additionner (frange brillante) ou de s'annuler (frange sombre). Dans l'expérience de Young, on utilise une source lumineuse S monochromatique1 et on interpose une plaque percée de 2 fentes. Celles-ci se comportent comme des sources secondaires S1 et S2. On observe alors, sur un écran placé derrière, des franges alternativement sombres et claires : les ondes issues de S1 et S2 interfèrent entre elles. Considérons maintenant un point M situé sur l'écran. Il est éclairé par les ondes lumineuses émises par S1 et S2 qui peuvent s'écrire respectivement, au point M :
et
où E0 est l'amplitude, ω la pulsation des ondes, Δφ leur déphasage et t le temps. Δφ caractérise le fait qu'une onde a un certain retard par rapport à l'autre. En effet, pour arriver au point M, le chemin à parcourir n'est pas de la même longueur pour la lumière qui provient d'une source ou de l'autre. Si Δφ est un multiple de 2π, les ondes s'ajoutent et on obtient une frange lumineuse sur l'écran, ce que l'on appelle une interférence constructive. En revanche si Δφ est un multiple impair de π alors les ondes s'annulent et on obtient une frange sombre sur l'écran, c'est alors une interférence destructive. Cela explique pourquoi on observe, sur l'écran, des franges successivement claires et sombres. Mais il n'y a pas, a priori, de formule simple permettant de décrire ces franges. Pour simplifier le problème, il est possible de supposer que l'écran est placé loin des fentes.
Fission nucléaire. La fission nucléaire[1] est le phénomène par lequel le noyau d'un atome lourd (noyau qui contient beaucoup de nucléons, tels les noyaux d'uranium et de plutonium) est divisé en plusieurs nucléides plus légers, généralement deux nucléides. Cette réaction nucléaire se traduit aussi par l'émission de neutrons (en général deux ou trois) et un dégagement d'énergie très important (≈ 200 MeV par atome fissionné, à comparer aux énergies des réactions chimiques qui sont de l'ordre de l'eV par atome ou molécule réagissant).
Fonction donde. En mécanique quantique, létat d'un système est défini comme une donnée qui permet de calculer la probabilité de toute propriété*. Cette donnée est souvent exprimée de manière mathématique par une fonction (fonction donde) ayant pour arguments les coordonnées des particules qui constituent le système. Ainsi, la fonction d'onde est une quantité formelle contenant et permettant d'exprimer tout ce qui peut être affirmé à propos d'un système physique à un instant donné. L'équation trouvée par le physicien SCHRÖDINGER en 1925, est une fonction d'onde qui généralise l'approche de de Broglie aux particules massives non relativistes soumises à une force dérivant d'une énergie potentielle, dont l'énergie mécanique totale est classiquement : E = p2/2m + V (r) Le succès de l'équation, déduite de cette extension par utilisation du principe de correspondance applicable seulement lorsque le nombre de particules-quantons atteint un certain seuil , fut immédiat quant à l'évaluation des niveaux quantifiés d'énergie de l'électron dans l'atome d'hydrogène, car elle permit d'expliquer les raies d'émission de l'hydrogène*. L'interprétation physique correcte de la fonction d'onde* de SCHRÖDINGER ne fut donnée qu'en 1926 par MAX BORN. En raison du caractère probabiliste qu'elle introduisait, la mécanique ondulatoire de SCHRÖDINGER suscita initialement de la méfiance chez quelques physiciens de renom, notamment EINSTEIN, pour qui « Dieu ne joue pas aux dés ». Mais cette équivalence mathématique était loin dêtre une équivalence physique. SCHRÖDINGER, contrairement aux créateurs résignés de la mécanique quantique avec leurs méthodes dalgèbre transcendante, se proposait rien de moins que de ramener la physique quantique dans « la vieille maison » de la physique classique. Cest quil répugnait à admettre « limpossibilité de trouver une image intuitive des phénomènes naturels ». Limage intuitive, la représentation visuelle des phénomènes physiques, voilà le cur de la question. Pour SCHRÖDINGER cette représentation était fournie par la physique des ondes. Une onde, en effet, est un phénomène qui se développe dans lespace et dans le temps ; sa répartition spatiale et son évolution temporelle sont continues (en tout cas dans les cas simples auxquels pense SCHRÖDINGER), et permettent par conséquent de décrire ce qui se passe en termes dune causalité proche de celle que les phénomènes macroscopiques nous ont rendue familière. « Il est à peine nécessaire de remarquer, écrivait encore SCHRÖDINGER, à quel point une représentation des phénomènes qui ferait intervenir au moment dune transition quantique un simple échange dénergie entre deux formes de vibration distinctes, serait plus facilement acceptable que limage actuelle des électrons qui sautent dun niveau à un autre. Le changement de forme dune oscillation est un phénomène qui peut avoir lieu dans lespace et dans le temps ( ) » Dans la physique bohmienne, il ny a a priori quune seule fonction donde : celle de lunivers. Si la théorie est déterministe, comment compose-t-elle avec le caractère probabiliste des équations de la mécanique quantique ? DÜRR, GOLDSTEIN et ZANGHI (1993) expliquent que ce qui paraît aléatoire dans chaque contexte expérimental ne l'est pas dans un univers bohmien. Les lois statistiques de Born seraient des manifestations locales d'un état d'équilibre quantique universel.
Dans l'interprétation de Copenhague, la métaphore du cylindre est couramment employée pour décrire la situation de l'expérimentateur. Les particules ont à la fois les propriétés d'une onde et d'une particule, tout comme ce cylindre a à la fois les propriétés d'un cercle et d'un rectangle. Dans la théorie de BOHM, le potentiel quantique *(londe-pilote) [2] remplit ce rôle explicatif : la particule est guidée par le potentiel quantique comme le sous-marin par son sonar. Chaque prédiction confirmée par les lois de BORN ne confirme pas du même coup que le monde quantique est décidément imprévisible dans le détail ; elle confirme, par un renversement du référentiel, que c'est le moment de l'expérimentation et les particules spécifiques étudiées à ce moment donné qui sont aléatoires. Forces fondamentales. Lensemble des phénomènes physiques connus peuvent sexpliquer à partir de seulement quatre forces dites « fondamentales ». Deux de ces forces nous sont assez familières : la force électromagnétique et la force de gravité; les deux autres agissent seulement au niveau subatomique : la force nucléaire « forte », responsable de la cohésion des noyaux atomiques, et la force nucléaire « faible », qui intervient dans les processus de fission nucléaire*. Formel. Une expression utilisée dans les textes concernant la physique comme adjectif et parfois comme nom. Le formel soppose principalement à lintuitif, au représentable, au visuel, à ce que peuvent exprimer les mots appartenant au langage du sens commun. Plus précisément, un concept relatif à la réalité (en physique, par exemple) est considéré comme formel s'il nest expressible, saisissable et pleinement utilisable que lorsqu'on fait appel aux mathématiques. Les mathématiques et la logique sont quant à elles formelles à un premier niveau quand elles ne traitent que de relations, et non dobjets signifiants parfaitement et uniquement définis (ainsi, une proposition sur des relations entre des droites, objets signifiants, est strictement équivalente, grâce à la théorie des polaires réciproques, à une proposition sur des points comme objets signifiants). Mathématiques et logique peuvent être considérées comme purement formelles quand leurs fondements se réduisent totalement à un système d'axiomes* appartenant à un langage formel*. Histoire. En mécanique quantique, une histoire est une suite de diverses propriétés ayant lieu à des instants successifs. Impulsion. En physique classique, limpulsion est le produit de la masse par la vitesse. En mécanique quantique, chacune des composantes de ce vecteur est une observable*, cest-à- dire un opérateur* mettant en jeu lopération de prendre une dérivée. Cest donc, en ce cas, une notion très formelle. Interférences. En optique et en mécanique quantique, lorsquune onde peut suivre deux chemins différents (au travers de deux fentes de Young, par exemple), son intensité (ou la probabilité de présence dans le cas quantique) varie de place en place en montrant des maxima et des minima (des franges lumineuses et obscures dans le cas de la lumière) dont lexistence constitue le phénomène dinterférence. Fondamentalement, il est dû à lexistence dun principe de superposition selon lequel les ondes qui ont suivi des chemins différents ajoutent leurs amplitudes. Interprétation. En physique, sous la forme décrite ici, linterprétation est la dérivation à partir des principes formels dune théorie (relativité ou mécanique quantique) dune représentation logique de la réalité observable sous une forme qui relève du sens commun, pouvant être transmise par le langage ordinaire et bien adaptée à la description directe des expériences telles quon les réalise en pratique. Langage formel. En logique et en mathématiques, un langage formel se sert de signes convenus, assemblés selon des règles prescrites pour former des propositions. Ces propositions existent ainsi par elles-mêmes sans quon ait à supposer qu'elles se réfèrent à la réalité ni quelles aient une signification unique. Loi. En science, une conséquence logique des principes* qui est justifiée par lexpérience. Matrices. Leur utilisation en physique est due à HEISENBERG à qui il semblait inutile de représenter latome par un système planétaire de noyaux et dorbites ou tout autre image que ce soit, de sorte quétant seules connues les fréquences et les intensités de lumière, il était plus expédient dutiliser des tableaux de nombres (matrices) propres à chaque atome tels quutilisés par les mathématiciens. Ces matrices permettent, par exemple, de calculer les sauts délectrons dune orbite sur nimporte quelle autre. En résumé, les hypothèses concernant les éléments physiques de latome de BOHR sont traduites par la théorie des matrices représentant la seule chose que lon connaisse, à savoir le rayonnement provenant de la région où latome est censé se trouver. À lusage, si abstraite quelle paraisse, cette « mécanique des matrices » 1a limmense mérite de coller avec les résultats expérimentaux et cela, en dépit de son étrangeté par rapport au calcul.
En effet, pour calculer en pratique un produit, il est nécessaire de visualiser l'opération.
En énumérant le nombre de lignes avant celui des colonnes, on considère que la matrice C est le produit de la matrice A de type (4, 2), et de la matrice B de type (2, 3).
C
Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, un produit de matrices ne commute en général pas : AB n'est pas en général égal à BA, par exemple :
Pour Heisenberg, puisquil sagissait de mettre en doute les conceptions classiques de position et de vitesse, quels objets pourraient-ils remplacer les notions habituelles. Lobjet « accélération » nétant certainement pas un nombre mais dépendant de létat initial et de létat final entre lesquels latome transite, et qui na vraiment de sens quà linstant précis où le saut a lieu[3]. Si donc on numérote les états possibles de latome comme le faisait Bohr avec ses « nombres quantiques » étiquetant les niveaux dénergie, laccélération pouvait donc être remplacée par une quantité qui dépend du numéro de létat initial et de létat final. Ainsi Heisenberg, à linstar du travail de Bohr, avait-il remplacé laccélération par des tableaux de nombres à double entrée indiquant létat initial et létat final, grâce à auxquels il était parvenu à reformuler lessentiel des lois de la mécanique. En 1924, Max Born à qui Heisenberg sétait ouvert de ses trouvailles et de ses perplexités, lencouragea à publier ses résultats après lui avoir révélé que ses tafleaux sont appelés « matrices » par les mathématiciens. Avec laide de Pascual Jordan qui connaissait lusage des « matrices » il met rapidement une version qasiment complète de cette nouvelle théorie comme de la mécanique matricielle. Mécanique quantique. Ses fondateurs la considéraient comme le cadre théorique permettant de d´écrire le comportement de la matière et de la lumière aux échelles atomiques et subatomiques. Plus tard, avec la découverte de phénomènes quantiques macroscopiques, cette définition est néanmoins apparue trop restrictive. Cependant la définition du domaine quantique est déjà une question très délicate, aussi nous en resterons à ce premier point de vue, qui permet de toucher du doigt assez aisément la nécessité dun abandon des concepts de la physique dite classique (nous entendons par là, la mécanique newtonienne et l´electromagnétisme) lorsque lon sintéresse aux échelles atomiques et subatomiques. Les notions qui constituent le socle de la physique classique ont été forgées à partir de notre expérience immédiate, or, si nous pouvons espérer deviner les lois fondamentales qui régissent le mouvement des corps matériels en analysant le mouvement dune boule de billard, ou celui des planètes à laide dun télescope, il ny a a priori pas de raison évidente pour que ces lois sappliquent encore dans le monde atomique et subatomique.[4] Il nest donc pas surprenant, rétrospectivement, que la description du comportement des atomes requière dautres concepts que ceux utilisées pour analyser la dynamique des corps macroscopiques. Selon JEAN-PAUL AUFFRAY[5], dans « Latome » : « en mécanique quantique, les rayons émis (ou absorbés) par un atome sont composés de photons* dotés, en tant que tels, de deux caractéristiques fondamentales :
Les choses se présentent différemment dans notre représentation. Les rayons sont composés de quanta daction (laction a la dimension dune énergie multipliée par un temps) auxquels ni lune ni lautre des deux contraintes citées ci-dessus (vitesse c et paquet dénergie hµ) nest applicable : les quanta peuvent aller soit moins vite soit plus vite que la lumière et peuvent transporter une énergie soit plus petite soit plus grande que hµ. Y a-t-il une chance concrète de pouvoir trancher entre les deux points de vue, en observant par exemple un quantum allant plus vite que la lumière et transportant une énergie plus grande que hµ ? Selon notre point de vue, lorsquun quantum rencontre sur son chemin un passage étroit un tunnel dont la largeur ou le diamètre est du même ordre de grandeur que la longueur de son pas, il « allonge le pas » pour traverser cet obstacle, ce qui a pour effet de le faire émerger de lautre côté du piège plus tôt que prévu ; il traverse donc le tunnel à une vitesse « supraluminique ». Ce phénomène remarquable est connu en mécanique quantique sous le nom d « effet tunnel ». Métalangage. Un métalangage est un langage formel qui donne une signification plus large à un autre langage formel, dont les propositions deviennent alors des mots (signes) du métalangage. Modus ponens. En logique, la possibilité de prendre pour nouveau point de départ un théorème* déjà démontré sans reprendre en compte la preuve qui la établi. Naines blanches. La structure interne d'une naine blanche est déterminée par l'équilibre entre la gravité et les forces de pression, ici produite par un phénomène de mécanique quantique appelé pression de dégénérescence*. Une naine blanche isolée est un objet d'une très grande stabilité, qui va simplement se refroidir au cours du temps pour, à très long terme, devenir une naine noire. Si par contre une naine blanche possède un compagnon stellaire, elle pourra éventuellement interagir avec ce compagnon, formant ainsi une variable cataclysmique. Non-localité. Avant même la démonstration de la violation des inégalités de BELL qui interdisent les théories locales à variables cachées*, cette interprétation non seulement supposait la non-localité (BELL a en fait montré que la mécanique quantique était par nature non locale), mais la rendait explicite : « C'est un mérite de la version de DE BROGLIE-BOHM qu'elle amène si explicitement la non-localité qu'on ne puisse en faire abstraction. » Nouvelle physique. La quai-totalité des phénomènes physiques, depuis plus dun siècle, ressortent de deux types dexplication :
Le concept de corpuscule émanant du dernier a permis de considérer les objets réels en les représentant sous la forme dun ensemble de points (matière) mûs selon une trajectoire (bille, planète, électron, etc.). Cest typiquement le mouvement de la matière. Le concept donde, ou de champ, quant à lui, est contrairement au corpuscule, un mouvement dans la matière, où il est plus difficilement observable. Dans la vague prise comme modèle, au risque de sy méprendre, les molécules deau ne progressent pas vers la côte, mais grosso modo se contentent de monter et de descendre en décrivant des cercles ou des ellipses, communiquant leur mouvement à leurs voisines ; ainsi, de proche en proche se transmet, non pas de la matière, mais de lénergie. Ainsi, pour lensemble du mouvement, les physiciens se sont trouvés placés devant une dualité onde-corpuscule jusquà ce quune unité puisse être enfin trouvée. Objectivité. Un phénomène, un concept, une connaissance sont déclarés, à divers degrés, objectifs en ce quils ne dépendent pas pour leur existence de lesprit humain. La notion a été introduite par Kant ; elle a été lobjet de la préoccupation des sciences humaines et est apparue en tant que problème en physique avec la mécanique quantique. On sest parfois demandé si certains concepts, celui de fonction donde* en particulier, ont ou non un caractère objectif, associé directement à la réalité physique ou seulement à la conscience que nous en avons. La réponse de BOHR et celle quapportent les travaux modernes concluent effectivement à l'objectivité de la théorie. Observable. En physique classique, les quantités physiques de base sont les coordonnées de position et d'impulsion et une quantité physique générale (par exemple lénergie) est une fonction de ces coordonnées. Le rôle des quantités physiques est joué en mécanique quantique par des opérateurs* possédant certaines propriétés mathématiques (hermiticité), auxquels on donne le nom dobservables. Cest un des aspects les plus formels de cette théorie. Onde pilote. Dans la théorie de BOHM-DE BROGLIE, les particules sont accompagnées d'une onde qui guide leur chemin, d'où le terme d'onde pilote. Mathématiquement, l'onde pilote est définie de la même façon que la fonction d'onde de la mécanique quantique. L'influence de l'onde pilote se caractérise sous la forme d'un potentiel quantique, dérivé de la fonction d'onde, agissant sur la particule de la même façon qu'un champ électrique. Par conséquent, l'onde pilote gouverne le mouvement de la particule en suivant l'équation de Schrödinger. Cette théorie stipule que l'évolution du comportement des particules s'effectue de façon régulière au cours du temps, il n'y a donc pas d'écroulement de la fonction d'onde. Elle s'accorde avec la critique d'ALBERT EINSTEIN à l'effet que la mécanique quantique telle qu'interprétée par l'école de Copenhague n'est pas complète. Plus précisément, BOHM caractérise sa théorie par les quatre propriétés suivantes : 1. La fonction d'onde est considérée comme étant un champ réel et objectif, et non comme une entité purement mathématique. 2. On suppose qu'il existe indépendamment de ce champ des particules qui possèdent des coordonnées dans l'espace qui sont toujours bien définies et qui évoluent de manière déterministe. 3. La vitesse de ces particules est déterminée comme étant , où m est la masse de la particule, et S une fonction de phase obtenue en écrivant la fonction d'onde comme , avec S et R réels. 4. On suppose que la particule réagit non seulement au potentiel classique V(x) mais aussi à un « potentiel quantique » additionnel Ces quatre propriétés définissent la « version déterministe » de la théorie, publiée en 1952. Une « version stochastique », introduite par BOHM et VIGIER en 1954 et présentée par BOHM comme « définitive », est caractérisée par un cinquième axiome défini de la manière suivante : 5. Le champ est en fait dans un état de fluctuation aléatoire et chaotique telle que la valeur de définie par l'équation de SCHRÖDINGER constitue une moyenne de ces fluctuations. Ces fluctuations proviennent d'un niveau sous-jacent, de la même manière que les fluctuations du mouvement brownien proviennent d'un niveau atomique plus profond. Opérateur. En mathématiques et en mécanique quantique, un opérateur A est une opération mathématique qui, agissant sur une fonction u (souvent une fonction donde*), engendre une autre fonction, notée Au. Les opérateurs linéaires, de loin les plus importants, sont ceux qui .préservent la somme de deux fonctions et le produit dune fonction par une constante. Paquet dondes. Il sagit de londe associée au corpuscule qui nest pas une onde monochromatique qui aurait une étendue illimitée dans lespace , mais un « paquet dondes » dont le maximum damplitude se déplace avec la vitesse du corpuscule. Une similitude existe dans le son qui résulte, en effet, de la superposition dun ensemble dondes (londe fondamentale et les harmoniques), de sorte que le « paquet dondes » de DE BROGLIE doit être considéré comme un ensemble de longueurs dondes encadrant λ = h/p et allant dun minimum λmin à un maximum λmax. Paradigme. En épistémologie, une notion introduite par Thomas Kuhn. Un paradigme est un cas de réussite scientifique remarquable et prenant valeur exemplaire, que les chercheurs imiteraient. La structuration de la démarche de la recherche en termes de paradigmes soppose à celle de la science en termes de principes. Le mot lui-même, assez mal défini dès son apparition, tend à être employé de nos jours dans de multiples jargons. Photon. Particule élémentaire, de masse et de charge nulle, le photon est laspect corpusculaire de la lumière. La vitesse de la lumière, dans le vide, quel que soit le référentiel détude, notée c, est environ égale à 300 000 km.s.
Trajectoire des photons s'échappant du soleil. Le soleil émet dans toutes les fréquences de lumière, visible, infrarouge, ultraviolet ainsi des photons de toutes les énergies sont diffusés de lintérieur du soleil jusquà nous. © CNRS Photothèque
En 1900, MAX PLANCK émet l'hypothèse que les échanges d'énergie entre un rayonnement lumineux et la matière ne peuvent se faire que par "paquets", appelés quanta, contenant d'autant plus d'énergie que la fréquence du rayonnement est élevée. Le quantum est la quantité finie minimale d'échange d'énergie. En 1905, ALBERT EINSTEIN, pour expliquer l'effet photoélectrique, attribua une structure corpusculaire au rayonnement lumineux lui-même. Selon lui, tout rayonnement répartit son énergie sur un ensemble de particules transportant chacun un quantum d'énergie, dont la valeur est proportionnelle à la fréquence qui lui est associée. L'existence de ces quanta de lumière fut prouvée expérimentalement dans les années vingt. Il aura donc fallu attendre les travaux de ces deux physiciens pour comprendre que le rayonnement électromagnétique peut être émis (rayonnement du corps noir) ou absorbé (effet photoélectrique) avec une certaine quantité d'énergie discrète ou quantifiée : c'est le concept de photon qui transporte l'énergie (baptisé ainsi en 1924). La physique quantique et notamment LOUIS DE BROGLIE avec sa loi sur la dualité onde-particule, généralisation des travaux de PLANCK et d'EINSTEIN, en 1926 réconcilie l'aspect corpusculaire de la lumière qu'incarne le photon et son aspect ondulatoire. Positivisme. En philosophie, la doctrine dAuguste Comte et de son émule John Stuart Mill. En épistémologie, désigne surtout le point de vue selon lequel le critère dune connaissance vraie est un consensus entre humains (de bonne foi, compétents, etc., avec toutes les difficultés que ces conditions supposent). En mécanique quantique, cest principalement la doctrine selon laquelle la fonction donde na pas une réalité objective et ne représente que linformation dont un observateur dispose. Pragmatisme. Au sens fort, cest la doctrine philosophique de Hume, selon laquelle les faits sont premiers, à lorigine de la pensée et du langage, lorigine de lordre qui les régit eux- mêmes étant en principe inaccessible. Pression de dégénérescence. Pression d'origine purement quantique à laquelle est soumis un gaz de fermions (en particulier les électrons et les neutrons). A cause du principe d'exclusion de Pauli*, il faut fournir une énergie assez élevée pour ajouter un fermion à une assemblée de ses congénères si ceux-ci occupent déjà les états de basse énergie. Ceci se traduit par une force de pression qu'on appelle « pression de dégénérescence* ». Principe. En science, une proposition de caractère universel régissant la réalité physique. Principe de complémentarité. Énoncé en 1927 par HEISENBERG, il stipule quen microphysique il est impossible dattribuer à une particule-quanton[6], des propriétés classiques telles que la vitesse et la position, car en fait, mieux la position est définie, moins la vitesse est connue et vice versa. Les résultats se trouvent systématiquement entachés de ce flou. La conséquence la plus évidente de, ce principe, cest que nous sommes conduits à renoncer à toute tentative de recréer notre univers visible dans celui, invisible, des atomes. Pour illustrer la position du physicien, SVEN ORTOLI et JEAN-PIERRE PHARABOD ont proposé opportunément dans « Le Cantique des quantiques » de reprendre limage de lhomme qui voudrait étudier un oiseau de nuit inconnu. Pour ce faire soffrent à lui deux possibilités : la première est de braquer un projecteur au risque de léblouir, en vue de décrire au mieux sa morphologie, au détriment de son comportement car, au mieux, il restera immobile ; la seconde est de nuriliser aucun ptojecteur et de se contenter dobserver, dans la semi-obscurité, son comportement, tandis que létude de sa morphologie nous reste interdite. In fine, la meilleure solution, la solution moyenne, sera déclairer suffisament loiseau, de telle façon que son comportement ne soit pas perturbé. À léchelle atomique, le problème est assez identique : si lon veut observer un quanton , il faut envoyer de la lumière (des photons) sur lui. Il va alors subir un choc qui modifiera son comportement. Donc, toute opération de mesure dun système microphysique provoque automatiquement son altération. Tel fut le sens tiré par HEISENBERG de sa relation dincertitude. Les physiciens daujourdhui en ont tiré la leçon suivante : les relations observées, pour le quanton, de sa vitesse et de sa position, bien que floues, ne prennent de la consistance quà loccasion dune mesure. Il y donc intérête à multiplier les mesures pour obtenir des résultats variables à lintérieur dune certaine plage. Les relations dincertitude dHEISENBERG sont là pour traduire la largeur des plages en question. Dans les versions récentes de la théorie, cette limitation demeure, mais elle a cessé dêtre un principe autonome pour devenir une conséquence des autres. Principe de correspondance. Ce principe, énoncé par BOHR et corrigé par EHRENFEST en 1927, avec sa condition dapplication[7], indique que la physique quantique et la physique classique donne des résultats équivalents. Mais quon ne sy trompe pas : il sagit en fait dun cas limite de la première pour la dernière. Qui plus est, on sait maintenant que certains ensembles de quantons, même en très grand nombre persistent à suivre des lois quantiques parfaitement incongrues : ce sont les supra-conducteurs et les superfluides. Ce principe fut immédiatement appliqué pour l'évaluation des niveaux quantifiés d'énergie de l'électron dans l'atome d'hydrogène, car elle permit d'expliquer ses raies d'émission*. Principe de moindre action. En physique, un principe doù se déduisent les équations du mouvement dun système classique. Introduit par LAGRANGE au XVIIIe siècle et étendu par HAMILTON, il énonce que le mouvement minimise (dans le cas le plus simple) une certaine intégrale, laction, qui peut être construite à partir de la connaissance de lénergie cinétique et de lénergie potentielle. Principe dexclusion de Pauli. Principe fondamental de la mécanique quantique, selon lequel certaines particules (les fermions) ne peuvent occuper à plusieurs le même état quantique. Ce principe permet de comprendre la structure en couche de la répartition électronique dans les atomes, ainsi que la structure en bandes des niveaux d'énergie dans les solides. De façon plus surprenante, il intervient aussi dans la structure des certaines étoiles (les naines blanches*), conduisant au phénomène de pression de dégénérescence* s'effondrer sous l'effet de la gravitation. Cependant, lorsque l'étoile est trop massive, le principe d'exclusion ne tient plus et alors l'étoile s'effondre en un trou noir*. Principe dincertitude. À proprement parler, comme la fait remarquer ROLAND OMNES, il sagit plutôt dune relation puisquil en est la conséquence. HEISENBERG, dès 1925, alors âgé de 24 ans, qui venait de découvrir le formalisme mathématique de la physique moderne : des quantités observables comme l'énergie nétaient plus décrites par des nombres mais par ce qu'on appelle des opérateurs, ou actions, agissant sur les particules qui ne sont plus des points mais des fonctions d'onde*. Les actions, en général ne commutant pas (contrairement aux nombres) il venait dintroduire lidée de non-commutativité. En particulier, il découvrit que les actions « mesurer la position de » et « mesurer la quantité de mouvement de » ne commutent pas. Lorsque l'on mesure la position d'une particule, son état est perturbé de telle sorte que sa quantité de mouvement ne peut pas être connue avec une précision optimale. On peut donc voir le principe d'incertitude d'Heisenberg*, qui stipule que la position et la quantité de mouvements d'une particule ne peuvent pas être connues simultanément avec des degrés de précision indépendants, comme une conséquence de la non-commutativité. Ce principe de la mécanique quantique, est le plus souvent connu comme mettant en jeu lincertitude statistique Δx dune coordonnée de position x et l'incertitude Δp de la composante correspondante de limpulsion : le produit ΔxΔp ne peut en aucun cas être inférieur à h/4n, h étant la constante de PLANCK. Il en résulte que des fonctions donde qui conduisent à des valeurs de plus en plus précises de x donnent aussi des valeurs de plus en plus incertaines de limpulsion. DAVID LOUAPRE, en complément à son exposé oral sur le « principe dincertitude », attire notre attention sur la « transformée de Fourier* », utilisée par les mathématiciens du fait de son rapport avec celui-ci. Principe dinertie. Lun des principes fondamentaux de la mécanique classique. Sous la forme donnée par Newton, il énonce que le centre de masses (on dit aussi centre de gravité) dun corps qui nest soumis à aucune force se déplace dun mouvement rectiligne dans lespace absolu, uniforme par rapport au temps absolu. La même propriété demeure dans tout système de référence (galiléen) lui-même en mouvement rectiligne uniforme sans rotation par rapport à lespace absolu. En théorie de la relativité restreinte, le principe dinertie sapplique dans les référentiels galiléens en mouvement uniforme sans rotation les uns par rapport aux autres, lesquels forment une classe qui ne fait aucune référence à un espace ni à un temps absolu. Projecteur. En mathématiques et, plus spécialement, dans les applications à la mécanique quantique, un projecteur (P) est un opérateur dun type particulier. Agissant sur une fonction u (par exemple une fonction donde*), il engendre une autre fonction v, quon désigne par Pu. La principale particularité de P est de rester le même quand on le réitère : P2u = Pu. Cest une propriété que partage la projection d'un point de lespace à trois dimensions sur un plan, doù ce nom de projecteur. Lobservable quantique (la quantité physique) associée à P ne peut prendre que les valeurs 1 ou 0, analogues à « vrai » et « faux ». Cest de là que provient le rôle important de ces opérateurs dans les questions de logique. Projet cartésien. En philosophie, nom donné par Heidegger et par Husserl à lhypothèse fondatrice de la physique théorique poussée à lextrême et supposant que la réalité physique peut être entièrement décrite par des règles mathématiques. Propriété. En mécanique quantique, une propriété signifie quune certaine quantité physique (observable*) se trouve dans un certain intervalle de valeurs à un instant donné. Les propriétés constituent lélément de base de toute description de la physique. Raies démission de lhydrogène. Séries de LYMAN, BALMER, BRACKET, PASCHEN, etc.
On voit que le spectre d'émission (ou d'absorption) de l'hydrogène présente de nombreuses raies groupées par séries. On parle de série pour l'ensemble des raies caractéristiques des états d'excitation d'un noyau (une raie correspond à une longueur d'onde et donc à un état d'excitation) Les niveaux d'énergie qui sont quantifiés pour latome correspondent à l'éloignement de l'électron du noyau produit par l'excitation de l'électron qui lorsqu'il revient à son état fondamental émet un photon pour « expulser » l'énergie qu'il avait reçu. Lorsque la transition électronique aboutit sur le niveau fondamental
Lorsque la transition électronique aboutit sur le premier niveau excité
Lorsque la transition électronique aboutit sur le deuxième niveau excité
Réalisme. Les diverses formes de réalisme sont des doctrines appartenant à la philosophie de la connaissance. Le réalisme platonicien suppose lexistence dun monde des Idées plus réel que le nôtre. Le réalisme mathématique, qui en est très proche, suppose lexistence propre dune entité que les mathématiques ne font quexplorer, et non inventer. Le réalisme physique a lui-même de nombreuses variantes, qui toutes admettent lexistence dune réalité physique indépendante de lesprit humain (ce qui soppose à lidéalisme), et admet souvent, de plus, que cette réalité peut être connue telle quelle est (ce qui soppose à la fois au positivisme et au représentationnisme). Les difficultés rencontrées par le réalisme avec la mécanique quantique ont amené BERNARD D'ESPAGNAT à introduire l'idée du Réel voilé qui limite la cogniscibilité de la réalité. Réduction de la fonction donde. Lune des hypothèses principales de l'interprétation de la mécanique quantique selon BOHR. Au terme d'une mesure opérée sur un système physique quantique (par exemple un atome) à laide d'un appareil, la fonction d'onde* du système mesuré est supposée changer brusquement, sa nouvelle expression étant déterminée par le résultat de la mesure tel qu'il est indiqué par l'appareil. La réduction, en tant que règle pratique permettant de calculer simplement des probabilités, demeure applicable dans les versions plus modernes de l'interprétation sans qu'on doive la considérer comme due à un effet physique particulier. Règle empirique. Une règle constatée par la seule expérience à propos d'une catégorie de phénomènes, éventuellement quantitative, dont on ignore lexplication en termes de lois*. Relativité. Par la formule révolutionnaire établie par EINSTEIN : E = m.c2 où E est lénergie de masse, m la masse de la particule isolée et au repos, et c la vitesse de la lumière, la Relativité venait de nous être donnée et avec elle de nouvelles notions concernant lordre et la mesure du temps. Celles-ci perdent leur absoluité alors quelles la possédaient dans la théorie newtonienne. Elles sont maintenant relatives à la lumière dun système de coordonnées. Cette relativité du temps est une des caractéristiques radicalement nouvelles de la théorie dEINSTEIN. Le nouvel ordre et la nouvelle mesure introduits dans la théorie de la relativité impliquent de nouvelles notions de structure dans lesquelles lidée dun corps rigide ne peut plus jouer un rôle important En réalité, la relativité implique que ni les particules-points ni les corps quasi rigides ne peuvent être pris comme des concepts premiers. Mais plutôt, ceux-ci ont-ils à être examinés en termes dévènements et de processus. » Cette idée de grandeurs énergétiques ne pouvant s'échanger que de façon discrète inspirera alors de nombreux physiciens, comme NIELS BOHR, qui s'en serviront notamment pour développer un modèle de la structure de l'atome. Révolution scientifique. Une notion introduite en histoire des sciences par Thomas Kuhn. Elle désigne des changements discontinus dans lhistoire de la science, à loccasion de découvertes majeures. Kuhn les associe à lapparition d'un nouveau paradigme*, ce qui fait ressortir le caractère de rupture avec le passé de la « révolution » en question. Vue sous langle des principes* de la science, il sagit la plupart du temps dune révision et dune extension de ces principes où les anciens réapparaissent comme des conséquences des nouveaux, dans un domaine dapplication bien spécifié, cest-à-dire passant du stade de principes à celui de lois*. Spin. Toujours par référence au modèle planétaire, il était tentant de pousser lanalogie plus loin et de supposer que, puisque la Terre tourne non seulement autour du Soleil, mais également sur elle-même, lélectron devait sans doute faire de même. Cest ce que suggérèrent deux physiciens néerlandais en 1925, en le baptisant spin (de langlais to spin : tournoyer), sorte de caractérisation d'un mouvement de rotation sur lui-même. Oui, mais, rien dun mouvement dans l'espace ! Il se comportait en fait comme un minuscule aimant. Pourquoi donc avoir tourné autour d'une interprétation intuitive impossible alors que le spin est une qualité propre à la particule quantique qui se manifeste lorsque l'atome est soumis à un champ magnétique. Moment cinétique (ou angulaire) intrinsèque des particules, on lui conféra alors une valeur mesurable au même titre que la masse ou la charge électrique (le spin est donc devenu un multiple entier ou demi-entier de la constante de Planck divisée par 2 π). Ainsi, répétons-le, lélectron possède un champ magnétique. Sa valeur est connue avec une grande précision qui vérifie la théorie quantique : 1,001 159 652 21 ± 4 Mesuré 1, 001 159 65246 ± 20 Calculé Accord très spectaculaire entre théorie et expérience, car cette précision de 4.10-9 représente 1 mm sur 4 000 km. Cest dire que si on mesurait, comme lindique FEYNMAN, la distance de New-York à Los Angeles avec la même précision, la différence ne dépasserait pas lépaisseur dun cheveu. Enfin, la valeur du spin caractérise les familles de particules. Ont été reconnues jusquà aujourdhui 36 particules : 1/2 FERMIONS : ce sont toutes les particules qui permettent de constituer la matière. Par exemple les électrons, mais aussi les quarks, qui sassemblent pour former les protons et les neutrons. 1 BOSONS* : champs vectoriels qui véhiculent les interactions GRAVITON : particule supposée vecteur de la gravitation. Dans ce modèle, subsistait cependant un déséquilibre de fond très préjudiciable, né du mélange de physique classique et de physique quantique. Les électrons, en effet, obéissent aux lois de NEWTON tant quils sont sur leur orbite, et aux lois de PLANCK-EINSTEIN quand ils sautent dune orbite sur une autre. Cest par lassimilation du corpusculaire à londulatoire* que seront conciliés ces inconciliables. Théorème. En mathématiques et en logique, une proposition établie comme vraie en tant que conséquence de la vérité imposée des axiomes* par une démonstration. Transformée de Fourier. La raison profonde du principe dincertitude est le fait analogue que la fonction donde en impulsion soit la transformée de Fourier de la fonction donde en position. On pourrait dire, si on en réfère à la procédure de quantification, que cest parce que lopérateur position X et lopérateur impulsion P ne commutent pas, une propriété qui elle-même est le reflet du fait que la variable de position x et la variable dimpulsion p en mécanique classique ne commutent pas. Il ajoute, à titre dexemple que la décomposition du son en fréquences est également une transformée de Fourier, et ses propriétés mathématiques font quil existe une relation nécessaire entre la largeur spectrale et la durée dun son, qui est à lorigine de léquivalent « sonore » du principe dincertitude de Heisenberg : on ne peut pas avoir à la fois un son très pur en fréquence et très court dans le temps. Trou noir. Le terme « trou noir » a été inventé par le physicien américain JOHN WHEELER en 1967, pour décrire une concentration de masse-énergie si compacte que même les photons ne peuvent se soustraire à sa force gravitationnelle. Un trou noir est, d'abord et avant tout, caractérisé par l'existence d'un horizon : c'est la surface sphérique dont même la lumière ne peut sortir, et en deçà de laquelle même cette dernière est inexorablement entraînée vers une singularité centrale. Les trous noirs stellaires se forment à l'occasion de l'effondrement gravitationnel de certaines étoiles massives qui explosent en supernova. On sait qu'il existe des trous noirs dits supermassifs contenant de quelques millions à quelques milliards de masses solaires dans les galaxies, mais l'on ne comprend pas bien comment ils se forment. Il pourrait exister des mini trous noirs issus des phases très primitives de l'univers à sa naissance. Univers de discours. Voir Champ de propositions. Variables cachées et particules. Cette interprétation de la mécanique quantique est qualifiée de théorie à variables cachées, bien que ses tenants rejettent cette appellation. JOHN STEWART BELL, le principal bohmien jusqu'aux années 1990, s'exclamait : « L'absurdité, c'est que ces théories sont appelées des théories « à variables cachées ». C'est une absurdité car ici, ce n'est pas dans la fonction d'onde* que l'on trouve une image du monde visible, et des résultats des expériences, mais dans ces variables « cachées »(!) complémentaires. (...) La plus cachée des variables, dans cette image de l'onde pilote, c'est la fonction d'onde, qui ne se manifeste à nous que par son influence sur les variables complémentaires. » JEAN BRICMONT a résumé par cette formule la théorie de BOHM : « Comment la théorie de BOHM échappe-t-elle aux différents théorèmes d'impossibilité ? C'est d'une simplicité déroutante: les "variables cachées" ici sont simplement les positions des particules. C'est une théorie de la matière en mouvement. Jamais aucun argument n'a été avancé pour montrer que l'introduction de ces variables-là était impossible. » Vérité. En logique, la vérité se caractérise par la possibilité dattribuer une valeur 1 (vraie) ou 0 (fausse) à une proposition. En logique et en mathématiques, les axiomes* sont posés vrais par hypothèse et les théorèmes* sont des propositions établies comme vraies à laide d'une démonstration. Dans les sciences de la nature, et en particulier en physique, les faits observés sont considérés comme vrais. En mécanique quantique, il existe des propriétés* vraies qui ne sont pas des faits observés directement, mais des conséquences de ces faits (voir Crédible). Vide quantique. Le fait de décrire la particule non comme un objet classique disposant à tout instant à la fois dune position et dune vitesse, décrivant une trajectoire continue mais comme un nuage de probabilité de présence signifie que la particule peut sauter dun point du nuage à un autre. Cependant, on peut se demander quelle réalité matérielle recouvre ce nuage de probabilité de présence ? Cest là quil faut raisonner sur ce qui se passe au niveau du vide quantique et plus au niveau des structures du vide que sont les particules disposant dune masse au repos. Le vide quantique est un milieu matériel dont les particules (et antiparticules) ont une très courte durée de vie, ce qui leur permet se stocker une très grande énergie. [1] Décomposition de lénergie de fission (Cas de luranium 235) L'énergie totale libérée lors de la fission ressort égale à 202,8 MeV dont 14,2 MeV sont différés . La partie non récupérable, puisque communiquée aux neutrinos émis, et 9,6 MeV. En pratique l'énergie récupérable en réacteur de puissance, compte tenu :
correspond sensiblement à 193,0 MeV par noyau d'uranium 235 fissionné Dans le cas d'une explosion nucléaire seules les énergies libérées à court terme sont à considérer pour évaluer la puissance. [2] La théorie de DE BROGLIE sur l'onde pilote, et ses développements ultérieurs par BOHM, ont longtemps été ignorés lors de la formation des physiciens, étant qualifiée de « métaphysique », alors qu'elle remettait en question de manière directe l'interprétation dominante, celle de Copenhague. JOHN BELL, qui a révélé l'importance de la non-localité en physique quantique, l'a souligné : « Mais alors pourquoi Born ne mavait pas parlé de cette « onde-pilote » ? Ne serait-ce que pour signaler ce qui nallait pas avec elle ? Pourquoi VON NEUMANN ne la pas envisagée ? Plus extraordinaire encore, pourquoi des gens ont-ils continué à produire des preuves dimpossibilité, après 1952, et aussi récemment quen 1978 ? Alors que même PAULI, ROSENFELD, et HEISENBERG, ne pouvaient guère produire de critique plus dévastatrice de la théorie de BOHM que de la dénoncer comme étant « métaphysique » et « idéologique » ? Pourquoi limage de londe-pilote est-elle ignorée dans les cours ? Ne devrait-elle pas être enseignée, non pas comme lunique solution, mais comme un antidote à lauto-satisfaction dominante ? Pour montrer que le flou, la subjectivité, et lindéterminisme, ne nous sont pas imposés de force par les faits expérimentaux, mais proviennent dun choix théorique délibéré ? » [3] Laccélération dun électron qui va engendrer un rayonnement ne se manifeste quau moment dun saut entre deux états quantiques dun atome. [4] Aujourdhui les progrès de la physique quantique nous permettent de voir les atomes `a laide des microscopes à force atomique ou à effet tunnel*. C´etait loin dêtre le cas à la fin du XIXe siècle et les propriétés du monde atomique ne pouvaient quêtre déduites indirectement dobservations aux échelles macroscopiques. La réalité des atomes était contestée par quelques grands noms de la physique (par exemple ERNST MACH), tenants dune approche continue opposée à la description atomiste On peut considérer que la question de lexistence des atomes fut tranchée définitivement par la validation expérimentale, en 1908, par JEAN PERRIN (1870-1942, prix Nobel 1926), de la description du mouvement brownien proposée par EINSTEIN en 1905. Le mouvement erratique dune petite particule déposée à la surface de leau révèle les chocs incessants avec les molécules du liquide. [5] Essayiste français, auteur d'ouvrages de vulgarisation scientifique ; il a effectué ses études à l'université Columbia, New York puis ses recherches en physique théorique au Courant Institute of Mathematical Sciences, New York. [6] Les quantons montrent du discontinu quant à leur quantité (on peut les compter) et du continu quant à leur spatialité (on ne peut pas les localiser en un point). Leurs hyponymes sont les suivants : boson : particule possédant un spin entier : les photons et les gluons sont des bosons. fermion : particule possédant un spin demi-entier : lélectron, le muon, le neutrino et les quarks sont des .fermions. [7] Il est seulement applicable lorsque le nombre de particules-quantons atteint un certain seuil.
Date de création : 09/04/2016 @ 15:27 Réactions à cet article
|