Parcours

Fermer Parcours lévinassien

Fermer Parcours axiologique

Fermer Parcours cartésien

Fermer Parcours hellénique

Fermer Parcours ricordien

Fermer Parcours spinoziste

Fermer Parcours habermassien

Fermer Parcours deleuzien

Fermer Parcours bergsonien

Fermer Parcours augustinien

Fermer Parcours braguien

Fermer Parcours boutangien

Fermer Glossématique

Fermer Synthèses

Fermer Ouvrages publiés

Fermer Suivi des progrès aux USA

Fermer Parcours psychophysique

Fermer L'art et la science

Fermer Parcours nietzschéen

Fermer Philosophies médiévales

Autres perspectives

Fermer Archéologie

Fermer Economie

Fermer Sciences politiques

Fermer Sociologie

Fermer Poésie

Fermer Théologie 1

Fermer Théologie 2

Fermer Théologie 3

Fermer Psychanalyse générale

Fermer Points d’histoire revisités

Fermer Edification morale par les fables

Fermer Histoire

Fermer La numérisation du monde

Fermer Phénoménologie

Fermer Philosophie et science

Mises à jour du site

04/11/2017 ajout :
Parcours ricordien :
La pensée de Paul Ricoeur chez E. Macron

04/11/2017 ajout :
Economie
- Marchand, non marchand
Sociologie
- Une sociologie délivrée de l'héritage bourdieusien

01/10/2017 ajout :
Parcours ricordien
- L'image de Dieu et l'épopée humaine
- Ricoeur philosophe et théologien

24/09/2017 ajout :
La numérisation du monde
- La vie algorithmique

09/09//2017 ajout :
La numérisation du monde
- Philosophie de la donnée
- La siliconisation du monde

27/08/2017 ajout :
La numérisation du monde
- Les objets connectés du futur

Liens Wikipédia
Visites

   visiteurs

   visiteurs en ligne

Philosophie et science - Glossaire

lire ce texte au format PDF

 

VI/ GLOSSAIRE

Les expressions de la nouvelle physique

 

Est rassemblé ici l’essentiel de l’arsenal théorique de la « nouvelle physique » dont les différentes notions figurent dans les textes la concernant et sont marqués par un astérisque ; ils sont redéfinis, d’une manière aussi concise que possible. Les astérisques qui apparaissent de nouveau dans ce glossaire se rapportent à des termes qui eux-mêmes y figurent.

 

Arc de cycloïde
glossaire_fig0.pngLorsque le cercle générateur de rayon r effectue un tour en roulant sans glissement sur une ligne droite, la longueur de l'arc de cycloïde est 8r, ce qui se calcule par une intégrale. Voici la démonstration géométrique de ce résultat : faisons rouler le cercle générateur sur un demi-cercle de rayon 2r comme indiqué sur la figure (comme dans un bol).
On voit la position initiale des deux cercles avec contact en A1. On imagine donc un crayon posé en A1 et on se demande quelle va être la courbe tracée. On dessine donc une position ultérieure du petit cercle avec point de contact en M et crayon en A2. Nous allons démontrer qu'en fait, A2 se trouve sur le segment A1B.
Puisqu'il y a roulement sans glissement, les arcs A1M et A2M ont même longueur. Le rayon du grand cercle étant le double du petit cercle, l'angle au centre A2H1M est double de A1OM. D'autre part, l'angle inscrit A2OM vaut la moitié de l'angle au centre A2H1M. Donc les angles A2OM et A1OM sont égaux, donc A2 se trouve sur A1B. Lorsque le petit cercle réalise un demi-tour, le crayon aura
donc tracé le segment AB de longueur 4r. Pour un tour complet, on retrouve bien 8r, longueur de l'arc de cycloïde. Par curiosité sur ce mouvement amusant, on peut noter que si l'on avait placé le crayon en O, le déplacement aurait été uniquement vertical jusqu'au fond du bol puis retour au point de départ.

Assimilation du corpusculaire à l’ondulatoire. C’est en 1923, que Louis de Broglie s’est posé la bonne question : puisque dans le cas des photons les ondes peuvent être considérés comme des corpuscules, pourquoi la réciproque serait-elle impossible ? D’où sa proposition d’assimiler le corpusculaire à l’ondulatoire en quantité de mouvement du corpuscule – produit de sa masse par sa vitesse). Précision importante apportée par DE BROGLIE, cette onde associée n’est pas une onde monochromatique – qui aurait une étendue illimitée dans l’espace –, mais un « paquet d’ondes* » dont le maximum d’amplitude se déplace avec la vitesse du corpuscule. Or, il se trouve que, lorsque les ondes superposées, en grand nombre, se déplacent à des vitesse légèrement différentes, presque partout le creux de l’une compense la crête de l’autre et les ondes s’annulent – sauf à un endroit où les crêtes s’ajoutent les unes aux autres, formant un énorme renflement. C’est précisément ce renflement qui, d’après les calculs de DE BROGLIE se déplace à la vitesse du corpuscule.
glossaire_fig1.pngLa confirmation expérimentale viendra, par hasard, en 1927, quand deux jeunes chercheurs américains (DAVISSON et GERMER) observent fortuitement qu’un pinceau s’électrons réfléchi par la surface d’un cristal de nickel donne, sur une plaque photographique, des taches de diffraction (des interférences) analogues que le physicien allemand VON LAUE avait trouvées quinze ans auparavant pour des rayons X. Si des électrons peuvent conduire à des interférences (fig.ci-contre), c’est qu’ils se conduisent, eux aussi, comme des ondes. LOUIS DE BROGLIE avait donc raison. Cette confirmation de l’aspect ondulatoire d’une paericule autre que le photon représente un pas décisif sur la voie de l’unité de la physique. Sur le plan pratique aussi, la « mécanique ondulatoire » de LOUIS DE BROGLIE va connaître des développements intéressants : la diffraction des électrons sera utilisée concurremment à celle des rayons X pour les études sur la constitution des molécules. Une de ses plus belles applications est celle du microscope électronique.
Restait cependant à trouver l’expression mathématique précise de l’onde axxociée à toute particule, expression rendant compte des effets de diffraction et d’interférence. Deux noms restent associés à ce travail de mise en forme de la physique quantique, celui de SCHRÖDINGER et d’HEISENBERG.

Axiome. C’était autrefois, en mathématiques, une proposition élémentaire qui apparaissait comme évidente. À l’époque contemporaine, c’est une proposition appartenant à un langage formel* qui est posée comme vraie par hypothèse.

Béance. Un terme introduit dans les textes concernant la physique pour désigner l’impossibilité de décrire tous les aspects de la réalité physique par la théorie, leur écart irréductible provenant d'un conflit entre l’unicité des faits et le probabilisme profond de la théorie quantique. Il a trait à des faits parfaitement visibles, et non, comme le voudrait le Réel voilé de D’ESPAGNAT, à des propriétés qui ne sont que concevables, auxquelles on ne parvient pas à assigner une valeur de vérité*.

Bosons. Les bosons , contrairement aux fermions ne servent pas à constituer la matière, mais sont les médiateurs des forces. Cela signifie que quand une force s’exerce entre deux particules de matière, cela se fait par l’intermédiaire des bosons. Pour comprendre ce principe, on peut avoir recours à une analogie mécanique.
 glossaire_fig2.pngImaginez que vous soyez sur une patinoire avec un ami, immobiles et    face-à-face. Supposons que vous teniez une boule de bowling et que vous la lanciez en l’air à votre ami. Quand la boule quitte vos bras, vous êtes propulsé en arrière, par effet de recul.
Mais quand la boule atterrit dans les bras de votre partenaire, lui aussi se trouve mis en mouvement. Donc après ce lancer, votre ami et vous, vous vous éloignez l’un de l’autre : tout se passe comme si la boule de bowling avait été le médiateur d’une force répulsive entre vous deux.
Le phénomène et le même avec les quatre forces fondamentales* : les bosons sont comme des boules de bowling, et servent de messagers des forces. Chacune de ces forces possède ses bosons attitrés. Pour la force électromagnétique, c’est tout simplement le photon*. Pour la force nucléaire forte, ce sont les 8 particules appelées gluons. Pour la force nucléaire faible, on les appelle les bosons W. Pour la gravité, on ne les a jamais mis en évidence, mais on les appelle hypothétiquement les gravitons.
C’est à partir du boson  que s’est articulé, à partir des années 1940-50, le programme de recherche d’unification de l’électromagnétisme et de la force nucléaire faible en une seule théorie, unification qui s’appellerait « l’union électrofaible ».

Calcul de propositions. En logique, c’est le maniement des propositions d’un langage formel*, à l’aide principalement des opérations logiques « non, et, ou », et l’établissement entre elles de relations d’équivalence ou d’implication.

Champ de propositions. En logique, l'ensemble des propositions sur lesquelles on se propose de raisonner. Il peut être défini à l’aide d'ensembles à la manière de Boole (point de vue exhaustif) ou construit au moyen d'un langage plus ou moins formel.

Commutation. En mathématiques et en mécanique quantique, le produit AB de deux opérateurs* A et B s’obtient en faisant d’abord agir l’opérateur B sur une fonction quelconque u pour former la fonction Bu sur laquelle on fait alors agir l’opérateur A, ce qui donne ABu et qui définit l’opérateur AB agissant sur u. Les opérations A et B commutent quand AB = BA. En général, on appelle commutateur de A et B la différence des deux produits AB - BA.

Constante de Planck. En décembre 1900, une voix avisée se fait entendre, c’est celle de PLANCK qui tire les conclusions du rayonnement du corps noir.
Prenant pour image celle d’une barre de fer portée au rouge, il émet l’hypothèse que le rayonnement émis ne se fait pas de façon continue à la manière d’un liquide s’écoulant d’un récipient à un autre, mais qu’il se fait de manière discontinue, comme un écoulement de billes et,– qui plus est – de billes qui n’ont pas toutes la même taille. À mesure que la fréquence s’élève (de l’infrarouge à  l’ultraviolet), elles sont de plus en plus grosses.
Ainsi, les échanges d’énergie entre matière et rayonnement se fait par paquets, par quantités définies (d’où le nom de « quantum » attribué à chacun de ces paquets élémentaires, dont la pluralité est « quanta »). Et chaque quantum contient une énergie proportionnelle au rayonnement. La plus petite quantité d'énergie ε (le quantum d'énergie) échangée par un rayonnement de fréquence est liée mathématiquement à cette fréquence par la relation :

h= εν

La constante h fut alors proposée comme nouvelle constante universelle. Sa dimension, bien que considérablement faible, est cependant celle d'une action (une énergie multipliée par un temps). Les déterminations expérimentales ultérieures de h conduiront à la valeur :
6,62 x 10- 43 J.s (joule-seconde)
Cette quantification de l'échange d'énergie entre matière et rayonnement apparut à l'époque comme une révolution. Au grand dam de Planck, avec le maniement d’unités si petites, il fallut renoncer à intégrer cette avancée dans la physique classique : la mécanique quantique était née.
La valeur de la constante de Planck ne sera jamais remise en cause, d’autant moins qu’on la retrouvera lors de nouvelles observations. On vérifiera beaucoup plus tard (à partir de 1960) qu’elle correspond à la masse de la particule dont la longueur d’onde de Compton est égale au rayon du plus petit trou noir* compatible avec la physique quantique, – lequel plus petit trou noir s’évapore en un peu plus de 10 - 43 secondes.
Remarquons au passage que la matière qui est happée par un trou noir est chauffée à des températures considérables avant d’être engloutie et émet de ce fait une quantité importante de rayons X. Ainsi, même si un trou noir n’émet pas lui-même de rayonnement, il peut néanmoins être détectable.

Crédible. En mécanique quantique, une proposition crédible résulte d’un fait observé, mais elle n’a de sens que dans certains des cadres logiques autorisés par l’existence de la complémentarité*, et non dans tous, au contraire des propositions vraies (voir Vérité). Elle ne peut conduire à une contradiction logique, à condition que l’on ne sorte pas du cadre qui lui convient, lequel reste arbitraire et non objectif.

Décohérence. En mécanique quantique, la décohérence est un effet physique grâce auquel les effets d’interférence* quantique entre des états macroscopiquement distincts disparaissent très rapidement.

Denkbereich. Voir Champ de propositions.

Diffraction. En optique, les phénomènes de diffraction sont ceux qui se manifestent par un écart à la propagation rectiligne de la lumière montrant son caractère ondulatoire. Ainsi, le bord d'une ombre produite par une source ponctuelle n’est pas parfaitement net quand on l’observe avec soin.

glossaire_fig3.png
Diffraction par une fente

Diptyque de la physique quantique.

Statistique des états

(déterministe)

Instance des états

(probabiliste)

La physique quantique est un modèle qui estime l’évolution des systèmes physiques isolés

On mesure les grandeurs : position, vitesse, énergie

Elle fait intervenir un vecteur d’état qui est la somme des divers états propres de la grandeur que l’on va mesurer = fonction d’onde

L’aspect probabiliste se manifeste lors des opérations de mesure.qui projettent le système vers l’un de ses états propres

Espace de dimension infinie (espace de Hilbert)

Équation déterministe : celle de Schrödinger

Projection du système vers l’un de ses états propres par une sorte de tirage au sort

 

Discontinuité (domaine du rayonnement). À la fin du XIXe siècle plusieurs physiciens se sont consacrés à l’étude du « spectre » du morceau de fer chauffé en fonction de la température à laquelle il a été chauffé. Deux bornes à l’observation ont été constatées :
Aux basses températures (inférieures à 600° C) un rayonnement est bien émis mais notre œil ne le voit pas, car il se situe dans l’infrarouge.
De même, au-delà de 2000° C, la majeure partie du rayonnement nous échappe, car il se situe dans l’ultraviolet.
Ces études ont servi de base à partir de 1893 aux physiciens allemands, PASCHEN et WIEN et qui finissent par la loi de Wien formulée en 1896 : la longueur d’onde de la lumière dont la puissance dans le rayonnement émis par un corps noir est la plus grande et inversement proportionnelle à la température. On a d’abord l’infrarouge, puis le rouge, le jaune, le vert, le bleu, encore le blanc (addition de toutes les lumières visibles), jusqu’à l’ultraviolet et au-delà.  
Complétant cette loi, le physicien anglais RAYLEIGH en juin 1900 en propose une seconde qui détermine, pour une température et une longueur d’onde données, la puissance rayonnée. De cette deuxième loi, on tire la conclusion que le rayonnement thermique est d’autant plus intense que la longueur d’onde est plus courte. Dans un premier temps, l’expérience corrobore la loi ; pour les longueurs allant de l’infrarouge au vert, les résultats sont conformes aux prévisions. Mais pour la suite des couleurs, à partir du bleu l’expérience est en contradiction flagrante avec la théorie qui conduit à des valeurs immensément grandes pour les très petites longueurs d’onde. C’est ce que le physicien autrichien EHRENFEST, grossissant le trait, appellera « la catastrophe ultraviolette ». Voilà la physique classique qui, pour la première fois, est prise en défaut. En décembre 1900, une voix avisée se fait entendre, c’est celle de PLANCK qui tire les conclusions du rayonnement du corps noir et lui permet d’établir la constante universelle qui porte son nom : constante de Planck.*

Discontinuité (domaine de la lumière). Du XVIIe au XIXe siècle, la lumière a fini par s’imposer par son caractère ondulatoire plutôt que corpusculaire. HUYGENS fut le premier à le reconnaître. Il découvrit en 1677, grâce aux propriétés des cristaux et de leur coupe géométrique, en particulier grâce au spath d'Islande, que les lois de réflexion et de réfraction de SNELL-DESCARTES étaient conservées si l'on supposait une propagation de la lumière sous la forme d'ondes. En outre, la double réfraction du spath d'Islande peut être expliquée, ce qui n'est pas le cas avec une théorie corpusculaire.
La théorie ondulatoire, bien que présentée sous une forme encore très peu développée fut publiée en 1690 dans son Traité de la Lumière.
FRESNEL en retrouvera le sens, plus d’un siècle plus tard, en toute indépendance puisqu'il ne semble pas avoir connu les travaux de HUYGENS. En 1815, FRESNEL, à vingt-sept ans, s’opposa à la théorie corpusculaire de la lumière de NEWTON en vigueur jusque là, et par des expériences sur la diffraction de la lumière, p²osa les bases de sa théorie « vibratoire » de la lumière, à laquelle il apportera compléments et corrections en 1818. Il appuya la théorie ondulatoire de la lumière en prouvant le premier que deux faisceaux de lumière polarisés dans des plans différents n’avaient aucun effet d’interférence et en déduisant en 1821 de cette expérience que le mouvement ondulatoire de la lumière polarisée était transversal et non longitudinal (comme celui du son), ainsi qu'on le croyait avant lui.
Il était le premier à produire une lumière polarisée circulaire. Ses formules, dites de FRESNEL, sur la réfraction sont toujours utilisées.
Près d’un siècle plus tard, malgré ces avancées, les conceptions vont s’inverser. L’année 1905 marque un rebondissement inattendu de la théorie des « quanta ». Une communication étonnante d’ALBERT EINSTEIN, ancien élève de l’école Polytechnique de Lausanne, alors jeune employé du bureau des brevets de Berne, démontre elle aussi que l’effet photoélectrique ne peut être compris que si la lumière qui le produit est formée de « quanta discontinus » d’énergie. On savait depuis HERTZ (1887) que la lumière ultraviolette avait la propriété d’extraire des corpuscules chargés négativement, c’est-à-dire des électrons, de la surface d’une plaque de métal. Or, si le nombre des électrons arrachés était proportionnel à la quantité de lumière fournie, la vitesse à laquelle les électrons jaillissaient, c’est-à-dire leur énergie cinétique, n’en dépendait absolument pas. C’était dire qu’elle relevait exclusivement de la composition spectrale de la lumière qui éclairait la plaque : plus la longueur de la radiation était courte, plus l’énergie cinétique des électrons arrachés était grande. De plus, il y avait une longueur d’onde maximale au-dessus de laquelle aucun électron n’était arraché, ce qui n’était pas sans rappeler l’anomalie du rayonnement pour cette lumière ultraviolette. Il y avait là un mystère que la physique classique ne parvenait pas à résoudre. 
Dans sa communication, EINSTEIN reprend l’hypothèse de PLANCK et l’adapte à la lumière. Il suppose qu’une lumière monochromatique, c’est-à-dire ne contenant qu’une radiation de fréquence unique ν, est formée d’une myriade de corpuscules porteurs d’un même quantum d’énergie. Quand un de ces corpuscules frappe la plaque métallique, il communique son quantum d’énergie à un électron, lequel en dépense une partie pour s’arracher à l’attraction de son noyau, et transforme le reste en énergie cinétique, c’est-à-dire en vitesse. Conformément à la doctrine de PLANCK, EINSTEIN ajoute que le quantum d’énergie possédé par le corpuscule de lumière est d’autant plus grand que la fréquence de la radiation est plus élevée (ou que sa longueur d’onde, inversement proportionnelle à la fréquence, est plus courte).
Métaphoriquement parlant – comme l’ont fait SVEN ORTOLI et JEAN-PIERRE PHARABOND dans le « Cantique des quantiques », – l’effet photoélectrique pourrait être comparé à un jeu consistant à lancer des balles de tennis sur une cible. Chaque fois qu’une balle (le corpuscule de lumière) atteint la cible, elle déclenche un mécanisme qui envoie des pièces de monnaie (les électrons) en direction du tireur, pièces (électrons) qui sont projetées plus ou moins loin selon la force avec laquelle la balle ((le corpuscule de lumière) touche la cible. Plus on envoie de balles de tennis (corpuscules de lumière) sur la cible – c’est-à-dire plus l’intensité du flux lumineux est grande, – plus on récolte de pièces de monnaie (d’électrons) ; mais si les balles (corpuscules de lumière) sont envoyées trop mollement (basses fréquences), les pièces (les électrons) ne vont pas très loin, ou même ne sont pas éjectées du tout ; par contre, si les balles (les corpuscules de lumière) sont lancées avec grande vigueur (hautes fréquences) , les pièces peuvent parvenir jusqu’au tireur.
De sorte qu’EINSTEIN est amené à conclure que l’énergie cinétique des électrons est donnée par une formule très simple :
E= h x ν - W  où W est la dépense d’énergie que doit fournir l’électron pour s’arracher au métal.
EINSTEIN suggère ainsi que la quantité hν est l'énergie d'une particule électromagnétique qui sera plus tard appelée photon. La constante h, dont il obtient alors facilement une valeur numérique précise en confrontant son modèle aux données expérimentales, est alors et est toujours une grandeur fondamentale en mécanique quantique, au même titre que va être, l’année suivante, la vitesse de la lumière en relativité.
En effet, dès 1906, Einstein propose une expérience de pensée basée sur l’émission de grains de lumière – appelés ultérieurement photons, – dénommée « La boîte d’Einstein » dans un article de la revue «Annal of Physics». Elle aboutit à l’établissement de la formule révolutionnaire : E = m.c2  où  E est l’énergie de masse, m la masse de la particule isolée et au repos, et c la vitesse de la lumière, la Relativité* venait de nous être donnée et avec elle de nouvelles notions concernant l’ordre et la mesure du temps.

Discontinuité (domaine de l’atome). BOHR postule que dans le modèle solaire de l’atome de RUTHERFORD – électrons de charge négative [planètes] gravitant autour du noyau [soleil] – le rayon de l’orbite circulaire ne peut varier de façon continue, mais qu’il faut au contraire lui assigner des valeurs déterminées dans lesquelles intervient la constante de PLANCK. En clair, cela signifie que les électrons gravitant autour du noyau ne peuvent le faire que selon des orbites bien précises, et que, en particulier il leur est impossible de descendre au-dessous d’une orbite dite « fondamentale ». Ils ne risquent donc pas de s’écraser sur  le noyau. SVEN ORTOLI et JEAN-PIERRE PHARABOD dans « Le cantique des quantiques » proposent d’imaginer un escalier. L’électron peut ou bien se tenir sur une marche, ou bien grimper sur la marche supérieure si on lui fournit l’énergie nécessaire (sous la forme d’une particule électromagnétique appelée photon), ou bien descendre sur la marche inférieure en rendant de l’énergie (sous la forme d’un photon) ; mais en aucun cas il ne peut rester entre deux marches. Dans ce modèle chaque marche est « étiquetée » par un nombre caractéristique du rapport entre le rayon orbital et la vitesse de l’électron.
Au départ, simple construction de l’esprit, sans justification apparente, la théorie de BOHR va connaître a posteriori d’éclatants succès. Elle permettra, entre autres, d’explique les radiations lumineuses de fréquences bien spéciales (raies spectrales) émises par différents corps chimiques : quand un électron placé sur une orbite élevée descend sur une orbite inférieure, il émet un photon ; l’émission d’une raie colorée de fréquence ν correspond donc à des sauts d’électrons de l’orbite extérieure vers une orbite plus interne. On appelle ces bonds des « sauts quantiques ».
D’autres nombres viendront  caractériser l’orbite d’un électron,
l’un décrivant la plus ou moins forte liaison du corpuscule au noyau,
un autre les effets magnétiques,
un troisième son « spin »*.  

Dualité onde-corpuscule. L’aspect corpusculaire et l’aspect ondulatoire sont deux représentations « complémentaires » d’une seule et même réalité. Un être physique unique peut nous apparaître tantôt sous forme de corpuscule (quand, par exemple, il provoque un scintillement sur un écran fluorescent), tantôt sous forme d’onde (quand, par exemple, nous observons les tranches d’interférence ptoduite par un flot d’électrons).

glossaire_fig4.png

Ainsi aux alentours de 1927, on peut dire que l’arsenal théorique de la nouvelle physique est, pour l’essentiel achevé. De l’introduction par PLANCK de la notion de quantum à la synthèse de DIRAC, il aura fallu un bon quart de siècle pour le réaliser. Mais il est maintenant solide et performant du fait qu’il rend compte d’un très grand nombre de phénomènes restés jusqu’alors mystérieux.
La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Elle ne permet pas de prévoir le résultat d’une mesure ; elle permet de calculer les valeurs possibles et leur probabilité. Mais la mesure elle-même est très précise.

Effet tunnel. C’est un phénomène qui se produit couramment au niveau des particules et jamais au niveau macroscopique (système comprenant un grand nombre de corpuscules atomiques ou moléculaires dont les dimensions dépassent le micron). Il est inexplicable en physique classique et très bien compris en physique quantique. On peut imager la situation de manière simple : un objet usuel (à notre échelle) qui se trouve dans un creux ne pourra pas remonter la pente spontanément pour parvenir à un autre creux. S’il est au fond d’un puits, il y restera à moins qu’on mette de l’énergie pour en sortir. En physique, cette situation s’appelle un puits de potentiel, qu’il s’agisse d’un potentiel lié au champ de gravitation ou à un autre champ.

glossaire_fig5.png

 

Eh bien, les particules parviennent sans cesse à sortir des puits de potentiel ! C’est complètement en contradiction avec les lois de la physique classique.

glossaire_fig6.png

Normalement, on ne peut pas passer d’une vallée à une autre vallée voisine sans passer par un sommet ou un col de la montagne qui les sépare, à moins de creuser un tunnel dans la montagne. C’est pourtant ce que parviennent à faire les particules de matière et tout objet quantique. C’est pour cela qu’on appelle cela un effet tunnel, comme si la particule avait creusé un tunnel pour sortir du puits de potentiel.
D’où est venue l’énergie donnée à la particule pour sortir du puits puisqu’on a laissé la particule sans intervenir ? Eh bien, c’est le vide quantique qui a prêté cette énergie dans un temps très court et qui l’a ensuite récupérée. Cela nécessite que le tunnel soit de courte longueur.
L’effet tunnel dévoile les relations de la matière particulaire (monde quantique) et du vide quantique (monde virtuel).
Même si le virtuel n’est directement "visible" ou "sensible" pour nous et nos appareils d’observation, les expériences de toutes sortes sur les particules imposent son existence qui seule peut permettre de les expliquer.
La particule est "habillée" par son nuage virtuel constitué par la transformation à proximité de la particule du vide quantique qui l’entoure. Cela signifie que toutes les caractéristiques de la particule, comme la masse ou la charge, et toutes les expériences d’interaction de la particule ne peuvent s’interpréter si on considère le corpuscule "nu" sans nuage virtuel autour.
Virtuel signifie fugitif mais signifie aussi potentiel parce que la particule peut sauter d’un point de son nuage à un autre.

Électron. L’électron de la nouvelle physique n’est plus une sorte de planète qui tourne autour d’un astre, le noyau de l’atome. Il ne parcourt pas un chemin précis, mais des trajectoires possibles. Invisible et insaisissable, ce n’est plus un objet : c’est un nuage.
C’est une onde, un paquet d'onde.
C’est un champ qui peut exister même si la particule n'est pas là, même si elle n'est pas matérialisée.
C'est une sorte de chose qui influence le milieu, qui l'imprègne, qui lui donne une propriété globale.
Deux électrons quelconques ne peuvent jamais occuper le même état quantique (posséder les mêmes nombres quantiques) [Principe d’exclusion de Pauli*].

glossaire_fig7.png

Entre deux électrons, la force d'attraction gravitationnelle est 1040 fois plus faible que la force de répulsion électrostatique. Alors que l'interaction gravitationnelle est uniquement attractive, l'interaction électromagnétique peut être soit attractive soit répulsive. Il existe deux types de charges électriques, les positives et les négatives. Deux charges de même signe se repoussent, deux charges de signe opposé s'attirent. Cette propriété est très importante : une charge positive a tendance à attirer, dans sa proximité, une charge négative de même valeur et inversement. La matière reste alors globalement neutre : la force de répulsion que la première charge exercerait sur une tierce charge positive est pratiquement compensée par la force d'attraction de la deuxième charge. C'est pourquoi à l'échelle des distances astronomiques, l'interaction électromagnétique, malgré son intensité 1040 fois plus forte que l'intensité de l'interaction gravitationnelle, est négligeable par rapport à cette dernière.

Énergie. En physique classique, l'énergie est une quantité physique qui se conserve pour un système isolé. Elle se décompose souvent en une partie qui dépend des seules vitesses (énergie cinétique) et une autre qui dépend des seules positions (énergie potentielle). En mécanique quantique, l’énergie est une observable* qu’on appelle aussi l’hamiltonien.

Équation de Schrödinger. En mécanique quantique, l’équation de SCHRÖDINGER exprime la variation de la fonction d’onde* au cours du temps et joue ainsi le rôle de la dynamique. Elle fait intervenir de manière essentielle une observable* particulière qui est l’hamiltonien ou énergie*.

Équations de Maxwell En physique (électrodynamique), il s'agit d’un ensemble d'équations qui régissent les propriétés des champs électrique et magnétique ainsi que leur évolution au cours du temps. Avant le travail dû à J. C. Maxwell au XIXème siècle, nous avions le champ électrique et le champ magnétique, qui semblaient deux phénomènes indépendants. Puis Maxwell a compris qu’ils n’étaient que deux manifestations différentes d’un même objet : le champ électromagnétique, lequel est également responsable de la lumière. Unifier l’électricité, le magnétisme et la lumière, à juste titre a été considéré comme un véritable tour de force.

Espace-temps. Ce terme de physique désigne la conjonction de l’espace et du temps en un seul système, conçu comme une entité première et représenté par un espace mathématique abstrait à quatre dimensions. Il y a de multiples manières d’introduire des coordonnées dans cet espace abstrait, dont chacune est interprétable comme une structuration en espace et en temps, tels qu’ils peuvent être constatés empiriquement par un observateur particulier dans son propre voisinage.

Éther. Milieu hypothétique emplissant l'espace, longtemps supposé par la physique classique. Il était censé permettre la propagation de la lumière puis, lorsque cette dernière fut identifiée à un champ électromagnétique vibrant, celle de ce champ. Il a disparu des concepts actuels après l’expérience de MICHELSON.

Fentes de Young.

Les fentes de Young (ou interférences de Young) désignent en physique une expérience qui consiste à faire interférer deux faisceaux de lumière issus d'une même source, en les faisant passer par deux petits trous percés dans un plan opaque. Cette expérience fut réalisée pour la première fois par Thomas Young en 1801 et permit de comprendre le comportement et la nature de la lumière. Sur un écran disposé en face des fentes de Young, on observe un motif de diffraction qui est une zone où s'alternent des franges sombres et illuminées.

Cette expérience permet alors de mettre en évidence la nature ondulatoire de la lumière. Elle a été également réalisée avec de la matière, comme les électronsneutronsatomes, molécules, avec lesquels on observe aussi des interférences. Cela illustre la dualité onde-particule : les interférences montrent que la matière présente un comportement ondulatoire, mais la façon dont ils sont détectés (impact sur un écran) montre leur comportement particulaire.

glossaire_fig8.png

 

Schéma de principe des fentes de Young

 

glossaire_fig9.png

Illustration de l’apparition des franges d’interférence

Quand la particule interfère avec elle-même comme dans l’expérience des fentes de Young, la seule interprétation possible est qu’elle a à la fois traversé les deux fentes, ce n’est pas le corpuscule mais le nuage qui traverse les deux et qui interfère avec lui-même en modifiant ainsi les probabilités de présence.
Une propriété fondamentale des ondes est leur capacité à interagir entre-elles, c'est-à-dire de s'additionner si elles sont en phases ou de s'annuler en cas de déphasage, exactement comme le feraient 2 vagues identiques se croisant, dont la vague résultante serait soit 2 fois plus haute (les crêtes d'une vague correspondent aux crêtes de l'autre), soit inexistante (les crêtes de l'une correspondent aux creux de l'autre). Or, l'expérience de Young a montré que 2 rayons lumineux sont capables de s'additionner (frange brillante) ou de s'annuler (frange sombre). Dans l'expérience de Young, on utilise une source lumineuse S monochromatique1 et on interpose une plaque percée de 2 fentes. Celles-ci se comportent comme des sources secondaires S1 et S2. On observe alors, sur un écran placé derrière, des franges alternativement sombres et claires : les ondes issues de S1 et S2 interfèrent entre elles.
Considérons maintenant un point M situé sur l'écran. Il est éclairé par les ondes lumineuses émises par S1 et S2 qui peuvent s'écrire respectivement, au point M :

glossaire_fig10.png

et

glossaire_fig11.png

E0  est l'amplitude, ω la pulsation des ondes, Δφ leur déphasage et t le temps.Δφ caractérise le fait qu'une onde a un certain retard par rapport à l'autre. En effet, pour arriver au point M, le chemin à parcourir n'est pas de la même longueur pour la lumière qui provient d'une source ou de l'autre.
Si Δφ est un multiple de 2π, les ondes s'ajoutent et on obtient une frange lumineuse sur l'écran, ce que l'on appelle une interférence constructive. En revanche si Δφ est un multiple impair de π alors les ondes s'annulent et on obtient une frange sombre sur l'écran, c'est alors une interférence destructive. Cela explique pourquoi on observe, sur l'écran, des franges successivement claires et sombres. Mais il n'y a pas, a priori, de formule simple permettant de décrire ces franges. Pour simplifier le problème, il est possible de supposer que l'écran est placé loin des fentes.

Fission nucléaire. La fission nucléaire[1] est le phénomène par lequel le noyau d'un atome lourd (noyau qui contient beaucoup de nucléons, tels les noyaux d'uranium et de plutonium) est divisé en plusieurs nucléides plus légers, généralement deux nucléides. Cette réaction nucléaire se traduit aussi par l'émission de neutrons (en général deux ou trois) et un dégagement d'énergie très important (≈ 200 MeV par atome fissionné, à comparer aux énergies des réactions chimiques qui sont de l'ordre de l'eV par atome ou molécule réagissant).

Fonction d’onde. En mécanique quantique, l’état d'un système est défini comme une donnée qui permet de calculer la probabilité de toute propriété*. Cette donnée est souvent exprimée de manière mathématique par une fonction (fonction d’onde) ayant pour arguments les coordonnées des particules qui constituent le système. Ainsi, la fonction d'onde est une quantité formelle contenant et permettant d'exprimer tout ce qui peut être affirmé à propos d'un système physique à un instant donné.

glossaire_fig12b.gif

La fonction d'onde d'une particule initialement très localisée

L'équation trouvée par le physicien SCHRÖDINGER en 1925, est une fonction d'onde qui généralise l'approche de de Broglie aux particules massives non relativistes soumises à une force dérivant d'une énergie potentielle, dont l'énergie mécanique totale est classiquement :

E = p2/2m  + V (r)

Le succès de l'équation, déduite de cette extension par utilisation du principe de correspondance – applicable seulement lorsque le nombre de particules-quantons atteint un certain seuil –, fut immédiat quant à l'évaluation des niveaux quantifiés d'énergie de l'électron dans l'atome d'hydrogène, car elle permit d'expliquer les raies d'émission de l'hydrogène*.
L'interprétation physique correcte de la fonction d'onde* de SCHRÖDINGER ne fut donnée qu'en 1926 par MAX BORN. En raison du caractère probabiliste qu'elle introduisait, la mécanique ondulatoire de SCHRÖDINGER suscita initialement de la méfiance chez quelques physiciens de renom, notamment EINSTEIN, pour qui « Dieu ne joue pas aux dés ».
Mais cette équivalence mathématique était loin d’être une équivalence physique. SCHRÖDINGER, contrairement aux créateurs résignés de la mécanique quantique avec leurs méthodes d’algèbre transcendante, se proposait rien de moins que de ramener la physique quantique dans « la vieille maison » de la physique classique. C’est qu’il répugnait à admettre « l’impossibilité de trouver une image intuitive des phénomènes naturels ». L’image intuitive, la représentation visuelle des phénomènes physiques, voilà le cœur de la question. Pour SCHRÖDINGER cette représentation était fournie par la physique des ondes. Une onde, en effet, est un phénomène qui se développe dans l’espace et dans le temps ; sa répartition spatiale et son évolution temporelle sont continues (en tout cas dans les cas simples auxquels pense SCHRÖDINGER), et permettent par conséquent de décrire ce qui se passe en termes d’une causalité proche de celle que les phénomènes macroscopiques nous ont rendue familière. « Il est à peine nécessaire de remarquer, écrivait encore SCHRÖDINGER, à quel point une représentation des phénomènes qui ferait intervenir au moment d’une transition quantique un simple échange d’énergie entre deux formes de vibration distinctes, serait plus facilement acceptable que l’image actuelle des électrons qui sautent d’un niveau à un autre. Le changement de forme d’une oscillation est un phénomène qui peut avoir lieu dans l’espace et dans le temps (…) »

Dans la physique bohmienne, il n’y a a priori qu’une seule fonction d’onde : celle de l’univers. Si la théorie est déterministe, comment compose-t-elle avec le caractère probabiliste des équations de la mécanique quantique ? DÜRR, GOLDSTEIN et ZANGHI (1993) expliquent que ce qui paraît aléatoire dans chaque contexte expérimental ne l'est pas dans un univers bohmien. Les lois statistiques de Born seraient des manifestations locales d'un état d'équilibre quantique universel.

glossaire_fig12.png

Dans l'interprétation de Copenhague, la métaphore du cylindre est couramment employée pour décrire la situation de l'expérimentateur. Les particules ont à la fois les propriétés d'une onde et d'une particule, tout comme ce cylindre a à la fois les propriétés d'un cercle et d'un rectangle. Dans la théorie de BOHM, le potentiel quantique *(l’onde-pilote) [2] remplit ce rôle explicatif : la particule est guidée par le potentiel quantique comme le sous-marin par son sonar.
Chaque prédiction confirmée par les lois de BORN ne confirme pas du même coup que le monde quantique est décidément imprévisible dans le détail ; elle confirme, par un renversement du référentiel, que c'est le moment de l'expérimentation et les particules spécifiques étudiées à ce moment donné qui sont aléatoires.

Forces fondamentales. L’ensemble des phénomènes physiques connus peuvent s’expliquer à partir de seulement quatre forces dites « fondamentales ». Deux de ces forces nous sont assez familières : la force électromagnétique et la force de gravité; les deux autres agissent seulement au niveau subatomique : la force nucléaire « forte », responsable de la cohésion des noyaux atomiques, et la force nucléaire « faible », qui intervient dans les processus de fission nucléaire*.

Formel. Une expression utilisée dans les textes concernant la physique comme adjectif et parfois comme nom. Le formel s’oppose principalement à l’intuitif, au représentable, au visuel, à ce que peuvent exprimer les mots appartenant au langage du sens commun. Plus précisément, un concept relatif à la réalité (en physique, par exemple) est considéré comme formel s'il n’est expressible, saisissable et pleinement utilisable que lorsqu'on fait appel aux mathématiques. Les mathématiques et la logique sont quant à elles formelles à un premier niveau quand elles ne traitent que de relations, et non d’objets signifiants parfaitement et uniquement définis (ainsi, une proposition sur des relations entre des droites, objets signifiants, est strictement équivalente, grâce à la théorie des polaires réciproques, à une proposition sur des points comme objets signifiants). Mathématiques et logique peuvent être considérées comme purement formelles quand leurs fondements se réduisent totalement à un système d'axiomes* appartenant à un langage formel*.

Hamiltonien. La notion d'hamiltonien, ou encore de fonction de Hamilton provient d'une formulation très puissante des équations de la mécanique analytique, les équations de Hamilton. Ces dernières sont fondamentales de par leur rôle général en physique et sont à la base de la découverte et de la formulation de la mécanique quantique.
Initialement limitées à des systèmes mécaniques comportant un nombre fini de degrés de libertés, comme les positions et les vitesses des particules dans un gaz, ou les angles et vitesses de rotations permettant de décrire un gyroscope, ces équations peuvent être étendues pour décrire des systèmes continus à une infinité de degrés de libertés. C'est le cas des équations du champ électromagnétique ou du champ de gravitation qui peuvent être mises sous une forme dite Hamiltonienne.

Histoire. En mécanique quantique, une histoire est une suite de diverses propriétés ayant lieu à des instants successifs.

Impulsion. En physique classique, l’impulsion est le produit de la masse par la vitesse. En mécanique quantique, chacune des composantes de ce vecteur est une observable*, c’est-à- dire un opérateur* mettant en jeu l’opération de prendre une dérivée. C’est donc, en ce cas, une notion très formelle.

Interférences. En optique et en mécanique quantique, lorsqu’une onde peut suivre deux chemins différents (au travers de deux fentes de Young, par exemple), son intensité (ou la probabilité de présence dans le cas quantique) varie de place en place en montrant des maxima et des minima (des franges lumineuses et obscures dans le cas de la lumière) dont l’existence constitue le phénomène d’interférence. Fondamentalement, il est dû à l’existence d’un principe de superposition selon lequel les ondes qui ont suivi des chemins différents ajoutent leurs amplitudes.

Interprétation. En physique, sous la forme décrite ici, l’interprétation est la dérivation à
partir des principes formels d’une théorie (relativité ou mécanique quantique) d’une représentation logique de la réalité observable sous une forme qui relève du sens commun, pouvant être transmise par le langage ordinaire et bien adaptée à la description directe des expériences telles qu’on les réalise en pratique.

Lagrangien. La formulation Lagrangienne est invariante par changement de systèmes de coordonnées qi et c'est ce qui fait sa puissance, car elle permet de ramener de larges classes d'équations différentielles exprimées en coordonnées cartésiennes, sphériques etc... à quelques cas fondamentaux que l'on sait résoudre.
En outre, elle permet de démontrer que des théorèmes de conservation comme ceux de l'énergie, de la quantité de mouvement etc... sont automatiquement valables pour ces larges classes d'équations différentielles puisque, en démontrant des lois de conservation dans un système de coordonnées donné, on est sûr qu'elles seront valables dans d'autres systèmes de coordonnées ou pour d'autres systèmes mécaniques qui se ramènent à des équations sous la forme de Lagrange.
La validité de lois de conservation comme celles de l'énergie ou de la quantité de mouvement, initialement établie pour des points matériels, sera alors tout aussi assurée pour le champ électromagnétique si l'on peut mettre les équations de Maxwell sous la forme d'un Lagrangien. C'est bien le cas.

Langage formel. En logique et en mathématiques, un langage formel se sert de signes convenus, assemblés selon des règles prescrites pour former des propositions. Ces propositions existent ainsi par elles-mêmes sans qu’on ait à supposer qu'elles se réfèrent à la réalité ni qu’elles aient une signification unique.

Loi. En science, une conséquence logique des principes* qui est justifiée par l’expérience.

Matrices. Leur utilisation en physique est due à HEISENBERG à qui il semblait inutile de représenter l’atome par un système planétaire de noyaux et d’orbites ou tout autre image que ce soit, de sorte qu’étant seules connues les fréquences et les intensités de lumière, il était plus expédient d’utiliser des tableaux de nombres (matrices) propres à chaque atome tels qu’utilisés par les mathématiciens. Ces matrices permettent, par exemple, de calculer les sauts d’électrons d’une orbite sur n’importe quelle autre. En résumé, les hypothèses concernant les éléments physiques de l’atome de BOHR sont traduites par la théorie des matrices représentant la seule chose que l’on connaisse, à savoir le rayonnement provenant de la région où l’atome est censé se trouver. À l’usage, si abstraite qu’elle paraisse, cette « mécanique des matrices » 1a l’immense  mérite de coller avec les résultats expérimentaux et cela, en dépit de son étrangeté par rapport au calcul.
En effet, pour calculer en pratique un produit, il est nécessaire de visualiser l'opération.

glossaire_fig13.png

En énumérant le nombre de lignes avant celui des colonnes, on considère que la matrice C est le produit de la matrice A de type (4, 2), et de la matrice B de type (2, 3).
Le produit matriciel est associatif, distributif à droite et à gauche par rapport à l'addition matricielle. En revanche, un produit de matrices ne commute en général pas : AB n'est pas en général égal à BA, par exemple :

glossaire_fig14.png

glossaire_fig15.png

Pour Heisenberg, puisqu’il s’agissait de mettre en doute les conceptions classiques de position et de vitesse, quels objets pourraient-ils remplacer les notions habituelles. L’objet « accélération » n’étant certainement pas un nombre mais dépendant de l’état initial et de l’état final entre lesquels l’atome transite, et qui n’a vraiment de sens qu’à l’instant précis où le saut a lieu[3]. Si donc on numérote les états possibles de l’atome comme le faisait Bohr avec ses « nombres quantiques » étiquetant les niveaux d’énergie, l’accélération pouvait donc être remplacée par une quantité qui dépend du numéro de l’état initial et de l’état final. Ainsi Heisenberg, à l’instar du travail de Bohr, avait-il remplacé l’accélération par des tableaux de nombres à double entrée indiquant l’état initial et l’état final, grâce à auxquels il était parvenu à reformuler l’essentiel des lois de la mécanique. En 1924, Max Born à qui Heisenberg s’était ouvert de ses trouvailles et de ses perplexités, l’encouragea à publier ses résultats après lui avoir révélé que ses tafleaux sont appelés « matrices » par les mathématiciens. Avec l’aide de Pascual Jordan qui connaissait l’usage des « matrices » il met rapidement une version qasiment complète de cette nouvelle théorie comme de la mécanique matricielle. 

 

Mécanique quantique. Ses fondateurs la considéraient comme le cadre théorique permettant de d´écrire le comportement de la matière et de la lumière aux échelles atomiques et subatomiques. Plus tard, avec la découverte de phénomènes quantiques macroscopiques, cette définition est néanmoins apparue trop restrictive. Cependant la définition du domaine quantique est déjà une question très délicate, aussi nous en resterons à ce premier point de vue, qui permet de toucher du doigt assez aisément la nécessité d’un abandon des concepts de la physique dite classique (nous entendons par là, la mécanique newtonienne et l’´electromagnétisme) lorsque l’on s’intéresse aux échelles atomiques et subatomiques. Les notions qui constituent le socle de la physique classique ont été forgées à partir de notre expérience immédiate, or, si nous pouvons espérer deviner les lois fondamentales qui régissent le mouvement des corps matériels en analysant le mouvement d’une boule de billard, ou celui des planètes à l’aide d’un télescope, il n’y a a priori pas de raison évidente pour que ces lois s’appliquent encore dans le monde atomique et subatomique.[4] Il n’est donc pas surprenant, rétrospectivement, que la description du comportement des atomes requière d’autres concepts que ceux utilisées pour analyser la dynamique des corps macroscopiques.
Selon JEAN-PAUL AUFFRAY[5], dans « L’atome » : « en mécanique quantique, les rayons émis (ou absorbés) par un atome sont composés de photons* dotés, en tant que tels, de deux caractéristiques fondamentales :
ils se déplacent à la vitesse de la lumière (égale à 300.000 kilomètres par seconde environ),
ils transportent chacun un paquet d’énergie égale à la constante de Planck h multiplié par la fréquence µ du rayonnement considéré.
Les choses se présentent différemment dans notre représentation. Les rayons sont composés de quanta d’action (l’action a la dimension d’une énergie multipliée par un temps) auxquels ni l’une ni l’autre des deux contraintes citées ci-dessus (vitesse c et paquet d’énergie hµ) n’est applicable : les quanta peuvent aller soit moins vite soit plus vite que la lumière et peuvent transporter une énergie soit plus petite soit plus grande que hµ. Y a-t-il une chance concrète de pouvoir trancher entre les deux points de vue, en observant par exemple un quantum allant plus vite que la lumière et transportant une énergie plus grande que hµ ? Selon notre point de vue, lorsqu’un quantum rencontre sur son chemin un passage étroit – un tunnel – dont la largeur ou le diamètre est du même ordre de grandeur que la longueur de son pas, il « allonge le pas » pour traverser cet obstacle, ce qui a pour effet de le faire émerger de l’autre côté du piège plus tôt que prévu ; il traverse donc le tunnel à une vitesse « supraluminique ». Ce phénomène remarquable est connu en mécanique quantique sous le nom d’ « effet tunnel ».

Métalangage. Un métalangage est un langage formel qui donne une signification plus large à un autre langage formel, dont les propositions deviennent alors des mots (signes) du métalangage.

Modus ponens. En logique, la possibilité de prendre pour nouveau point de départ un théorème* déjà démontré sans reprendre en compte la preuve qui l’a établi.

Naines blanches. La structure interne d'une naine blanche est déterminée par l'équilibre entre la gravité et les forces de pression, ici produite par un phénomène de mécanique quantique appelé pression de dégénérescence*. Une naine blanche isolée est un objet d'une très grande stabilité, qui va simplement se refroidir au cours du temps pour, à très long terme, devenir une naine noire. Si par contre une naine blanche possède un compagnon stellaire, elle pourra éventuellement interagir avec ce compagnon, formant ainsi une variable cataclysmique.

Non-localité. Avant même la démonstration de la violation des inégalités de BELL qui interdisent les théories locales à variables cachées*, cette interprétation non seulement supposait la non-localité (BELL a en fait montré que la mécanique quantique était par nature non locale), mais la rendait explicite : « C'est un mérite de la version de DE BROGLIE-BOHM qu'elle amène si explicitement la non-localité qu'on ne puisse en faire abstraction. »

Nouvelle physique. La quai-totalité des phénomènes physiques, depuis plus d’un siècle, ressortent de deux types d’explication :
celui de l’électromagnétisme de MAXWELL (effets magnétiques, interférences lumineuses, etc.
celui de l’attraction de NEWTON, base de la mécanique et de l’astronomie.
Le concept de corpuscule émanant du dernier a permis de considérer les objets réels en les représentant sous la forme d’un ensemble de points (matière) mûs selon une trajectoire (bille, planète, électron, etc.). C’est typiquement le mouvement de la matière.
Le concept d’onde, ou de champ, quant à lui, est contrairement au corpuscule, un mouvement dans la matière, où il est plus difficilement observable. Dans la vague prise comme modèle, au risque de s’y méprendre, les molécules d’eau ne progressent pas vers la côte, mais grosso modo se contentent de monter et de descendre en décrivant des cercles ou des ellipses, communiquant leur mouvement à leurs voisines ; ainsi, de proche en proche se transmet, non pas de la matière, mais de l’énergie.
Ainsi, pour l’ensemble du mouvement, les physiciens se sont trouvés placés devant une dualité onde-corpuscule jusqu’à ce qu’une unité puisse être enfin trouvée. 

Objectivité. Un phénomène, un concept, une connaissance sont déclarés, à divers degrés, objectifs en ce qu’ils ne dépendent pas pour leur existence de l’esprit humain. La notion a été introduite par Kant ; elle a été l’objet de la préoccupation des sciences humaines et est apparue en tant que problème en physique avec la mécanique quantique. On s’est parfois demandé si certains concepts, celui de fonction d’onde* en particulier, ont ou non un caractère objectif, associé directement à la réalité physique ou seulement à la conscience que nous en avons. La réponse de BOHR et celle qu’apportent les travaux modernes concluent effectivement à l'objectivité de la théorie.

Observable. En physique classique, les quantités physiques de base sont les coordonnées de position et d'impulsion et une quantité physique générale (par exemple l’énergie) est une fonction de ces coordonnées. Le rôle des quantités physiques est joué en mécanique quantique par des opérateurs* possédant certaines propriétés mathématiques (hermiticité), auxquels on donne le nom d’observables. C’est un des aspects les plus formels de cette théorie.

Onde pilote. Dans la théorie de BOHM-DE BROGLIE, les particules sont accompagnées d'une onde qui guide leur chemin, d'où le terme d'onde pilote. Mathématiquement, l'onde pilote est définie de la même façon que la fonction d'onde de la mécanique quantique. L'influence de l'onde pilote se caractérise sous la forme d'un potentiel quantique, dérivé de la fonction d'onde, agissant sur la particule de la même façon qu'un champ électrique. Par conséquent, l'onde pilote gouverne le mouvement de la particule en suivant l'équation de Schrödinger.
Cette théorie stipule que l'évolution du comportement des particules s'effectue de façon régulière au cours du temps, il n'y a donc pas d'écroulement de la fonction d'onde. Elle s'accorde avec la critique d'ALBERT EINSTEIN à l'effet que la mécanique quantique telle qu'interprétée par l'école de Copenhague n'est pas complète.
Plus précisément, BOHM caractérise sa théorie par les quatre propriétés suivantes :
La fonction d'onde   est considérée comme étant un champ réel et objectif, et non comme une entité purement mathématique.
On suppose qu'il existe – indépendamment de ce champ – des particules qui possèdent des coordonnées dans l'espace qui sont toujours bien définies et qui évoluent de manière déterministe.
La vitesse de ces particules est déterminée comme étant glossaire_fig16.png , où m est la masse de la particule, et S une fonction de phase obtenue en écrivant la fonction d'onde comme glossaire_fig17.png , avec S et R réels.
On suppose que la particule réagit non seulement au potentiel classique glossaire_fig18.png  mais aussi à un « potentiel quantique » additionnel glossaire_fig19.png
Ces quatre propriétés définissent la « version déterministe » de la théorie, publiée en 1952. Une « version stochastique », introduite par BOHM et VIGIER en 1954 et présentée par BOHM comme « définitive », est caractérisée par un cinquième axiome défini de la manière suivante :
Le champ est en fait dans un état de fluctuation aléatoire et chaotique telle que la valeur de   définie par l'équation de SCHRÖDINGER constitue une moyenne de ces fluctuations. Ces fluctuations proviennent d'un niveau sous-jacent, de la même manière que les fluctuations du mouvement brownien proviennent d'un niveau atomique plus profond.

Opérateur. En mathématiques et en mécanique quantique, un opérateur A est une opération mathématique qui, agissant sur une fonction u (souvent une fonction d’onde*), engendre une autre fonction, notée Au. Les opérateurs linéaires, de loin les plus importants, sont ceux qui .préservent la somme de deux fonctions et le produit d’une fonction par une constante.

Paquet d’ondes. Il s’agit de l’onde associée au corpuscule qui n’est pas une onde monochromatique – qui aurait une étendue illimitée dans l’espace –, mais un « paquet d’ondes » dont le maximum d’amplitude se déplace avec la vitesse du corpuscule. Une similitude existe dans le son qui résulte, en effet, de la superposition d’un ensemble d’ondes (l’onde fondamentale et les harmoniques), de sorte que le « paquet d’ondes » de DE BROGLIE doit être considéré comme un ensemble de longueurs d’ondes encadrant λ = h/p et allant d’un minimum λmin à un maximum λmax.

Paradigme. En épistémologie, une notion introduite par Thomas Kuhn. Un paradigme est un cas de réussite scientifique remarquable et prenant valeur exemplaire, que les chercheurs imiteraient. La structuration de la démarche de la recherche en termes de paradigmes s’oppose à celle de la science en termes de principes. Le mot lui-même, assez mal défini dès son apparition, tend à être employé de nos jours dans de multiples jargons.

Photon. Particule élémentaire, de masse et de charge nulle, le photon est l’aspect corpusculaire de la lumière. La vitesse de la lumière, dans le vide, quel que soit le référentiel d’étude, notée c, est environ égale à 300 000 km.s.
glossaire_fig20.pngTrajectoire des photons s'échappant du soleil. Le soleil émet dans toutes les fréquences de lumière, visible, infrarouge, ultraviolet… ainsi des photons de toutes les énergies sont diffusés de l’intérieur du soleil jusqu’à nous.

© CNRS Photothèque

En 1900, MAX PLANCK émet l'hypothèse que les échanges d'énergie entre un rayonnement lumineux et la matière ne peuvent se faire que par "paquets", appelés quanta, contenant d'autant plus d'énergie que la fréquence du rayonnement est élevée. Le quantum est la quantité finie minimale d'échange d'énergie.
En 1905, ALBERT EINSTEIN, pour expliquer l'effet photoélectrique, attribua une structure corpusculaire au rayonnement lumineux lui-même. Selon lui, tout rayonnement répartit son énergie sur un ensemble de particules transportant chacun un quantum d'énergie, dont la valeur est proportionnelle à la fréquence qui lui est associée.
L'existence de ces quanta de lumière fut prouvée expérimentalement dans les années vingt.
Il aura donc fallu attendre les travaux de ces deux physiciens pour comprendre que le rayonnement électromagnétique peut être émis (rayonnement du corps noir) ou absorbé (effet photoélectrique) avec une certaine quantité d'énergie discrète ou quantifiée : c'est le concept de photon qui transporte l'énergie (baptisé ainsi en 1924).
La physique quantique – et notamment LOUIS DE BROGLIE avec sa loi sur la dualité onde-particule, généralisation des travaux de PLANCK et d'EINSTEIN, en 1926 – réconcilie l'aspect corpusculaire de la lumière qu'incarne le photon et son aspect ondulatoire.

Positivisme. En philosophie, la doctrine d’Auguste Comte et de son émule John Stuart Mill. En épistémologie, désigne surtout le point de vue selon lequel le critère d’une connaissance vraie est un consensus entre humains (de bonne foi, compétents, etc., avec toutes les difficultés que ces conditions supposent). En mécanique quantique, c’est principalement la doctrine selon laquelle la fonction d’onde n’a pas une réalité objective et ne représente que l’information dont un observateur dispose.

Potentiel quantique. C’est un principe central de la formulation de « de Broglie-Bohm » d'une interprétation ontologique, non standard, de la théorie quantique introduite par David Bohm en 1952.
Initialement présenté sous le nom de « potentiel de la mécanique quantique » puis « potentiel quantique », il a été élaboré à partir des travaux de David Bohm et de Basil Hiley dans leur enquête sur la façon dont une particule quantique pourrait être guidée, dans sa trajectoire, par un « potentiel d'information ». Bohm était persuadé de l'existence réelle des particules quantiques et n'acceptait pas l'idée de l'effondrement de la fonction d'onde qui amène à considérer l'existence duale d'une particule tantôt sous la forme corpusculaire, tantôt sous la forme d'une onde. Pour y parvenir, il reprit à son compte le concept de l'onde pilote postulé en 1926 par Louis de Broglie pour tenter de mettre au point une mécanique quantique non classique.
Dès 1952, les articles fondateurs de Bohm ont donc introduit le « potentiel quantique » et inclus des réponses aux objections qui avaient été soulevées, en son temps, par Wolfgang Pauli contre la théorie de l'onde pilote. En s'appuyant sur l'interprétation de la théorie quantique mise en place par Bohm en 1952, David Bohm et Basile Hiley présentèrent, en 1975, comment le concept de « potentiel quantique » conduit à la notion d'un « ensemble continu de l'univers entier », en proposant ce nouveau caractère fondamental de la physique quantique comme non-local[].

Pragmatisme. Au sens fort, c’est la doctrine philosophique de Hume, selon laquelle les faits sont premiers, à l’origine de la pensée et du langage, l’origine de l’ordre qui les régit eux- mêmes étant en principe inaccessible.

Pression de dégénérescence. Pression d'origine purement quantique à laquelle est soumis un gaz de fermions (en particulier les électrons et les neutrons). A cause du principe d'exclusion de Pauli*, il faut fournir une énergie assez élevée pour ajouter un fermion à une assemblée de ses congénères si ceux-ci occupent déjà les états de basse énergie. Ceci se traduit par une force de pression qu'on appelle « pression de dégénérescence* ».

Principe. En science, une proposition de caractère universel régissant la réalité physique.

Principe de complémentarité.
Énoncé en 1927 par HEISENBERG, il stipule qu’en microphysique il est impossible d’attribuer à une particule-quanton[6], des propriétés classiques telles que la vitesse et la position, car en fait, mieux la position est définie, moins la vitesse est connue et vice versa. Les résultats se trouvent systématiquement entachés de ce flou.
La conséquence la plus évidente de, ce principe, c’est que nous sommes conduits à renoncer à toute tentative de recréer notre univers visible dans celui, invisible, des atomes. Pour illustrer la position du physicien, SVEN ORTOLI et JEAN-PIERRE PHARABOD ont proposé opportunément dans « Le Cantique des quantiques » de reprendre l’image de l’homme qui voudrait étudier un oiseau de nuit inconnu. Pour ce faire s’offrent à lui deux possibilités : la première est de braquer un projecteur au risque de l’éblouir, en vue de décrire au mieux sa morphologie, au détriment de son comportement car, au mieux, il restera immobile ; la seconde est de n’uriliser aucun projecteur et de se contenter d’observer, dans la semi-obscurité, son comportement, tandis que l’étude de sa morphologie nous reste interdite. In fine, la meilleure solution, la solution moyenne, sera d’éclairer suffisament l’oiseau, de telle façon que son comportement ne soit pas perturbé.
À l’échelle atomique, le problème est assez identique : si l’on veut observer un quanton , il faut envoyer de la lumière (des photons) sur lui. Il va alors subir un choc qui modifiera son comportement. Donc, toute opération de mesure d’un système microphysique provoque automatiquement son altération. Tel fut le sens tiré par HEISENBERG de sa relation d’incertitude. Les physiciens d’aujourd’hui en ont tiré la leçon suivante : les relations observées, pour le quanton, de sa vitesse et de sa position, bien que floues, ne prennent de la consistance qu’à l’occasion d’une mesure. Il y donc intérêt à multiplier les mesures pour obtenir des résultats variables à l’intérieur d’une certaine plage. Les relations d’incertitude d’HEISENBERG sont là pour traduire la largeur des plages en question.
Dans les versions récentes de la théorie, cette limitation demeure, mais elle a cessé d’être un principe autonome pour devenir une conséquence des autres.

Principe de correspondance. Ce principe, énoncé par BOHR et corrigé par EHRENFEST en 1927, avec sa condition d’application[7], indique que la  physique quantique et la physique classique donne des résultats équivalents. Mais qu’on ne s’y trompe pas : il s’agit en fait d’un cas limite de la première pour la dernière. Qui plus est, on sait maintenant que certains ensembles de quantons, même en très grand nombre persistent à suivre des lois quantiques parfaitement incongrues : ce sont les supra-conducteurs et les superfluides.
Ce principe fut immédiatement appliqué pour l'évaluation des niveaux quantifiés d'énergie de l'électron dans l'atome d'hydrogène, car elle permit d'expliquer ses raies d'émission*.

Principe de moindre action. En physique, un principe d’où se déduisent les équations du mouvement d’un système classique. Introduit par LAGRANGE au XVIIIe siècle et étendu par HAMILTON, il énonce que le mouvement minimise (dans le cas le plus simple) une certaine intégrale, l’action, qui peut être construite à partir de la connaissance de l’énergie cinétique et de l’énergie potentielle.

Principe d’exclusion de Pauli. Principe fondamental de la mécanique quantique, selon lequel certaines particules (les fermions) ne peuvent occuper à plusieurs le même état quantique. Ce principe permet de comprendre la structure en couche de la répartition électronique dans les atomes, ainsi que la structure en bandes des niveaux d'énergie dans les solides. De façon plus surprenante, il intervient aussi dans la structure des certaines étoiles (les naines blanches*), conduisant au phénomène de  pression de dégénérescence* – s'effondrer sous l'effet de la gravitation. Cependant, lorsque l'étoile est trop massive, le principe d'exclusion ne tient plus et alors l'étoile s'effondre en un trou noir*.

Principe d’incertitude. À proprement parler, comme l’a fait remarquer ROLAND OMNES, il s’agit plutôt d’une relation puisqu’il en est la conséquence.
HEISENBERG, dès 1925, alors âgé de 24 ans, qui venait de découvrir le formalisme mathématique de la physique moderne : des quantités observables comme l'énergie n’étaient plus décrites par des nombres mais par ce qu'on appelle des opérateurs, ou actions, agissant sur les particules qui ne sont plus des points mais des fonctions d'onde*. Les actions, en général ne commutant pas (contrairement aux nombres) il  venait d’introduire l’idée de non-commutativité.
En particulier, il découvrit que les actions « mesurer la position de » et « mesurer la quantité de mouvement de » ne commutent pas. Lorsque l'on mesure la position d'une particule, son état est perturbé de telle sorte que sa quantité de mouvement ne peut pas être connue avec une précision optimale. On peut donc voir le principe d'incertitude d'Heisenberg*, qui stipule que la position et la quantité de mouvements d'une particule ne peuvent pas être connues simultanément avec des degrés de précision indépendants, comme une conséquence de la non-commutativité.
Ce principe de la mécanique quantique, est le plus souvent connu comme mettant en jeu l’incertitude statistique Δx d’une coordonnée de position x et l'incertitude Δp de la composante correspondante de l’impulsion : le produit ΔxΔp ne peut en aucun cas être inférieur à h/4n, h étant la constante de PLANCK. Il en résulte que des fonctions d’onde qui conduisent à des valeurs de plus en plus précises de x donnent aussi des valeurs de plus en plus incertaines de l’impulsion.
DAVID LOUAPRE, en complément à son exposé oral sur le « principe d’incertitude », attire notre attention sur la « transformée de Fourier* », utilisée par les mathématiciens du fait  de son rapport avec celui-ci.

glossaire_fig20b.gif.png

 

Vues spatiale (position) et fréquentielle (impulsion ou quantité de mouvement) de (a) une onde, (b) un paquet d'onde et (c) un corpuscule. L'onde étant de fréquence pure, son impulsion est définie mais elle n'est pas localisée dans l'espace. Inversement, le corpuscule est localisé mais n'a pas de fréquence déterminée. Le cas général est celui du paquet d'onde qui est distribué en fréquence comme en espace. Du fait de la dualité entre les deux représentations l'étalement spatial est inversement proportionnel à l'étalement fréquentiel

 

 

Principe d’inertie. L’un des principes fondamentaux de la mécanique classique. Sous la forme donnée par Newton, il énonce que le centre de masses (on dit aussi centre de gravité) d’un corps qui n’est soumis à aucune force se déplace d’un mouvement rectiligne dans l’espace absolu, uniforme par rapport au temps absolu. La même propriété demeure dans tout système de référence (galiléen) lui-même en mouvement rectiligne uniforme sans rotation par rapport à l’espace absolu. En théorie de la relativité restreinte, le principe d’inertie s’applique dans les référentiels galiléens en mouvement uniforme sans rotation les uns par rapport aux autres, lesquels forment une classe qui ne fait aucune référence à un espace ni à un temps absolu.

Projecteur. En mathématiques et, plus spécialement, dans les applications à la mécanique quantique, un projecteur (P) est un opérateur d’un type particulier. Agissant sur une fonction u (par exemple une fonction d’onde*), il engendre une autre fonction v, qu’on désigne par Pu. La principale particularité de P est de rester le même quand on le réitère : P2u = Pu.
C’est une propriété que partage la projection d'un point de l’espace à trois dimensions sur un plan, d’où ce nom de projecteur. L’observable quantique (la quantité physique) associée à P ne peut prendre que les valeurs 1 ou 0, analogues à « vrai » et « faux ». C’est de là que provient le rôle important de ces opérateurs dans les questions de logique.

Projet cartésien. En philosophie, nom donné par Heidegger et par Husserl à l’hypothèse fondatrice de la physique théorique poussée à l’extrême et supposant que la réalité physique peut être entièrement décrite par des règles mathématiques.

Propriété. En mécanique quantique, une propriété signifie qu’une certaine quantité physique (observable*) se trouve dans un certain intervalle de valeurs à un instant donné. Les propriétés constituent l’élément de base de toute description de la physique.

Raies d’émission de l’hydrogène.
Séries de LYMAN, BALMER, BRACKET, PASCHEN, etc.
On voit que le spectre d'émission (ou d'absorption) de l'hydrogène présente de nombreuses raies groupées par séries. On parle de série pour l'ensemble des raies caractéristiques des états d'excitation d'un noyau (une raie correspond à une longueur d'onde et donc à un état d'excitation)
Pour l'hydrogène il n'y a que 5 états d'excitation avant l'ionisation qui correspond à la perte de l'électron pour le noyau, celui-ci ayant reçu plus d'énergie que celle qui le reliait au noyau. L'énergie d'un photon est quantifiée par sa longueur d'onde : un photon gamma est plus énergétique qu'un photon IR.
Les niveaux d'énergie qui sont quantifiés pour l’atome correspondent à l'éloignement de l'électron du noyau produit par l'excitation de l'électron qui lorsqu'il revient à son état fondamental émet un photon pour « expulser » l'énergie qu'il avait reçu.

Lorsque la transition électronique aboutit sur le niveau fondamental
(n = 1), c'est la série de LYMAN, elle se trouve dans le domaine UV (ultraviolet).

Lorsque la transition électronique aboutit sur le premier niveau excité
(n = 2), c'est la série de BALMER, elle se trouve en grande partie dans le domaine visible.

Lorsque la transition électronique aboutit sur le deuxième niveau excité
(n = 3), c'est la série de PASCHEN, elle se trouve dans le domaine I.R (infrarouge).

glossaire_fig21.png

Réalisme. Les diverses formes de réalisme sont des doctrines appartenant à la philosophie de la connaissance. Le réalisme platonicien suppose l’existence d’un monde des Idées plus réel que le nôtre. Le réalisme mathématique, qui en est très proche, suppose l’existence propre d’une entité que les mathématiques ne font qu’explorer, et non inventer. Le réalisme physique a lui-même de nombreuses variantes, qui toutes admettent l’existence d’une réalité physique indépendante de l’esprit humain (ce qui s’oppose à l’idéalisme), et admet souvent, de plus, que cette réalité peut être connue telle quelle est (ce qui s’oppose à la fois au positivisme et au représentationnisme). Les difficultés rencontrées par le réalisme avec la mécanique quantique ont amené BERNARD D'ESPAGNAT à introduire l'idée du Réel voilé qui limite la cogniscibilité de la réalité.

Réduction de la fonction d’onde. L’une des hypothèses principales de l'interprétation de la mécanique quantique selon BOHR. Au terme d'une mesure opérée sur un système physique quantique (par exemple un atome) à l’aide d'un appareil, la fonction d'onde* du système mesuré est supposée changer brusquement, sa nouvelle expression étant déterminée par le résultat de la mesure tel qu'il est indiqué par l'appareil. La réduction, en tant que règle pratique permettant de calculer simplement des probabilités, demeure applicable dans les versions plus modernes de l'interprétation sans qu'on doive la considérer comme due à un effet physique particulier.

Règle empirique. Une règle constatée par la seule expérience à propos d'une catégorie de phénomènes, éventuellement quantitative, dont on ignore l’explication en termes de lois*.

Relativité. Par la formule révolutionnaire établie par EINSTEIN :
E = m.c2  où  E est l’énergie de masse, m la masse de la particule isolée et au repos, et c la vitesse de la lumière, la Relativité venait de nous être donnée et avec elle de nouvelles notions concernant l’ordre et la mesure du temps. Celles-ci perdent leur absoluité alors qu’elles la possédaient dans la théorie newtonienne. Elles sont maintenant relatives à la lumière d’un système de coordonnées. Cette relativité du temps est une des caractéristiques radicalement nouvelles de la théorie d’EINSTEIN.
Le nouvel ordre et la nouvelle mesure introduits dans la théorie de la relativité  impliquent de nouvelles notions de structure dans lesquelles l’idée d’un corps rigide ne peut plus jouer un rôle important…En réalité, la relativité implique que ni les particules-points ni les corps quasi rigides ne peuvent être pris comme des concepts premiers. Mais plutôt, ceux-ci ont-ils à être examinés en termes d’évènements et de processus. »
Cette idée de grandeurs énergétiques ne pouvant s'échanger que de façon discrète inspirera alors de nombreux physiciens, comme NIELS BOHR, qui s'en serviront notamment pour développer un modèle de la structure de l'atome.

Révolution scientifique. Une notion introduite en histoire des sciences par Thomas Kuhn. Elle désigne des changements discontinus dans l’histoire de la science, à l’occasion de découvertes majeures. Kuhn les associe à l’apparition d'un nouveau paradigme*, ce qui fait ressortir le caractère de rupture avec le passé de la « révolution » en question. Vue sous l’angle des principes* de la science, il s’agit la plupart du temps d’une révision et d’une extension de ces principes où les anciens réapparaissent comme des conséquences des nouveaux, dans un domaine d’application bien spécifié, c’est-à-dire passant du stade de principes à celui de lois*.

Spin. Toujours par référence au modèle planétaire, il était tentant de pousser l’analogie plus loin et de supposer que, puisque la Terre tourne non seulement autour du Soleil, mais également sur elle-même, l’électron devait sans doute faire de même. C’est ce que suggérèrent deux physiciens néerlandais en 1925, en le baptisant spin (de l’anglais to spin : tournoyer), sorte de caractérisation d'un mouvement de rotation sur lui-même. Oui, mais, rien d’un mouvement dans l'espace ! Il se comportait en fait comme un minuscule aimant. Pourquoi donc avoir tourné autour d'une interprétation intuitive impossible alors que le spin est une qualité propre à la particule quantique qui se manifeste lorsque l'atome est soumis à un champ magnétique. Moment cinétique (ou angulaire) intrinsèque des particules, on lui conféra alors une valeur mesurable au même titre que la masse ou la charge électrique (le spin est donc devenu un multiple entier ou demi-entier de la constante de Planck divisée par 2 π). Ainsi, répétons-le, l’électron possède un champ magnétique. Sa valeur est connue avec une grande précision qui vérifie la théorie quantique :
1,001 159 652 21 ± 4      Mesuré
1, 001 159 65246 ± 20    Calculé
Accord très spectaculaire entre théorie et expérience, car cette précision de 4.10-9 représente 1 mm sur 4 000 km. C’est dire que si on mesurait, comme l’indique FEYNMAN, la distance de New-York à Los Angeles avec la même précision, la différence ne dépasserait pas l’épaisseur d’un cheveu.
Enfin, la valeur du spin caractérise les familles de particules. Ont été reconnues jusqu’à aujourd’hui  36 particules :
0,5  FERMIONS : ce sont toutes les particules qui permettent de constituer la matière. Par exemple les électrons, mais aussi les quarks, qui s’assemblent pour former les protons et les neutrons.
BOSONS* : champs vectoriels qui véhiculent les interactions
GRAVITON : particule supposée vecteur de la gravitation.
Dans ce modèle, subsistait cependant un déséquilibre de fond très préjudiciable, né du mélange de physique classique et de physique quantique. Les électrons, en effet, obéissent aux lois de NEWTON tant qu’ils sont sur leur orbite, et aux lois de PLANCK-EINSTEIN quand ils sautent d’une orbite sur une autre. C’est par l’assimilation du corpusculaire à l’ondulatoire* que seront conciliés ces inconciliables. 

Théorème. En mathématiques et en logique, une proposition établie comme vraie en tant que conséquence de la vérité imposée des axiomes* par une démonstration.

Transformée de Fourier. La raison profonde du principe d’incertitude est le fait analogue que la fonction d’onde en impulsion soit la transformée de Fourier de la fonction d’onde en position. On pourrait dire, si on en réfère à la procédure de quantification, que c’est parce que l’opérateur position X et l’opérateur impulsion P ne commutent pas, une propriété qui elle-même est le reflet du fait que la variable de position x et la variable d’impulsion p en mécanique classique ne commutent pas.
Il ajoute, à titre d’exemple que  la décomposition du son en fréquences est également une transformée de Fourier, et ses propriétés mathématiques font qu’il existe une relation nécessaire entre la largeur spectrale et la durée d’un son, qui est à l’origine de l’équivalent « sonore » du principe d’incertitude de Heisenberg : on ne peut pas avoir à la fois un son très pur en fréquence et très court dans le temps.

Trou noir.
Le terme « trou noir » a été inventé par le physicien américain JOHN WHEELER en 1967, pour décrire une concentration de masse-énergie si compacte que même les photons ne peuvent se soustraire à sa force gravitationnelle. Un trou noir est, d'abord et avant tout, caractérisé par l'existence d'un horizon : c'est la surface sphérique dont même la lumière ne peut sortir, et en deçà de laquelle même cette dernière est inexorablement entraînée vers une singularité centrale.
Les trous noirs stellaires se forment à l'occasion de l'effondrement gravitationnel de certaines étoiles massives qui explosent en supernova. On sait qu'il existe des trous noirs dits supermassifs contenant de quelques millions à quelques milliards de masses solaires dans les galaxies, mais l'on ne comprend pas bien comment ils se forment. Il pourrait exister des mini trous noirs issus des phases très primitives de l'univers à sa naissance.

Univers de discours. Voir Champ de propositions.

Variables cachées et particules. Cette interprétation de la mécanique quantique est qualifiée de théorie à variables cachées, bien que ses tenants rejettent cette appellation. JOHN STEWART BELL, le principal bohmien jusqu'aux années 1990, s'exclamait :
« L'absurdité, c'est que ces théories sont appelées des théories « à variables cachées ». C'est une absurdité car ici, ce n'est pas dans la fonction d'onde* que l'on trouve une image du monde visible, et des résultats des expériences, mais dans ces variables « cachées »(!) complémentaires. (...) La plus cachée des variables, dans cette image de l'onde pilote, c'est la fonction d'onde, qui ne se manifeste à nous que par son influence sur les variables complémentaires. »
JEAN BRICMONT a résumé par cette formule la théorie de BOHM :
« Comment la théorie de BOHM échappe-t-elle aux différents théorèmes d'impossibilité ? C'est d'une simplicité déroutante: les "variables cachées" ici sont simplement les positions des particules. C'est une théorie de la matière en mouvement. Jamais aucun argument n'a été avancé pour montrer que l'introduction de ces variables-là était impossible. »

Vérité. En logique, la vérité se caractérise par la possibilité d’attribuer une valeur 1 (vraie) ou 0 (fausse) à une proposition. En logique et en mathématiques, les axiomes* sont posés vrais par hypothèse et les théorèmes* sont des propositions établies comme vraies à l’aide d'une démonstration.
Dans les sciences de la nature, et en particulier en physique, les faits observés sont considérés comme vrais. En mécanique quantique, il existe des propriétés* vraies qui ne sont pas des faits observés directement, mais des conséquences de ces faits (voir Crédible).

Vide quantique. Le fait de décrire la particule non comme un objet classique disposant à tout instant à la fois d’une position et d’une vitesse, décrivant une trajectoire continue mais comme un nuage de probabilité de présence signifie que la particule peut sauter d’un point du nuage à un autre.
Cependant, on peut se demander quelle réalité matérielle recouvre ce nuage de probabilité de présence ?
C’est là qu’il faut raisonner sur ce qui se passe au niveau du vide quantique et plus au niveau des structures du vide que sont les particules disposant d’une masse au repos. Le vide quantique est un milieu matériel dont les particules (et antiparticules) ont une très courte durée de vie, ce qui leur permet se stocker une très grande énergie.


[1] Décomposition de l’énergie de fission (Cas de l’uranium 235)

L'énergie totale libérée lors de la fission ressort égale à 202,8 MeV dont 14,2 MeV sont différés . La partie non récupérable, puisque communiquée aux neutrinos émis, et 9,6 MeV.
En pratique l'énergie récupérable en réacteur de puissance, compte tenu :

  • de l'énergie communiquée aux neutrinos,
  • de la puissance résiduelle restante dans les éléments combustibles déchargés du cœur,
  • de l'énergie des gammas et neutrons dissipée dans les structures entourant le réacteur,

correspond sensiblement à 193,0 MeV par noyau d'uranium 235 fissionné
Dans le cas d'une explosion nucléaire seules les énergies libérées à court terme sont à considérer pour évaluer la puissance.

[2] La théorie de DE BROGLIE sur l'onde pilote, et ses développements ultérieurs par BOHM, ont longtemps été ignorés lors de la formation des physiciens, étant qualifiée de « métaphysique », alors qu'elle remettait en question de manière directe l'interprétation dominante, celle de CopenhagueJOHN BELL, qui a révélé l'importance de la non-localité en physique quantique, l'a souligné :
« Mais alors pourquoi Born ne m’avait pas parlé de cette « onde-pilote » ? Ne serait-ce que pour signaler ce qui n’allait pas avec elle ? Pourquoi VON NEUMANN ne l’a pas envisagée ? Plus extraordinaire encore, pourquoi des gens ont-ils continué à produire des preuves d’impossibilité, après 1952, et aussi récemment qu’en 1978 ? Alors que même PAULI, ROSENFELD, et HEISENBERG, ne pouvaient guère produire de critique plus dévastatrice de la théorie de BOHM que de la dénoncer comme étant « métaphysique » et « idéologique » ? Pourquoi l’image de l’onde-pilote est-elle ignorée dans les cours ? Ne devrait-elle pas être enseignée, non pas comme l’unique solution, mais comme un antidote à l’auto-satisfaction dominante ? Pour montrer que le flou, la subjectivité, et l’indéterminisme, ne nous sont pas imposés de force par les faits expérimentaux, mais proviennent d’un choix théorique délibéré ? »

[3] L’accélération d’un électron qui va engendrer un rayonnement ne se manifeste  qu’au moment d’un saut entre deux états quantiques d’un atome.

[4] Aujourd’hui les progrès de la physique quantique nous permettent de  voir les atomes `a l’aide des microscopes à force atomique ou à effet tunnel*. C’´etait loin d’être le cas à la fin du XIXe siècle et les propriétés du monde atomique ne pouvaient qu’être déduites indirectement d’observations aux échelles macroscopiques. La réalité des atomes était contestée par quelques grands noms de la physique (par exemple ERNST MACH), tenants d’une approche continue opposée à la description atomiste…On peut considérer que la question de l’existence des atomes fut tranchée définitivement par la validation expérimentale, en 1908, par JEAN PERRIN (1870-1942, prix Nobel 1926), de la description du mouvement brownien proposée par EINSTEIN en 1905. Le mouvement erratique d’une petite particule déposée à la surface de l’eau révèle les chocs incessants avec les molécules du liquide.

[5] Essayiste français, auteur d'ouvrages de vulgarisation scientifique ; il a effectué ses études à l'université Columbia, New York puis ses recherches en physique théorique au Courant Institute of  Mathematical Sciences, New York.

[6] Les quantons montrent du discontinu quant à leur quantité (on peut les compter) et du continu quant à leur spatialité (on ne peut pas les localiser en un point).   Leurs hyponymes sont les suivants :
boson : particule possédant un spin entier : les photons et les gluons sont des bosons.
fermion : particule possédant un spin demi-entier : l’électron, le muon, le neutrino et les quarks sont des .fermions.

[7] Il est seulement applicable lorsque le nombre de particules-quantons atteint un certain seuil.

 


Date de création : 09/04/2016 @ 15:27
Dernière modification : 08/05/2017 @ 20:55
Catégorie : Philosophie et science
Page lue 2068 fois


Réactions à cet article

Personne n'a encore laissé de commentaire.
Soyez donc le premier !


^ Haut ^