Équations de mécanique quantique et signification des nombres. Principes de la mécanique quantique

Vous l'avez probablement entendu plusieurs fois sur les mystères inexplicables de la physique quantique et de la mécanique quantique. Ses lois fascinent le mysticisme, et même les physiciens eux-mêmes admettent ne pas les comprendre pleinement. D'une part, il est intéressant de comprendre ces lois, mais d'autre part, on n'a pas le temps de lire des livres de physique complexes et en plusieurs volumes. Je vous comprends très bien, car j'aime aussi la connaissance et la recherche de la vérité, mais il n'y a malheureusement pas assez de temps pour tous les livres. Vous n'êtes pas seuls, de nombreux curieux tapent dans la barre de recherche : "physique quantique pour les nuls, mécanique quantique pour les nuls, physique quantique pour débutants, mécanique quantique pour débutants, bases de physique quantique, bases de mécanique quantique, physique quantique pour enfants, qu'est-ce que la mécanique quantique"..

Cette publication est exactement pour vous

  • Vous comprendrez les concepts de base et les paradoxes de la physique quantique. De l'article, vous apprendrez :
  • Qu'est-ce que la physique quantique et la mécanique quantique ?
  • Qu’est-ce que l’interférence ?
  • Qu’est-ce que l’intrication quantique (ou téléportation quantique pour les nuls) ? (voir article)

Qu'est-ce que l'expérience de pensée du chat de Schrödinger ? (voir article)

La mécanique quantique fait partie de la physique quantique.

Pourquoi est-il si difficile de comprendre ces sciences ? La réponse est simple : la physique quantique et la mécanique quantique (qui fait partie de la physique quantique) étudient les lois du micromonde. Et ces lois sont absolument différentes des lois de notre macrocosme. Il nous est donc difficile d’imaginer ce qui arrive aux électrons et aux photons dans le microcosme. Un exemple de la différence entre les lois des macro- et micromondes

: dans notre macromonde, si vous mettez une balle dans l'une des 2 cases, alors l'une d'elles sera vide, et l'autre aura une balle. Mais dans le microcosme (s’il y a un atome au lieu d’une boule), un atome peut être dans deux cases à la fois. Cela a été confirmé expérimentalement à plusieurs reprises. N'est-il pas difficile de comprendre cela ? Mais on ne peut pas contester les faits. Un autre exemple. Vous avez pris une photo d'une voiture de sport rouge de course rapide et sur la photo vous avez vu une bande horizontale floue, comme si la voiture était située à plusieurs points de l'espace au moment de la photo. Malgré ce que vous voyez sur la photo, vous êtes toujours sûr que la voiture était localisée à la seconde où vous l'avez photographiée.. Dans le micromonde, tout est différent. Un électron qui tourne autour du noyau d’un atome ne tourne pas réellement, mais est localisé simultanément en tous les points de la sphère autour du noyau d'un atome. Comme une pelote de laine moelleuse enroulée de manière lâche. Ce concept en physique s'appelle "nuage électronique" .

Une petite excursion dans l'histoire. Les scientifiques ont pensé pour la première fois au monde quantique lorsque, en 1900, le physicien allemand Max Planck a tenté de comprendre pourquoi les métaux changeaient de couleur lorsqu'ils étaient chauffés. C'est lui qui a introduit le concept de quantique. Jusqu’alors, les scientifiques pensaient que la lumière voyageait continuellement. La première personne à prendre au sérieux la découverte de Planck fut Albert Einstein, alors inconnu. Il s’est rendu compte que la lumière n’est pas qu’une onde. Parfois, il se comporte comme une particule. Einstein a reçu le prix Nobel pour sa découverte selon laquelle la lumière est émise par portions, quanta. Un quantum de lumière s’appelle un photon ( photon, Wikipédia) .

Pour faciliter la compréhension des lois du quantique physiciens Et mécanique (Wikipédia), nous devons, en un sens, faire abstraction des lois de la physique classique qui nous sont familières. Et imaginez que vous avez plongé, comme Alice, dans le terrier du lapin, au pays des merveilles.

Et voici un dessin animé pour enfants et adultes. Décrit l'expérience fondamentale de la mécanique quantique avec 2 fentes et un observateur. Ne dure que 5 minutes. Regardez-le avant de plonger dans les questions et concepts fondamentaux de la physique quantique.

Vidéo sur la physique quantique pour les nuls. Dans le dessin animé, faites attention à « l’œil » de l’observateur. C’est devenu un sérieux mystère pour les physiciens.

Qu'est-ce que la physique quantique et la mécanique quantique ?

Au début du dessin animé, en utilisant l'exemple d'un liquide, il a été montré comment se comportent les vagues - des rayures verticales alternées sombres et claires apparaissent sur l'écran derrière une plaque avec des fentes. Et dans le cas où des particules discrètes (par exemple des cailloux) sont « projetées » sur la plaque, elles volent à travers 2 fentes et atterrissent sur l'écran juste en face des fentes. Et ils ne « dessinent » que 2 bandes verticales sur l'écran.

Interférence de la lumière- Il s'agit du comportement « ondulatoire » de la lumière, lorsque de nombreuses bandes verticales alternées, claires et sombres, sont affichées sur l'écran. Aussi ces rayures verticales appelé motif d'interférence.

Dans notre macrocosme, on observe souvent que la lumière se comporte comme une onde. Si vous placez votre main devant une bougie, il n'y aura pas sur le mur une ombre claire de votre main, mais avec des contours flous.

Alors, ce n’est pas si compliqué ! Il est maintenant tout à fait clair pour nous que la lumière a une nature ondulatoire et si 2 fentes sont éclairées par la lumière, alors sur l'écran derrière elles, nous verrons un motif d'interférence.

Examinons maintenant la 2ème expérience. Il s'agit de la célèbre expérience Stern-Gerlach (réalisée dans les années 20 du siècle dernier).

L’installation décrite dans le dessin animé n’a pas été éclairée par la lumière, mais « filmée » par des électrons (sous forme de particules individuelles). Puis, au début du siècle dernier, les physiciens du monde entier pensaient que les électrons étaient des particules élémentaires de la matière et ne devraient pas avoir une nature ondulatoire, mais la même que celle des cailloux. Après tout, les électrons sont des particules élémentaires de la matière, n’est-ce pas ? Autrement dit, si vous les « jetez » dans 2 fentes, comme des cailloux, alors sur l'écran derrière les fentes, nous devrions voir 2 bandes verticales.

Mais... Le résultat était époustouflant. Les scientifiques ont vu un motif d'interférence - de nombreuses bandes verticales. Autrement dit, les électrons, comme la lumière, peuvent également avoir une nature ondulatoire et interférer. D'un autre côté, il est devenu clair que la lumière n'est pas seulement une onde, mais aussi une particule - un photon (du contexte historique au début de l'article, nous avons appris qu'Einstein a reçu le prix Nobel pour cette découverte) . Vous vous souvenez peut-être qu'à l'école, on nous parlait en physique de"dualité onde-particule" ? Cela signifie que lorsque nous parlons de très petites particules (atomes, électrons) du microcosme, alors

Ce sont à la fois des ondes et des particules

Aujourd'hui, vous et moi sommes si intelligents et nous comprenons que les 2 expériences décrites ci-dessus - tirer avec des électrons et éclairer des fentes avec de la lumière - sont la même chose. Parce que nous projetons des particules quantiques vers les fentes. Nous savons maintenant que la lumière et les électrons sont de nature quantique, qu’ils sont à la fois des ondes et des particules. Et au début du XXe siècle, les résultats de cette expérience ont fait sensation.

Attention! Passons maintenant à une question plus subtile.

Nous projetons un flux de photons (électrons) sur nos fentes et voyons un motif d'interférence (rayures verticales) derrière les fentes de l'écran. C'est clair. Mais nous souhaitons voir comment chacun des électrons traverse la fente.

Nous ne lancerons pas les électrons dans un faisceau, mais un à la fois. Lançons-le, attendez, lançons le suivant. Maintenant que l’électron vole seul, il ne pourra plus interagir avec les autres électrons sur l’écran. Nous enregistrerons chaque électron sur l'écran après le lancer. Un ou deux, bien sûr, ne nous « brosseront » pas un tableau clair. Mais lorsque nous en enverrons un grand nombre dans les fentes, un à la fois, nous remarquerons... oh horreur - ils ont encore une fois « dessiné » un motif d'ondes d'interférence !

Nous commençons lentement à devenir fous. Après tout, on s'attendait à ce qu'il y ait 2 bandes verticales en face des emplacements ! Il s'avère que lorsque nous avons lancé des photons un par un, chacun d'eux est passé, pour ainsi dire, à travers 2 fentes en même temps et a interféré avec lui-même.

Fantastique! Revenons à l'explication de ce phénomène dans la section suivante.

Que sont le spin et la superposition ?

Nous savons désormais ce qu'est une interférence. Il s'agit du comportement ondulatoire des microparticules - photons, électrons, autres microparticules (pour plus de simplicité, appelons-les désormais photons).

À la suite de l'expérience, lorsque nous avons lancé 1 photon dans 2 fentes, nous avons réalisé qu'il semblait voler à travers deux fentes en même temps. Sinon, comment expliquer le motif d’interférence sur l’écran ?

  • Mais comment imaginer un photon volant à travers deux fentes en même temps ? Il y a 2 options. 1ère option :
  • un photon, comme une vague (comme l'eau) « flotte » à travers 2 fentes en même temps 2ème possibilité :

un photon, comme une particule, vole simultanément selon 2 trajectoires (même pas deux, mais toutes à la fois)

En principe, ces déclarations sont équivalentes. Nous sommes arrivés au « chemin intégral ». C'est la formulation de la mécanique quantique par Richard Feynman. D'ailleurs, exactement Richard Feynman il existe une expression bien connue selon laquelle

Nous pouvons affirmer avec certitude que personne ne comprend la mécanique quantique

Mais cette expression a fonctionné au début du siècle. Mais maintenant, nous sommes intelligents et savons qu’un photon peut se comporter à la fois comme une particule et comme une onde. Qu'il peut, d'une manière ou d'une autre incompréhensible pour nous, voler à travers 2 fentes en même temps. Par conséquent, il nous sera facile de comprendre l’énoncé important suivant de la mécanique quantique :

À proprement parler, la mécanique quantique nous dit que ce comportement des photons est la règle et non l’exception. Toute particule quantique se trouve, en règle générale, dans plusieurs états ou en plusieurs points de l'espace simultanément.

Il faut simplement accepter, comme axiome, que la « superposition » d'un objet quantique signifie qu'il peut être sur 2 ou plusieurs trajectoires en même temps, en 2 ou plusieurs points en même temps.

Il en va de même pour un autre paramètre du photon : le spin (son propre moment cinétique). Le spin est un vecteur. Un objet quantique peut être considéré comme un aimant microscopique. Nous sommes habitués au fait que le vecteur aimant (spin) est dirigé vers le haut ou vers le bas. Mais l'électron ou le photon nous dit encore : « Les gars, peu nous importe ce à quoi vous êtes habitués, nous pouvons être dans les deux états de spin à la fois (vecteur haut, vecteur bas), tout comme nous pouvons être sur 2 trajectoires à la fois. en même temps ou à 2 points en même temps !

Qu'est-ce que la « mesure » ou « l'effondrement de la fonction d'onde » ?

Il ne nous reste plus grand-chose pour comprendre ce qu’est la « mesure » et ce qu’est « l’effondrement de la fonction d’onde ».

Fonction d'onde est une description de l’état d’un objet quantique (notre photon ou électron).

Supposons que nous ayons un électron, il vole vers lui-même dans un état indéfini, sa rotation est dirigée vers le haut et vers le bas en même temps. Il faut mesurer son état.

Mesurons à l'aide d'un champ magnétique : les électrons dont le spin était dirigé dans la direction du champ dévieront dans un sens, et les électrons dont le spin est dirigé contre le champ - dans l'autre. Plus de photons peuvent être dirigés vers un filtre polarisant. Si le spin (polarisation) du photon est de +1, il passe à travers le filtre, mais s'il est de -1, ce n'est pas le cas.

Arrêt! Ici, vous vous poserez inévitablement une question : Avant la mesure, l’électron n’avait pas de direction de spin spécifique, n’est-ce pas ? Il était dans tous les États en même temps, n'est-ce pas ?

C'est l'astuce et la sensation de la mécanique quantique. Tant que vous ne mesurez pas l'état d'un objet quantique, il peut tourner dans n'importe quelle direction (avoir n'importe quelle direction du vecteur de son propre moment cinétique - spin). Mais au moment où vous mesurez son état, il semble prendre une décision sur le vecteur de rotation à accepter.

Cet objet quantique est tellement cool qu'il prend des décisions concernant son état. Et nous ne pouvons pas prédire à l’avance quelle décision il prendra lorsqu’il entrera dans le champ magnétique dans lequel nous le mesurons. La probabilité qu'il décide d'avoir un vecteur spin « haut » ou « bas » est de 50 à 50 %. Mais dès qu’il se décide, il se trouve dans un certain état avec une direction de rotation spécifique. La raison de sa décision est notre « dimension » !

C'est ce qu'on appelle " effondrement de la fonction d'onde". La fonction d'onde avant la mesure était incertaine, c'est-à-dire le vecteur spin de l'électron était simultanément dans toutes les directions ; après la mesure, l'électron a enregistré une certaine direction de son vecteur spin.

Attention! Un excellent exemple de compréhension est une association de notre macrocosme :

Faites tourner une pièce sur la table comme une toupie. Pendant que la pièce tourne, elle n'a pas de signification spécifique - pile ou face. Mais dès que vous décidez de « mesurer » cette valeur et de frapper la pièce avec votre main, vous obtenez alors l’état spécifique de la pièce – pile ou face. Imaginez maintenant que cette pièce décide quelle valeur vous « montrer » – pile ou face. L’électron se comporte à peu près de la même manière.

Souvenez-vous maintenant de l’expérience présentée à la fin du dessin animé. Lorsque les photons passaient à travers les fentes, ils se comportaient comme une onde et présentaient un motif d’interférence sur l’écran. Et lorsque les scientifiques ont voulu enregistrer (mesurer) le moment des photons volant à travers la fente et ont placé un « observateur » derrière l'écran, les photons ont commencé à se comporter non pas comme des ondes, mais comme des particules. Et ils ont « dessiné » 2 bandes verticales sur l'écran. Ceux. au moment de la mesure ou de l’observation, les objets quantiques choisissent eux-mêmes dans quel état ils doivent se trouver.

Fantastique! N'est-ce pas vrai ?

Mais ce n'est pas tout. Finalement nous Nous sommes arrivés à la partie la plus intéressante.

Mais... il me semble qu'il y aura une surcharge d'informations, nous allons donc considérer ces 2 concepts dans des posts séparés :

  • Ce qui s'est passé ?
  • Qu'est-ce qu'une expérience de pensée ?

Maintenant, voulez-vous que les informations soient triées ? Regardez le documentaire produit par l'Institut canadien de physique théorique. Dans ce document, en 20 minutes, vous découvrirez très brièvement et par ordre chronologique toutes les découvertes de la physique quantique, à commencer par la découverte de Planck en 1900. Et puis ils vous diront quels développements pratiques sont actuellement réalisés sur la base des connaissances en physique quantique : des horloges atomiques les plus précises aux calculs ultra-rapides d'un ordinateur quantique. Je recommande fortement de regarder ce film.

À bientôt!

Je souhaite à tous de l'inspiration pour tous leurs plans et projets !

P.S.2 Écrivez vos questions et réflexions dans les commentaires. Écrivez, quelles autres questions sur la physique quantique vous intéressent ?

P.S.3 Abonnez-vous au blog - le formulaire d'abonnement se trouve sous l'article.

MÉCANIQUE QUANTIQUE, une section de la physique théorique, qui est un système de concepts et d'appareils mathématiques nécessaires pour décrire les phénomènes physiques provoqués par l'existence dans la nature du plus petit quantum d'action h (constante de Planck). La valeur numérique h = 6,62607∙10ˉ 34 J∙s (et une autre valeur souvent utilisée ħ = h/2π = 1,05457∙10ˉ 34 J∙s) est extrêmement petite, mais le fait qu'elle soit finie distingue fondamentalement les phénomènes quantiques de tous. d'autres et détermine leurs principales caractéristiques. Les phénomènes quantiques comprennent les processus de rayonnement, les phénomènes de physique atomique et nucléaire, la physique de la matière condensée, les liaisons chimiques, etc.

L'histoire de la création de la mécanique quantique. Historiquement, le premier phénomène pour expliquer lequel le concept de quantum d'action h a été introduit en 1900 était le spectre de rayonnement d'un corps absolument noir, c'est-à-dire la dépendance de l'intensité du rayonnement thermique sur sa fréquence v et la température T. du corps chauffé. Initialement, le lien entre ce phénomène et les processus se produisant dans l'atome n'était pas clair ; À cette époque, l’idée de l’atome lui-même n’était généralement pas acceptée, même si l’on connaissait déjà des observations faisant état d’une structure intra-atomique complexe.

En 1802, Wollaston découvrit des raies spectrales étroites dans le spectre du rayonnement solaire, qui furent décrites en détail par J. Fraunhofer en 1814. En 1859, G. Kirchhoff et R. Bunsen ont établi que chaque élément chimique possède un ensemble individuel de raies spectrales, et le scientifique suisse I. Ya Balmer (1885), le physicien suédois J. Rydberg (1890) et le scientifique allemand W. Ritz (1908) a découvert certains modèles à leur emplacement. En 1896, P. Zeeman observe la division des raies spectrales dans un champ magnétique (effet Zeeman), que H. A. Lorentz explique l'année suivante par le mouvement d'un électron dans un atome. L'existence de l'électron a été prouvée expérimentalement en 1897 par J. J. Thomson.

Les théories physiques existantes se sont révélées insuffisantes pour expliquer les lois de l'effet photoélectrique : il s'est avéré que l'énergie des électrons émis par une substance lorsqu'elle est irradiée par la lumière ne dépend que de la fréquence de la lumière v, et non de son intensité (A. G. Stoletov , 1889 ; F. von Lenard, 1904). Ce fait contredisait complètement la nature ondulatoire généralement acceptée de la lumière à cette époque, mais s'expliquait naturellement par l'hypothèse selon laquelle la lumière se propage sous la forme de quanta d'énergie E = hv (A. Einstein, 1905), appelés plus tard photons (G. Lewis, 1926).

Dix ans après la découverte de l’électron, plusieurs modèles de l’atome ont été proposés, mais n’ont pas été étayés par des expériences. En 1909-11, E. Rutherford, étudiant la diffusion des particules alpha sur les atomes, établit l'existence d'un noyau compact chargé positivement dans lequel est concentrée la quasi-totalité de la masse de l'atome. Ces expériences sont devenues la base du modèle planétaire de l’atome : un noyau chargé positivement autour duquel tournent des électrons chargés négativement. Ce modèle contredisait cependant le fait de la stabilité de l'atome, puisque de l'électrodynamique classique il découlait qu'après un temps de l'ordre de 10 -9 s, l'électron en rotation tomberait sur le noyau, perdant de l'énergie à cause du rayonnement.

En 1913, N. Bohr suggérait que la stabilité de l'atome planétaire s'expliquait par la finitude du quantum d'action h. Il a postulé qu'il existe des orbites stationnaires dans l'atome dans lesquelles l'électron ne rayonne pas (premier postulat de Bohr), et a isolé ces orbites de toutes les orbites possibles par la condition de quantification : 2πmυr = nh, où m est la masse de l'électron, υ est sa vitesse orbitale, r est la distance au noyau, n= 1,2,3,... - nombres entiers. A partir de cette condition, Bohr a déterminé les énergies E n = -me 4 /2ħ 2 n 2 (e est la charge électrique de l'électron) des états stationnaires, ainsi que le diamètre de l'atome d'hydrogène (environ 10 -8 cm) - en totale conformité avec les conclusions de la théorie cinétique de la matière.

Le deuxième postulat de Bohr affirmait que le rayonnement se produit uniquement lors des transitions électroniques d'une orbite stationnaire à une autre, et que la fréquence de rayonnement v nk des transitions de l'état E n à l'état E k est égale à v nk = (E k - E n)/ h (voir Physique atomique ). La théorie de Bohr expliquait naturellement les configurations du spectre des atomes, mais ses postulats étaient en contradiction évidente avec la mécanique classique et la théorie du champ électromagnétique.

En 1922, A. Compton, étudiant la diffusion des rayons X par les électrons, établit que les quanta d'énergie des rayons X incidents et diffusés se comportent comme des particules. En 1923, C. T. R. Wilson et D. V. Skobeltsyn observaient un électron de recul dans cette réaction et confirmaient ainsi la nature corpusculaire des rayons X (rayonnement nucléaire). Ceci contredit cependant les expériences de M. Laue, qui observa en 1912 la diffraction des rayons X et prouva ainsi leur nature ondulatoire.

En 1921, le physicien allemand K. Ramsauer découvrit qu'à une certaine énergie, les électrons traversent les gaz pratiquement sans diffusion, comme les ondes lumineuses dans un milieu transparent. Ce fut la première preuve expérimentale des propriétés ondulatoires de l'électron, dont la réalité fut confirmée en 1927 par des expériences directes de K. J. Davisson, L. Germer et J. P. Thompson.

En 1923, L. de Broglie introduit le concept d'ondes de matière : chaque particule de masse m et de vitesse υ peut être associée à une onde de longueur λ = h/mυ, tout comme chaque onde de fréquence v = c/λ peut être associée avec une particule d'énergie E = hv. Une généralisation de cette hypothèse, connue sous le nom de dualité onde-particule, est devenue le fondement et le principe universel de la physique quantique. Son essence est que les mêmes objets d'étude se manifestent de deux manières : soit sous forme de particule, soit sous forme d'onde, selon les conditions de leur observation.

Les relations entre les caractéristiques d'une onde et d'une particule ont été établies avant même la création de la mécanique quantique : E = hv (1900) et λ = h/mυ = h/р (1923), où la fréquence v et la longueur d'onde λ sont les caractéristiques des ondes. , et énergie E et masse m, vitesse υ et élan p = mυ - caractéristiques de la particule ; la connexion entre ces deux types de caractéristiques s'effectue grâce à la constante de Planck h. Les relations de dualité s'expriment le plus clairement à travers la fréquence circulaire ω = 2πν et le vecteur d'onde k = 2π/λ :

E = ħω, p = ħk.

Une illustration claire de la dualité onde-particule est présentée sur la figure 1 : les anneaux de diffraction observés en diffusion d'électrons et de rayons X sont presque identiques.

La mécanique quantique – la base théorique de toute physique quantique – a été créée en moins de trois ans. En 1925, W. Heisenberg, s'appuyant sur les idées de Bohr, propose la mécanique matricielle qui, à la fin de la même année, acquiert la forme d'une théorie complète dans les travaux de M. Born, du physicien allemand P. Jordan et P. Dirac. Les principaux objets de cette théorie étaient des matrices d'un type spécial qui, en mécanique quantique, représentent les grandeurs physiques de la mécanique classique.

En 1926, E. Schrödinger, basé sur les idées de L. de Broglie sur les ondes de la matière, propose la mécanique des ondes, où le rôle principal est joué par la fonction d'onde de l'état quantique, qui obéit à une équation différentielle du 2ème ordre avec une limite donnée conditions. Les deux théories expliquaient également bien la stabilité de l’atome planétaire et permettaient de calculer ses principales caractéristiques. La même année, M. Born proposa une interprétation statistique de la fonction d'onde, Schrödinger (ainsi que W. Pauli et d'autres, indépendamment) prouva l'équivalence mathématique de la mécanique matricielle et ondulatoire, et Born, avec N. Wiener, introduisit la concept d'opérateur de grandeur physique.

En 1927, W. Heisenberg découvre la relation d'incertitude et N. Bohr formule le principe de complémentarité. La découverte du spin électronique (J. Uhlenbeck et S. Goudsmit, 1925) et la dérivation de l'équation de Pauli, qui prend en compte le spin électronique (1927), ont complété le schéma logique et informatique de la mécanique quantique non relativiste, et P. Dirac et J. von Neumann ont présenté la mécanique quantique comme une théorie indépendante conceptuellement complète basée sur un ensemble limité de concepts et de postulats, tels que l'opérateur, le vecteur d'état, l'amplitude de probabilité, la superposition d'états, etc.

Concepts de base et formalisme de la mécanique quantique. L'équation fondamentale de la mécanique quantique est l'équation des ondes de Schrödinger, dont le rôle est similaire à celui des équations de Newton en mécanique classique et des équations de Maxwell en électrodynamique. Dans l'espace des variables x (coordonnée) et t (temps) il a la forme

où H est l'opérateur de Hamilton ; sa forme coïncide avec l'opérateur de Hamilton de la mécanique classique, dans lequel la coordonnée x et l'impulsion p sont remplacées par les opérateurs x et p de ces variables, c'est-à-dire

où V(x) est l'énergie potentielle du système.

Contrairement à l'équation de Newton, à partir de laquelle on trouve la trajectoire observée x(t) d'un point matériel se déplaçant dans le champ de forces potentielles V(x), à partir de l'équation de Schrödinger on trouve la fonction d'onde inobservable ψ(x) d'un système quantique, à l'aide duquel on peut cependant calculer les valeurs de toutes les grandeurs mesurables. Immédiatement après la découverte de l'équation de Schrödinger, M. Born expliqua la signification de la fonction d'onde : |ψ(x)| 2 est la densité de probabilité, et |ψ(x)| 2 ·Δx - probabilité de détecter un système quantique dans l'intervalle Δx des valeurs de coordonnées x.

Chaque grandeur physique (variable dynamique de la mécanique classique) en mécanique quantique est associée à un observable a et à l'opérateur hermitien correspondant Â, qui dans la base choisie de fonctions complexes |i> = f i (x) est représenté par la matrice

où f*(x) est une fonction complexe conjuguée à la fonction f (x).

La base orthogonale dans cet espace est l'ensemble des fonctions propres |n) = f n (x)), n = 1,2,3, pour lesquelles l'action de l'opérateur  se réduit à la multiplication par un nombre (la valeur propre a n de l'espace opérateur Â ):

La base des fonctions |n) est normalisée par la condition pour n = n’, pour n ≠ n’.

et le nombre de fonctions de base (contrairement aux vecteurs de base de l'espace tridimensionnel de la physique classique) est infini, et l'indice n peut changer à la fois de manière discrète et continue. Toutes les valeurs possibles d'un observable a sont contenues dans l'ensemble (a n ) des valeurs propres de l'opérateur correspondant Â, et seules ces valeurs peuvent devenir les résultats de mesures.

L'objet principal de la mécanique quantique est le vecteur d'état |ψ), qui peut être développé en fonctions propres |n) de l'opérateur sélectionné  :

où ψ n est l'amplitude de probabilité (fonction d'onde) de l'état |n), et |ψ n | 2 est égal au poids de l’état n dans le développement |ψ), et

c'est-à-dire que la probabilité totale de trouver le système dans l'un des états quantiques n est égale à un.

En mécanique quantique de Heisenberg, les opérateurs  et leurs matrices correspondantes obéissent aux équations

où |Â,Ĥ|=ÂĤ - Ĥ est le commutateur des opérateurs  et Ĥ. Contrairement au schéma de Schrödinger, où la fonction d'onde ψ dépend du temps, dans le schéma de Heisenberg, la dépendance temporelle est attribuée à l'opérateur Â. Les deux approches sont mathématiquement équivalentes, mais dans de nombreuses applications de la mécanique quantique, l’approche de Schrödinger s’est avérée préférable.

La valeur propre de l'opérateur de Hamilton Ĥ est l'énergie totale du système E, indépendante du temps, qui se trouve comme solution de l'équation stationnaire de Schrödinger

Ses solutions sont divisées en deux types selon le type de conditions aux limites.

Pour un état localisé, la fonction d'onde satisfait la condition aux limites naturelle ψ(∞) = 0. Dans ce cas, l'équation de Schrödinger n'a de solution que pour un ensemble discret d'énergies E n, n = 1,2,3,.. ., qui correspondent aux fonctions d'onde ψ n ( r) :

Un exemple d’état localisé est l’atome d’hydrogène. Son hamiltonien Ĥ a la forme

où Δ = ∂ 2 /∂х 2 + ∂ 2 /∂у 2 + ∂ 2 /∂z 2 est l'opérateur de Laplace, e 2 /r est le potentiel d'interaction de l'électron et du noyau, r est la distance du noyau à l'électron, et les valeurs propres de l'énergie E n calculées à partir de l'équation de Schrödinger coïncident avec les niveaux d'énergie de l'atome de Bohr.

L'exemple le plus simple d'un état non localisé est le libre mouvement unidimensionnel d'un électron avec une impulsion p. Cela correspond à l'équation de Schrödinger

dont la solution est une onde plane

où dans le cas général C = |C|exp(iφ) est une fonction complexe, |C| et φ - son module et sa phase. Dans ce cas, l'énergie électronique E = p 2 /2m, et l'indice p de la solution ψ p (x) prend une série continue de valeurs.

Les opérateurs de coordonnées et d'impulsion (et toute autre paire de variables canoniquement conjuguées) obéissent à la relation de commutation :

Il n’existe pas de base commune de fonctions propres pour des paires de tels opérateurs, et les grandeurs physiques correspondantes ne peuvent pas être déterminées simultanément avec une précision arbitraire. De la relation de commutation pour les opérateurs x̂ et p̂, il s'ensuit que la précision Δх et Δр de la détermination de la coordonnée x et de son impulsion conjuguée p d'un système quantique (relation d'incertitude de Heisenberg) suit :

De là, en particulier, découle immédiatement la conclusion sur la stabilité de l'atome, puisque la relation Δх = Δр = 0, correspondant à l'incidence d'un électron sur le noyau, est interdite dans ce schéma.

L'ensemble des grandeurs simultanément mesurables caractérisant un système quantique est représenté par un ensemble d'opérateurs

faisant la navette entre eux, c'est-à-dire satisfaisant les relations А̂В̂ - В̂А̂ = А̂С̂ - С̂А̂ = В̂С̂ - С̂В̂ =... = 0. Pour un atome d'hydrogène non relativiste, un tel ensemble est constitué, par exemple, des opérateurs : Ĥ ( opérateur d'énergie totale), (carré du moment de l'opérateur) et (composante z de l'opérateur du moment). Le vecteur d'état atomique est défini comme l'ensemble des fonctions propres communes ψ i (r) de tous les opérateurs

qui sont numérotés par un ensemble (i) = (nlm) de nombres quantiques d'énergie (n = 1,2,3,...), de moment orbital (l = 0,1,..., n - 1) et de sa projection sur l'axe z (m = -l,...,-1,0,1,...,l). Fonctions |ψ je (r)| 2 peut être conventionnellement considéré comme la forme d'un atome dans divers états quantiques i (les soi-disant silhouettes blanches).

La valeur d'une grandeur physique (mécanique quantique observable) est définie comme la valeur moyenne  de son opérateur correspondant  :

Cette relation est valable pour les états purs, c'est-à-dire pour les systèmes quantiques isolés. Dans le cas général des états mixtes, nous avons toujours affaire à un grand ensemble (ensemble statistique) de systèmes identiques (par exemple des atomes) dont les propriétés sont déterminées par moyenne sur cet ensemble. Dans ce cas, la valeur moyenne  de l'opérateur  prend la forme

où p nm est la matrice de densité (LD Landau ; J. von Neumann, 1929) avec la condition de normalisation ∑ n ρ pp = 1. Le formalisme de la matrice de densité nous permet de combiner la moyenne mécanique quantique sur les états et la moyenne statistique sur un ensemble. La matrice de densité joue également un rôle important dans la théorie des mesures quantiques, dont l'essence réside toujours dans l'interaction des sous-systèmes quantiques et classiques. Le concept de matrice de densité est la base de la statistique quantique et la base de l'une des formulations alternatives de la mécanique quantique. Une autre forme de mécanique quantique, basée sur le concept d'intégrale de chemin (ou intégrale de chemin), a été proposée par R. Feynman en 1948.

Principe de correspondance. La mécanique quantique a de profondes racines dans la mécanique classique et statistique. Déjà dans son premier ouvrage, N. Bohr avait formulé le principe de correspondance, selon lequel les relations quantiques devraient se transformer en relations classiques pour les grands nombres quantiques n. P. Ehrenfest montra en 1927 que, compte tenu des équations de la mécanique quantique, la valeur moyenne  de l'opérateur  satisfait l'équation du mouvement de la mécanique classique. Le théorème d'Ehrenfest est un cas particulier du principe général de correspondance : à la limite h → 0, les équations de la mécanique quantique se transforment en équations de la mécanique classique. En particulier, l'équation des ondes de Schrödinger dans la limite h → 0 se transforme en une équation d'optique géométrique pour la trajectoire d'un faisceau lumineux (et de tout rayonnement) sans tenir compte de ses propriétés ondulatoires. En représentant la solution ψ(x) de l'équation de Schrödinger sous la forme ψ(x) = exp(iS/ħ), où S = ∫ p(x)dx est un analogue de l'intégrale d'action classique, on peut vérifier que dans la limite ħ → 0 la fonction S satisfait l'équation classique de Hamilton-Jacobi. De plus, dans la limite h → 0, les opérateurs x̂ et p̂ commutent et les valeurs correspondantes de coordonnée et de quantité de mouvement peuvent être déterminées simultanément, comme cela est supposé en mécanique classique.

Les analogies les plus significatives entre les relations de la mécanique classique et quantique pour les mouvements périodiques peuvent être tracées sur le plan de phase des variables canoniquement conjuguées, par exemple la coordonnée x et l'impulsion p du système. Les intégrales du type ∮р(х)dx, empruntées le long d'une trajectoire fermée (invariants intégraux de Poincaré), sont connues dans la préhistoire de la mécanique quantique sous le nom d'invariants adiabatiques d'Ehrenfest. A. Sommerfeld les a utilisés pour décrire les lois quantiques dans le langage de la mécanique classique, notamment pour la quantification spatiale de l'atome et l'introduction des nombres quantiques l et m (c'est lui qui a introduit ce terme en 1915).

La dimension de l'intégrale de phase ∮pdx coïncide avec la dimension de la constante de Planck h, et en 1911 A. Poincaré et M. Planck proposent de considérer le quantum d'action h comme le volume minimum de l'espace des phases, dont le nombre n de cellules est un multiple de h : n = ∮pdx/h. En particulier, lorsqu'un électron se déplace le long d'une trajectoire circulaire avec une impulsion constante p, de la relation n = ∮р(х)dx/h = р ∙ 2πr/h la condition de quantification de Bohr suit immédiatement : mυr=nħ (P. Debye , 1913).

Cependant, dans le cas d'un mouvement unidimensionnel dans le potentiel V(x) = mω 2 0 x 2 /2 (oscillateur harmonique de fréquence propre ω 0), la condition de quantification ∮р(х)dx = nh implique un certain nombre de valeurs d'énergie E n = ħω 0 n, tandis que la solution exacte des équations quantiques pour l'oscillateur conduit à la séquence E n = ħω 0 (n + 1/2). Ce résultat de la mécanique quantique, obtenu pour la première fois par W. Heisenberg, est fondamentalement différent du résultat approximatif par la présence d'une énergie d'oscillation du point zéro E 0 = ħω 0 /2, qui a une nature purement quantique : l'état de repos (x = 0, p = 0) est interdite en mécanique quantique, car elle contredit la relation d'incertitude Δх∙ Δр ≥ ħ/2.

Le principe de superposition d'états et d'interprétation probabiliste. La contradiction principale et évidente entre les images corpusculaires et ondulatoires des phénomènes quantiques a été éliminée en 1926, après que M. Born a proposé d'interpréter la fonction d'onde complexe ψ n (x) = |ψ n (x)|·exp(iφ n) comme la probabilité d'état d'amplitude n et le carré de son module |ψ n (x)| 2 - comme densité de probabilité de détection de l'état n au point x. Un système quantique peut être dans divers états, y compris alternatifs, et son amplitude de probabilité est égale à une combinaison linéaire des amplitudes de probabilité de ces états : ψ = ψ 1 + ψ 2 + ...

La densité de probabilité de l'état résultant est égale au carré de la somme des amplitudes de probabilité, et non à la somme des carrés des amplitudes, comme c'est le cas en physique statistique :

Ce postulat - le principe de superposition d'états - est l'un des concepts les plus importants du système de mécanique quantique ; cela a de nombreuses conséquences observables. L’un d’eux, à savoir le passage d’un électron à travers deux fentes rapprochées, est plus souvent évoqué que les autres (Fig. 2). Un faisceau d'électrons tombe de la gauche, traverse les fentes de la cloison et est ensuite enregistré sur l'écran (ou la plaque photographique) de droite. Si nous fermons chacun des emplacements un par un, alors sur l'écran de droite, nous verrons l'image d'un emplacement ouvert. Mais si nous ouvrons les deux fentes en même temps, alors au lieu de deux fentes nous verrons un système de franges d'interférence dont l'intensité est décrite par l'expression :

Le dernier terme de cette somme représente l'interférence de deux ondes de probabilité arrivant en un point donné de l'écran depuis différentes fentes de la cloison, et dépend de la différence de phase des fonctions d'onde Δφ = φ 1 - φ 2. Dans le cas d'amplitudes égales |ψ 1 | = |ψ 2 | :

c'est-à-dire que l'intensité de l'image des fentes en différents points de l'écran varie de 0 à 4|ψ 1 | 2 - en fonction du changement de différence de phase Δφ de 0 à π/2. En particulier, il se peut qu'avec deux fentes ouvertes à la place de l'image d'une fente unique on ne détecte aucun signal, ce qui est absurde d'un point de vue corpusculaire.

Il est important que cette image du phénomène ne dépende pas de l'intensité du faisceau d'électrons, c'est-à-dire qu'elle ne soit pas le résultat de leur interaction les uns avec les autres. Un motif d'interférence apparaît même à la limite lorsque les électrons traversent les fentes de la cloison un par un, c'est-à-dire que chaque électron interfère avec lui-même. Ceci est impossible pour une particule, mais tout à fait naturel pour une onde, par exemple lorsqu'elle est réfléchie ou diffractée par un obstacle dont les dimensions sont comparables à sa longueur. Dans cette expérience, la dualité onde-particule se manifeste par le fait que le même électron est enregistré comme une particule, mais se propage comme une onde d'une nature particulière : c'est une onde de probabilité de détection d'un électron à un moment donné de l'espace. Dans une telle image du processus de diffusion, la question est : « Par laquelle des fentes la particule électronique est-elle passée ? » perd son sens, puisque l'onde de probabilité correspondante traverse les deux fentes à la fois.

Un autre exemple illustrant le caractère probabiliste des phénomènes de la mécanique quantique est le passage de la lumière à travers une plaque translucide. Par définition, la réflectance de la lumière est égale au rapport entre le nombre de photons réfléchis par la plaque et le nombre de photons incidents. Cependant, cela n’est pas le résultat d’une moyenne d’un grand nombre d’événements, mais d’une caractéristique initialement inhérente à chaque photon.

Le principe de superposition et la notion de probabilité ont permis de réaliser une synthèse cohérente des notions d'« onde » et de « particule » : chacun des événements quantiques et son enregistrement sont discrets, mais leur répartition est dictée par la loi de propagation d'ondes de probabilité continues.

Effet tunnel et diffusion résonante. L’effet tunnel est peut-être le phénomène le plus célèbre de la physique quantique. Elle est provoquée par les propriétés ondulatoires des objets quantiques et n’a reçu une explication adéquate que dans le cadre de la mécanique quantique. Un exemple d'effet tunnel est la désintégration d'un noyau de radium en un noyau de radon et une particule α : Ra → Rn + α.

La figure 3 montre un diagramme du potentiel de désintégration α V(r) : une particule α oscille avec une fréquence v dans le « puits de potentiel » d'un noyau de charge Z 0 , et après l'avoir quitté, elle se déplace dans le Coulomb répulsif potentiel 2Ze 2 /r, où Z=Z 0 -2. En mécanique classique, une particule ne peut pas quitter un puits de potentiel si son énergie E est inférieure à la hauteur de la barrière de potentiel V max. En mécanique quantique, en raison de la relation d'incertitude, une particule avec une probabilité finie W pénètre dans la région de la sous-barrière r 0< r < r 1 и может «просочиться» из области r < r 0 в область r >r 1 est similaire à la façon dont la lumière pénètre dans la région d'une ombre géométrique sur des distances comparables à la longueur d'onde de la lumière. A l'aide de l'équation de Schrödinger, on peut calculer le coefficient D de passage d'une particule α à travers une barrière, qui en approximation semiclassique est égal à :

Au fil du temps, le nombre de noyaux de radium N(t) diminue selon la loi : N(t) = N 0 exp(-t/τ), où τ est la durée de vie moyenne d'un noyau, N 0 est le nombre initial de noyaux à t = 0. La probabilité de désintégration α W = vD est liée à la durée de vie par la relation W = l/τ, d'où découle la loi de Geiger-Nettol :

où υ est la vitesse de la particule α, Z est la charge du noyau résultant. Cette dépendance a été découverte expérimentalement en 1909, mais ce n'est qu'en 1928 que G. Gamow (et indépendamment le physicien anglais R. Gurney et le physicien américain E. Condon) l'ont expliqué pour la première fois dans le langage de la mécanique quantique. Ainsi, il a été démontré que la mécanique quantique décrit non seulement les processus de rayonnement et d'autres phénomènes de la physique atomique, mais également les phénomènes de la physique nucléaire.

En physique atomique, l’effet tunnel explique le phénomène d’émission électronique de champ. Dans un champ électrique uniforme d'intensité E, le potentiel coulombien V(r) = -e 2 /r d'attraction entre le noyau et l'électron est déformé : V(r) = - e 2 /r - eEr, les niveaux d'énergie de les atomes E nl m sont décalés, ce qui entraîne une modification des fréquences ν nk des transitions entre eux (effet Stark). De plus, qualitativement, ce potentiel devient similaire au potentiel de désintégration α, ce qui entraîne une probabilité finie de passage d'électrons à travers la barrière de potentiel (R. Oppenheimer, 1928). Lorsque les valeurs critiques de E sont atteintes, la barrière diminue tellement que l'électron quitte l'atome (ce qu'on appelle l'ionisation par avalanche).

La désintégration alpha est un cas particulier de désintégration d'un état quasi-stationnaire, étroitement lié au concept de résonance mécanique quantique et nous permet de comprendre d'autres aspects des processus non stationnaires en mécanique quantique. De l'équation de Schrödinger, il s'ensuit que ses solutions dépendent du temps :

où E est la valeur propre de l'hamiltonien Ĥ, qui est réelle pour les opérateurs hermitiens de la mécanique quantique, et l'observable correspondante (énergie totale E) ne dépend pas du temps. Cependant, l'énergie des systèmes non stationnaires dépend du temps, et ce fait peut être formellement pris en compte si l'énergie d'un tel système se présente sous forme complexe : E = E 0 - iΓ/2. Dans ce cas, la dépendance de la fonction d'onde au temps a la forme

et la probabilité de détecter l'état correspondant diminue de façon exponentielle :

dont la forme coïncide avec la loi de désintégration α avec une constante de désintégration τ = ħ/Г.

Dans le processus inverse, par exemple lors de la collision de noyaux de deutérium et de tritium, qui entraîne la formation d'hélium et d'un neutron (réaction de fusion thermonucléaire), la notion de section efficace de réaction σ est utilisée, qui est définie comme une mesure de la probabilité d'une réaction pour un flux unitaire de particules en collision.

Pour les particules classiques, la section efficace de diffusion sur une boule de rayon r 0 coïncide avec sa section efficace géométrique et est égale à σ = πr 0 2 . En mécanique quantique, cela peut être représenté à travers les phases de diffusion δl(k) :

où k = р/ħ = √2mE/ħ est le nombre d'onde, l est le moment orbital du système. Dans la limite des très faibles énergies de collision, la section efficace de diffusion quantique σ = 4πr 0 2 est 4 fois plus grande que la section efficace géométrique de la boule. (Cet effet est l'une des conséquences de la nature ondulatoire des phénomènes quantiques.) Au voisinage de la résonance à E ≈ E 0, la phase de diffusion se comporte comme

et la section efficace de diffusion est égale à

où λ = 1/k, W(E) est la fonction de Breit-Wigner :

À de faibles énergies de diffusion l 0 ≈ 0, et la longueur d'onde de De Broglie λ est nettement supérieure à la taille des noyaux, donc, à E = E 0, les sections efficaces résonantes des noyaux σ res ≈ 4πλ 0 2 peuvent être des milliers et des millions de fois supérieures à leurs sections efficaces géométriques πr 0 2. En physique nucléaire, le fonctionnement des réacteurs nucléaires et thermonucléaires dépend de ces sections efficaces. En physique atomique, ce phénomène a été observé pour la première fois par J. Frank et G. Hertz (1913) dans des expériences sur l'absorption résonante d'électrons par des atomes de mercure. Dans le cas contraire (δ 0 = 0), la section efficace de diffusion est anormalement petite (effet Ramsauer, 1921).

La fonction W(E) est connue en optique sous le nom de profil de raie d'émission de Lorentz et a la forme d'une courbe de résonance typique avec un maximum à E = E 0 et la largeur de résonance Г = 2∆E = 2 (E - E 0 ) est déterminé à partir de la relation W(E 0 ± ΔΕ) = W(E 0)/2. La fonction W(E) est de nature universelle et décrit à la fois la désintégration d'un état quasi-stationnaire et la dépendance résonnante de la section efficace de diffusion sur l'énergie de collision E, et dans les phénomènes de rayonnement, elle détermine la largeur naturelle Г de la raie spectrale , qui est liée à la durée de vie τ de l'émetteur par la relation τ = ħ/Г . Cette relation détermine également la durée de vie des particules élémentaires.

De la définition de τ = ħ/G, en tenant compte de l'égalité Г = 2∆E, la relation d'incertitude pour l'énergie et le temps suit : ∆E ∙ ∆t ≥ ħ/2, où ∆t ≥ τ. Dans sa forme, elle est similaire à la relation ∆х ∙ ∆р ≥ ħ/2, mais le statut ontologique de cette inégalité est différent, puisqu'en mécanique quantique le temps t n'est pas une variable dynamique. Par conséquent, la relation ∆E ∙ ∆t ≥ ħ/2 ne découle pas directement des postulats de base de la mécanique quantique stationnaire et, à proprement parler, n’a de sens que pour les systèmes dont l’énergie change avec le temps. Sa signification physique est que pendant le temps ∆t, l'énergie du système ne peut pas être mesurée avec plus de précision que la valeur ∆E, déterminée par la relation ∆E ∙ ∆t ≥ ħ/2. L'état stationnaire (ΔE→0) existe indéfiniment (∆t→∞).

Spin, identité des particules et interaction d'échange. Le concept de « spin » a été établi en physique par les travaux de W. Pauli, du physicien néerlandais R. Kronig, S. Goudsmit et J. Uhlenbeck (1924-27), bien que des preuves expérimentales de son existence aient été obtenues bien avant la création. de la mécanique quantique dans les expériences de A. Einstein et W. J. de Haas (1915), ainsi que de O. Stern et du physicien allemand W. Gerlach (1922). Le spin (l'impulsion mécanique de la particule) pour un électron est égal à S = ħ/2. Il s’agit des mêmes caractéristiques importantes d’une particule quantique que la charge et la masse, qui n’ont cependant pas d’analogues classiques.

L'opérateur de spin Ŝ = ħσˆ/2, où σˆ= (σˆ x, σˆ y, σˆ z) sont des matrices de Pauli bidimensionnelles, est défini dans l'espace des fonctions propres à deux composantes u = (u + , u -) du opérateur Ŝ z de la projection de spin sur l'axe z : σˆ z u = σu, σ=±1/2. Le moment magnétique intrinsèque μ d'une particule de masse m et de spin S est égal à μ = 2μ 0 S, où μ 0 = еħ/2mс est le magnéton de Bohr. Les opérateurs Ŝ 2 et Ŝ z commutent avec l'ensemble Ĥ 0 L 2 et L z des opérateurs de l'atome d'hydrogène et forment ensemble l'hamiltonien de l'équation de Pauli (1927), dont les solutions sont numérotées par l'ensemble i = ( nlmσ) des nombres quantiques de valeurs propres de l'ensemble des opérateurs de navettage Ĥ 0 , L 2 , L z , Ŝ 2 , Ŝ z . Ces solutions décrivent les caractéristiques les plus subtiles des spectres d'atomes observés, en particulier la division des raies spectrales dans un champ magnétique (effet Zeeman normal et anormal), ainsi que leur structure multiplet résultant de l'interaction du spin électronique avec le moment orbital de l'atome (structure fine) et le spin du noyau (structure hyperfine).

En 1924, avant même la création de la mécanique quantique, W. Pauli formulait le principe d'exclusion : un atome ne peut pas avoir deux électrons avec le même ensemble de nombres quantiques i = (nlmσ). Ce principe a permis de comprendre la structure du système périodique des éléments chimiques et d'expliquer la périodicité des changements de leurs propriétés chimiques avec une augmentation monotone de la charge de leurs noyaux.

Le principe d'exclusion est un cas particulier d'un principe plus général qui établit un lien entre le spin d'une particule et la symétrie de sa fonction d'onde. En fonction de la valeur de spin, toutes les particules élémentaires sont divisées en deux classes : les fermions - particules à spin demi-entier (électron, proton, méson μ, etc.) et les bosons - particules à spin nul ou entier (photon, méson π , K-méson, etc.). En 1940, Pauli a prouvé un théorème général sur le lien entre le spin et les statistiques, d'où il résulte que les fonctions d'onde de tout système de fermions ont une parité négative (elles changent de signe lorsqu'elles sont réarrangées par paires) et la parité de la fonction d'onde d’un système de bosons est toujours positif. Conformément à cela, il existe deux types de distributions d'énergie des particules : la distribution de Fermi-Dirac et la distribution de Bose-Einstein, dont un cas particulier est la distribution de Planck pour un système de photons.

L'une des conséquences du principe de Pauli est l'existence de ce que l'on appelle l'interaction d'échange, qui se manifeste déjà dans un système de deux électrons. En particulier, c'est cette interaction qui assure la liaison chimique covalente des atomes dans les molécules H 2, N 2, O 2, etc. L'interaction d'échange est un effet exclusivement quantique, il n'y a pas d'analogue à une telle interaction en physique classique ; Sa spécificité s'explique par le fait que la densité de probabilité de la fonction d'onde d'un système de deux électrons |ψ(r 1 ,r 2)| 2 contient non seulement des termes |ψ n (r 1)| 2 |ψ m (r 2)| 2, où n et m sont les états quantiques des électrons des deux atomes, mais aussi les « termes d'échange » ψ n * (r 1)ψ m * (r 1)ψ n (r 2)ψ m (r 2) , résultant de la superposition principale, qui permet à chaque électron d'être simultanément dans différents états quantiques n et m des deux atomes. De plus, en raison du principe de Pauli, la partie spin de la fonction d'onde d'une molécule doit être antisymétrique par rapport au réarrangement des électrons, c'est-à-dire que la liaison chimique des atomes dans une molécule est réalisée par une paire d'électrons avec des directions opposées. tours dirigés. La fonction d'onde de molécules complexes peut être représentée comme une superposition de fonctions d'onde correspondant à diverses configurations possibles de la molécule (théorie de la résonance, L. Pauling, 1928).

Les méthodes de calcul développées en mécanique quantique (méthode Hartree-Fock, méthode des orbitales moléculaires, etc.) permettent de calculer sur les ordinateurs modernes toutes les caractéristiques de configurations stables de molécules complexes : l'ordre de remplissage des couches électroniques dans un atome, les distances d'équilibre entre les atomes dans les molécules, l'énergie et la direction des liaisons chimiques, l'emplacement des atomes dans l'espace et la construction de surfaces potentielles qui déterminent la direction des réactions chimiques. Cette approche permet également de calculer les potentiels d'interactions interatomiques et intermoléculaires, notamment la force de van der Waals, d'estimer la force des liaisons hydrogène, etc. Ainsi, le problème de la liaison chimique se réduit au problème du calcul de la force quantique caractéristiques d'un système de particules à interaction coulombienne, et de ce point de vue, la chimie structurale peut être considérée comme l'une des branches de la mécanique quantique.

L'interaction d'échange dépend significativement du type d'interaction potentielle entre les particules. En particulier, dans certains métaux c'est grâce à lui que l'état des paires d'électrons à spins parallèles est plus stable, ce qui explique le phénomène de ferromagnétisme.

Applications de la mécanique quantique. La mécanique quantique est la base théorique de la physique quantique. Il a permis de comprendre la structure des coquilles électroniques des atomes et les schémas de leurs spectres d'émission, la structure des noyaux et les lois de leur désintégration radioactive, l'origine des éléments chimiques et l'évolution des étoiles, y compris les explosions de novae. et supernovae, ainsi que la source d'énergie solaire. La mécanique quantique a expliqué la signification du système périodique des éléments, la nature des liaisons chimiques et la structure des cristaux, la capacité thermique et les propriétés magnétiques des substances, les phénomènes de supraconductivité et de superfluidité, etc. La mécanique quantique est la base physique de nombreuses techniques applications : analyse spectrale, laser, transistor et ordinateur, réacteur nucléaire et bombes atomiques, etc.

Les propriétés des métaux, des diélectriques, des semi-conducteurs et d'autres substances trouvent également une explication naturelle dans le cadre de la mécanique quantique. Dans les cristaux, les atomes effectuent de petites vibrations proches des positions d'équilibre avec une fréquence ω, qui sont associées aux quanta de vibrations du réseau cristallin et aux quasi-particules correspondantes - les phonons d'énergie E = ħω. La capacité thermique d'un cristal est largement déterminée par la capacité thermique de son gaz phonon, et sa conductivité thermique peut être interprétée comme la conductivité thermique du gaz phonon. Dans les métaux, les électrons de conduction sont un gaz de fermions, et leur diffusion par les phonons est la principale cause de la résistance électrique des conducteurs, et explique également la similitude des propriétés thermiques et électriques des métaux (voir loi de Wiedemann-Franz). Dans les structures magnétiquement ordonnées, des quasiparticules apparaissent - des magnons, qui correspondent aux ondes de spin ; dans les liquides quantiques, des quanta d'excitation rotationnelle - des rotons apparaissent, et les propriétés magnétiques des substances sont déterminées par les spins des électrons et des noyaux (voir Magnétisme). L'interaction des spins électroniques et nucléaires avec un champ magnétique est à la base d'applications pratiques des phénomènes de résonance paramagnétique électronique et magnétique nucléaire, en particulier dans les tomographes médicaux.

La structure ordonnée des cristaux donne lieu à une symétrie supplémentaire de l'hamiltonien par rapport au décalage x → x + a, où a est la période du réseau cristallin. La prise en compte de la structure périodique d'un système quantique conduit à diviser son spectre énergétique en zones autorisées et interdites. Cette structure de niveaux d'énergie sous-tend le fonctionnement des transistors et de toute l'électronique basée sur ceux-ci (TV, ordinateur, téléphone portable, etc.). Au début du XXIe siècle, des progrès significatifs ont été réalisés dans la création de cristaux aux propriétés et structures de bandes énergétiques précises (super-réseaux, cristaux photoniques et hétérostructures : points quantiques, fils quantiques, nanotubes, etc.).

À mesure que la température diminue, certaines substances passent à l'état de liquide quantique dont l'énergie à température T → 0 se rapproche de l'énergie des oscillations du point zéro du système. Dans certains métaux, à basse température, des paires de Cooper se forment - des systèmes de deux électrons avec des spins et des impulsions opposés. Dans ce cas, le gaz électronique des fermions se transforme en gaz de bosons, ce qui entraîne une condensation de Bose, expliquant le phénomène de supraconductivité.

À basse température, la longueur d'onde de Broglie des mouvements thermiques des atomes devient comparable aux distances interatomiques et une corrélation des phases des fonctions d'onde de nombreuses particules apparaît, ce qui conduit à des effets quantiques macroscopiques (effet Josephson, quantification du flux magnétique, Hall quantique fractionnaire effet, réflexion d'Andreev).

Sur la base de phénomènes quantiques, les étalons quantiques les plus précis de diverses grandeurs physiques ont été créés : fréquence (laser hélium-néon), tension électrique (effet Josephson), résistance (effet Hall quantique), etc., ainsi que des instruments pour diverses précisions. mesures : SQUIDS, horloge quantique, gyroscope quantique, etc.

La mécanique quantique est née en tant que théorie pour expliquer des phénomènes spécifiques de la physique atomique (au début, elle était appelée dynamique atomique), mais peu à peu, il est devenu clair que la mécanique quantique constitue également la base de toute physique subatomique et que tous ses concepts de base sont applicables pour décrire le phénomènes de physique nucléaire et particules élémentaires. La mécanique quantique originale n’était pas relativiste, c’est-à-dire qu’elle décrivait le mouvement des systèmes à des vitesses bien inférieures à la vitesse de la lumière. L'interaction des particules dans cette théorie était encore décrite en termes classiques. En 1928, P. Dirac trouve une équation relativiste de la mécanique quantique (équation de Dirac), qui, tout en préservant tous ses concepts, prend en compte les exigences de la théorie de la relativité. De plus, le formalisme de quantification secondaire a été développé, qui décrit la naissance et la destruction de particules, en particulier la naissance et l'absorption de photons dans les processus de rayonnement. Sur cette base est née l'électrodynamique quantique, qui a permis de calculer avec une grande précision toutes les propriétés des systèmes à interaction électromagnétique. Elle s'est ensuite développée en théorie quantique des champs, qui unit les particules et les champs à travers lesquels elles interagissent dans un formalisme unique.

Pour décrire les particules élémentaires et leurs interactions, tous les concepts fondamentaux de la mécanique quantique sont utilisés : le dualisme onde-particule reste valable, le langage des opérateurs et des nombres quantiques, l'interprétation probabiliste des phénomènes observés, etc. En particulier, pour expliquer l'interconversion de trois types de neutrinos : v e, ν μ et ν τ (oscillations des neutrinos), ainsi que des mésons K neutres, le principe de superposition d'états est utilisé.

Interprétation de la mécanique quantique. La validité des équations et des conclusions de la mécanique quantique a été confirmée à plusieurs reprises par de nombreuses expériences. Le système de ses concepts, créé par les travaux de N. Bohr, de ses étudiants et disciples, connu sous le nom d'« interprétation de Copenhague », est désormais généralement accepté, bien qu'un certain nombre de créateurs de la mécanique quantique (M. Planck, A. Einstein et E. Schrödinger, etc.) sont restés jusqu'à la fin de leur vie convaincus que la mécanique quantique est une théorie incomplète. La difficulté spécifique de comprendre la mécanique quantique tient notamment au fait que la plupart de ses concepts de base (onde, particule, observation, etc.) sont issus de la physique classique. En mécanique quantique, leur signification et leur champ d'application sont limités en raison de la finitude du quantum d'action h, ce qui, à son tour, a nécessité une révision des dispositions établies de la philosophie de la connaissance.

Tout d’abord, en mécanique quantique, le sens du concept d’« observation » a changé. En physique classique, on supposait que les perturbations du système étudié provoquées par le processus de mesure pouvaient être correctement prises en compte, après quoi il était possible de restaurer l'état initial du système, indépendamment des moyens d'observation. En mécanique quantique, la relation d'incertitude pose une limite fondamentale à cette voie, qui n'a rien à voir avec l'habileté de l'expérimentateur et la subtilité des méthodes d'observation utilisées. Le quantum d'action h définit les limites de la mécanique quantique, comme la vitesse de la lumière dans la théorie des phénomènes électromagnétiques ou le zéro absolu de température en thermodynamique.

La raison du rejet de la relation d'incertitude et la manière de surmonter les difficultés de perception de ses conséquences logiques ont été proposées par N. Bohr dans le concept de complémentarité (voir Principe de complémentarité). Selon Bohr, une description complète et adéquate des phénomènes quantiques nécessite une paire de concepts supplémentaires et une paire d’observables correspondante. La mesure de ces observables nécessite deux types d’instruments différents aux propriétés incompatibles. Par exemple, pour mesurer avec précision une coordonnée, il faut un appareil stable et massif, mais pour mesurer une impulsion, au contraire, il faut un appareil léger et sensible. Ces deux dispositifs sont incompatibles, mais ils sont complémentaires dans le sens où les deux quantités mesurées par eux sont également nécessaires pour caractériser pleinement un objet ou un phénomène quantique. Bohr a expliqué que « phénomène » et « observation » sont des concepts supplémentaires et ne peuvent être définis séparément : le processus d'observation est déjà un certain phénomène, et sans observation, le phénomène est une « chose en soi ». En réalité, nous n'avons toujours pas affaire au phénomène lui-même, mais au résultat de l'observation du phénomène, et ce résultat dépend, entre autres, du choix du type d'appareil utilisé pour mesurer les caractéristiques d'un objet quantique. La mécanique quantique explique et prédit les résultats de telles observations sans aucun arbitraire.

Une différence importante entre les équations quantiques et les équations classiques est également que la fonction d'onde d'un système quantique lui-même n'est pas observable et que toutes les quantités calculées avec son aide ont une signification probabiliste. De plus, le concept de probabilité en mécanique quantique est fondamentalement différent de la compréhension habituelle de la probabilité en tant que mesure de notre ignorance des détails des processus. La probabilité en mécanique quantique est une propriété interne d'un phénomène quantique individuel, qui lui est inhérente initialement et indépendamment des mesures, et non une manière de représenter les résultats des mesures. Selon cela, le principe de superposition en mécanique quantique ne se réfère pas à des probabilités, mais à des amplitudes de probabilité. De plus, en raison de la nature probabiliste des événements, une superposition d'états quantiques peut inclure des états incompatibles d'un point de vue classique, par exemple les états des photons réfléchis et transmis à la limite d'un écran translucide, ou des états alternatifs. d'un électron passant à travers l'une des fentes de la célèbre expérience d'interférence.

Le rejet de l’interprétation probabiliste de la mécanique quantique a donné lieu à de nombreuses tentatives visant à modifier les principes fondamentaux de la mécanique quantique. L'une de ces tentatives est l'introduction de paramètres cachés dans la mécanique quantique, qui changent conformément à des lois strictes de causalité, et la nature probabiliste de la description en mécanique quantique résulte de la moyenne de ces paramètres. La preuve de l'impossibilité d'introduire des paramètres cachés dans la mécanique quantique sans violer le système de ses postulats a été donnée par J. von Neumann en 1929. Une analyse plus détaillée du système de postulats de la mécanique quantique a été entreprise par J. Bell en 1965. La vérification expérimentale des inégalités dites de Bell (1972) a une fois de plus confirmé le schéma généralement accepté de la mécanique quantique.

De nos jours, la mécanique quantique est une théorie complète qui donne toujours des prédictions correctes dans les limites de son applicabilité. Toutes les tentatives connues pour le modifier (une dizaine d'entre elles sont connues) n'ont pas modifié sa structure, mais ont jeté les bases de nouvelles branches de la science sur les phénomènes quantiques : électrodynamique quantique, théorie quantique des champs, théorie de l'interaction électrofaible, chromodynamique quantique, théorie quantique. de la gravité, théorie des cordes et supercordes, etc.

La mécanique quantique fait partie des réalisations scientifiques telles que la mécanique classique, la doctrine de l'électricité, la théorie de la relativité et la théorie cinétique. Aucune théorie physique n'a expliqué un éventail aussi large de phénomènes physiques dans la nature : sur les 94 prix Nobel de physique décernés au XXe siècle, seuls 12 ne sont pas directement liés à la physique quantique. L'importance de la mécanique quantique dans l'ensemble du système de connaissance de la nature environnante dépasse largement le cadre de la doctrine des phénomènes quantiques : elle a créé le langage de communication dans la physique, la chimie et même la biologie modernes, a conduit à une révision de la philosophie de la science et la théorie de la connaissance, ainsi que ses conséquences technologiques, déterminent encore l'orientation du développement de la civilisation moderne.

Lit. : Neumann I. Fondements mathématiques de la mécanique quantique. M., 1964 ; Davydov A. S. Mécanique quantique. 2e éd. M., 1973 ; Dirac P. Principes de la mécanique quantique. 2e éd. M., 1979 ; Blokhintsev D.I. Fondements de la mécanique quantique. 7e éd. Saint-Pétersbourg, 2004 ; Landau L. D., Lifshits E. M. Mécanique quantique. Théorie non relativiste. 5e éd. M., 2004 ; Feynman R., Layton R., Sands M. Mécanique quantique. 3e éd. M., 2004 ; Ponomarev L.I. Sous le signe du quantique. 2e éd. M., 2007 ; Fok V. A. Les débuts de la mécanique quantique. 5e éd. M., 2008.

« Si nous devions caractériser les idées fondamentales de la théorie quantique en une phrase, nous pourrions dire : il faut supposer que certaines grandeurs physiques jusque-là considérées comme continues , constitué de quanta élémentaires " (A.Einstein)

A la fin du XIXème siècle, J. Thomson découvre électron comme quantum élémentaire (particule) d’électricité négative. Ainsi, les théories atomiques et électriques ont été introduites dans la science. grandeurs physiques, qui ne peut changer qu'à pas de géant . Thomson a montré que l’électron est aussi l’un des éléments constitutifs de l’atome, l’une des briques élémentaires à partir desquelles la matière est construite. Thomson a créé premier modèle atome, selon lequel un atome est une sphère amorphe remplie d’électrons, comme un « petit pain aux raisins ». Il est relativement facile de retirer des électrons d’un atome. Cela peut être fait en chauffant ou en bombardant l’atome avec d’autres électrons.

Cependant, beaucoup la majeure partie de la masse d'un atome présenté pas des électrons, mais des particules restantes, beaucoup plus lourdes - le noyau d'un atome . Cette découverte a été faite par E. Rutherford, qui a bombardé une feuille d'or avec des particules alpha et a découvert qu'il y a des endroits où les particules semblent rebondir sur quelque chose de massif, et qu'il y a des endroits où les particules volent librement. Rutherford crée son modèle planétaire de l'atome sur la base de cette découverte. Selon ce modèle, au centre de l’atome se trouve un noyau qui concentre la majeure partie de la masse de l’atome, et les électrons tournent autour du noyau sur des orbites circulaires.

Effet photoélectrique

En 1888-1890, l'effet photoélectrique a été étudié par le physicien russe A.P. Stoletov. La théorie de l'effet photoélectrique a été développée en 1905 par A. Einstein. Laissez la lumière faire sortir les électrons du métal. Les électrons s'échappent du métal et se précipitent à une certaine vitesse. Nous sommes capables de compter le nombre de ces électrons, de déterminer leur vitesse et leur énergie. Si nous devions éclairer à nouveau le métal avec une lumière de la même longueur d'onde, mais source plus puissante, on pourrait alors s'attendre à ce que l'énergie il y aura plus d'électrons émis . Cependant, ni la vitesse ni l'énergie des électrons ne change pas avec une intensité lumineuse croissante. Cela resta un problème jusqu'à la découverte du quantum d'énergie par M. Planck.

Découverte de l'énergie quantique par M. Planck

À la fin du XIXe siècle, une difficulté surgit en physique, appelée « catastrophe ultraviolette ». Une étude expérimentale du spectre du rayonnement thermique d'un corps absolument noir a donné une certaine dépendance de l'intensité du rayonnement à sa fréquence. En revanche, les calculs effectués dans le cadre de l'électrodynamique classique ont donné une dépendance complètement différente. Il s’est avéré qu’à l’extrémité ultraviolette du spectre, l’intensité du rayonnement devrait augmenter sans limite, ce qui contredit clairement l’expérience.

En essayant de résoudre ce problème, Max Planck a été contraint d'admettre que la contradiction résulte d'une mauvaise compréhension de la physique classique du mécanisme du rayonnement.

En 1900, il émet l'hypothèse que l'émission et l'absorption d'énergie ne se produisent pas de manière continue, mais discrète - en portions (quantités) avec valeur E= h × n , E– l'intensité du rayonnement, n– fréquence de rayonnement, h– nouvelle constante fondamentale (constante de Planck, égale à 6,6×10 -34 J×sec). C’est sur cette base que la « catastrophe ultraviolette » a été surmontée.

M. Planck a suggéré que ce que nous voyons la lumière blanche est constituée de petites portions d'énergie se précipitant à travers le vide l'espace à la vitesse de la lumière. Planck a appelé ces portions de quanta d'énergie, ou photons .

Il est immédiatement devenu clair que la théorie quantique de la lumière fournit une explication à l’effet photoélectrique. Ainsi, un flux de photons tombe sur une plaque métallique. Un photon frappe un atome et détruit un électron. L’électron éjecté aura la même énergie dans chaque cas. Il est alors clair que augmenter l'intensité lumineuse signifie augmentation du nombre de photons incidents . Dans ce cas, en métal plaque, un plus grand nombre d’électrons seraient arrachés, mais l’énergie de chacun un seul électron ne changerait pas .

L'énergie des quanta de lumière est différente pour les rayons de différentes couleurs, les ondes différentes fréquences . Ainsi, l’énergie des photons de lumière rouge est la moitié de celle des photons de lumière violette. Les rayons X, quant à eux, sont constitués de photons d’énergie beaucoup plus élevée que les photons de lumière blanche, c’est-à-dire que la longueur d’onde des rayons X est beaucoup plus courte.

L'émission d'un quantum de lumière est associée à la transition d'un atome d'un niveau d'énergie à un autre. Les niveaux d'énergie d'un atome sont généralement discrets, c'est-à-dire que dans un état non excité, l'atome n'émet pas, il est stable. Sur la base de cette disposition N. Bohr crée son modèle de l'atome en 1913 . Selon ce modèle, au centre de l’atome se trouve un noyau massif autour duquel les électrons tournent sur des orbites stationnaires. Un atome n'émet pas d'énergie en permanence, mais par portions (quanta) et uniquement dans un état excité. Dans ce cas, nous observons la transition des électrons de l'orbite externe vers l'orbite interne. Dans le cas de l'absorption d'énergie par un atome, une transition des électrons de l'orbite interne vers l'orbite externe a lieu.

Fondamentaux de la théorie quantique

Les découvertes ci-dessus, et bien d’autres, ne pouvaient être comprises et expliquées du point de vue de la mécanique classique. Une nouvelle théorie était nécessaire, créé en 1925-1927 Nom mécanique quantique .

Après que les physiciens ont établi que l'atome n'est pas le dernier élément constitutif de l'univers, mais qu'il est lui-même constitué de particules plus simples, la recherche d'une particule élémentaire a commencé. Une particule élémentaire est une particule plus petite qu'un noyau atomique (à commencer par un proton, un électron, un neutron). A ce jour, plus de 400 particules élémentaires sont connues.

Comme nous le savons déjà, la première particule élémentaire découverte en 1891 était électron. En 1919, E. Rutherford ouvre proton, une particule lourde chargée positivement qui fait partie du noyau atomique. En 1932, le physicien anglais John Chadwick découvre neutron , une particule lourde qui n'a pas de charge électrique et qui fait également partie du noyau atomique. En 1932, Paul Dirac prédit le premier antiparticule positron , égal en masse à un électron, mais ayant la charge électrique opposée (positive).

Depuis les années 50 du 20e siècle, les accélérateurs surpuissants - les synchrophasotrons - sont devenus le principal moyen de découverte et de recherche de particules élémentaires. En Russie, le premier accélérateur de ce type a été créé en 1957 dans la ville de Doubna. A l'aide d'accélérateurs, des antiparticules ont été découvertes : le positron, puis l'antiproton et l'antineutron (une antiparticule qui n'a pas de charge électrique, mais qui a une charge baryonique opposée à la charge baryonique du neutron). Depuis lors, des hypothèses ont commencé à être avancées sur l'existence possible d'antimatière, d'antimatière et peut-être même d'antimondes. Cependant, la confirmation expérimentale de cette hypothèse n’a pas encore été obtenue.

L'une des caractéristiques essentielles des particules élémentaires est qu'elles ont des masses et des dimensions extrêmement petites . La masse de la plupart d’entre eux est de 1,6 × 10 à 24 grammes et leur taille est d’environ 10 à 16 cm de diamètre.

Une autre propriété des particules élémentaires est la capacité de naître et de se détruire, c'est-à-dire d'être émis et absorbé lors de l'interaction avec d'autres particules . Par exemple, lors de l'interaction (annihilation) de deux particules opposées d'un électron et d'un positon, deux photons (quantique d'énergie) sont libérés : e - + e + = 2g

La prochaine propriété importante est transmutation, c'est-à-dire la fusion de particules les unes avec les autres lors de l'interaction et avec une augmentation de la masse de la particule résultante. La nouvelle masse de la particule est supérieure à la somme des deux particules fusionnées, puisqu'une partie de l'énergie libérée lors de la fusion va en masse.

Les particules diffèrent par 1.types d'interaction ; 2. types d'interactions ; 3. masse ; 4. à vie ; 5. retour; 6. facturer.

Types et types d'interactions

Types d'interactions

Forte interaction détermine la connexion entre les protons et les neutrons dans les noyaux atomiques.

Interaction électromagnétique – moins intense que fort, détermine la connexion entre les électrons et le noyau d’un atome, ainsi que la connexion entre les atomes d’une molécule.

Faible interaction provoque des processus lents, en particulier le processus de désintégration des particules.

Interaction gravitationnelle – c'est l'interaction entre les particules individuelles ; la force de cette interaction en mécanique quantique est extrêmement faible en raison de la petitesse des masses, mais sa force augmente considérablement avec l'interaction de grandes masses.

Types d'interactions

En mécanique quantique, toutes les particules élémentaires ne peuvent interagir que de deux types : hadron et lepton .

Poids .

En fonction de leur masse, les particules sont divisées en lourd (proton, neutron, graviton, etc.), intermédiaire et léger (électron, photon, neutrino, etc.)

Durée de vie.

Selon l'époque de leur existence, les particules sont divisées en écurie, ayant une durée de vie suffisamment longue (par exemple protons, neutrons, électrons, photons, neutrinos, etc.), quasi-stable , c'est-à-dire ayant une durée de vie assez courte (par exemple les antiparticules) et instable , ayant une durée de vie extrêmement courte (par exemple les mésons, pions, baryons, etc.)

Rotation

Rotation (de l'anglais - tourner, tourner) caractérise le moment cinétique intrinsèque d'une particule élémentaire, qui a une nature quantique et n'est pas associé au mouvement de la particule dans son ensemble. Elle est mesurée comme un multiple entier ou demi-entier de la constante de Planck (6,6 × 10 –34 J × sec). Pour la plupart des particules élémentaires, l'indice de spin est de 1/2 (pour l'électron, le proton, le neutrino) 1 (pour le photon), 0 (pour les mésons P, les mésons K).

Le concept de spin a été introduit en physique en 1925 par les scientifiques américains J. Uhlenbeck et S. Goudsmit, qui ont suggéré que l'électron puisse être considéré comme une « toupie ».

Charge électrique

Les particules élémentaires sont caractérisées par la présence d’une charge électrique positive ou négative, ou par l’absence de charge électrique du tout. En plus de la charge électrique, les particules élémentaires du groupe baryon ont une charge baryonique.

Dans les années 50 du XXe siècle, les physiciens M. Gell-Mann et G. Zweig ont suggéré qu'il devrait y avoir encore plus de particules élémentaires à l'intérieur des hadrons. Zweig les appelait des as et Gell-Man les appelait quarks. Le mot « quark » est tiré du roman de J. Joyce « Finnegans Wake ». Plus tard, le nom de quark est resté.

Selon l'hypothèse de Gell-Man, il existe trois types (saveurs) de quarks : toids. Chacun d'eux a un spin = 1/2 ; et charge = 1/3 ou 2/3 de la charge de l'électron. Tous les baryons sont constitués de trois quarks. Par exemple, un proton vient de uud et un neutron de ddu. Chacune des trois saveurs de quark est subdivisée en trois couleurs. Ce n'est pas une couleur ordinaire, mais un analogue de charge. Ainsi, un proton peut être considéré comme un sac contenant deux quarks u et un quark d. Chacun des quarks du sac est entouré de son propre nuage. L'interaction proton-proton peut être représentée comme la convergence de deux sacs de quarks qui, à une distance suffisamment petite, commencent à échanger des gluons. Le gluon est une particule porteuse (du mot anglais colle, qui signifie colle). Les gluons collent les protons et les neutrons dans le noyau d'un atome et les empêchent de se désintégrer. Faisons une analogie.

Électrodynamique quantique : électron, charge, photon. En chromodynamique quantique ils correspondent à : quark, couleur, gluon. Les quarks sont des objets théoriques nécessaires pour expliquer un certain nombre de processus et d'interactions entre les particules élémentaires du groupe hadronique. Du point de vue d'une approche philosophique du problème, on peut dire que les quarks sont l'un des moyens d'expliquer le micromonde en termes de macromonde.

Vide physique et particules virtuelles

Dans la première moitié du XXe siècle, Paul Dirac a compilé une équation décrivant le mouvement des électrons en tenant compte des lois de la mécanique quantique et de la théorie de la relativité. Il a obtenu un résultat inattendu. La formule de l'énergie électronique donnait 2 solutions : une solution correspondait à l'électron déjà familier - une particule à énergie positive, l'autre - à une particule dont l'énergie était négative. En mécanique quantique, l’état d’une particule à énergie négative est interprété comme antiparticule . Dirac a remarqué que les antiparticules proviennent de particules.

Le scientifique est arrivé à la conclusion qu'il existe vide physique », qui est rempli d’électrons à énergie négative. Le vide physique était souvent appelé la « mer de Dirac ». Nous n’observons pas d’électrons à énergie négative précisément parce qu’ils forment un fond invisible et continu (« mer ») sur lequel se déroulent tous les événements mondiaux. Cependant, cette « mer » n’est observable que lorsque l’on agit sur elle d’une certaine manière. Lorsque, par exemple, un photon pénètre dans la « mer de Dirac », il force la « mer » (le vide) à se révéler, éliminant l'un des nombreux électrons à énergie négative. Et en même temps, comme le dit la théorie, deux particules naîtront à la fois : un électron avec une énergie positive et une charge électrique négative, et un antiélectron, également avec une énergie positive, mais aussi avec une charge positive.

En 1932, le physicien américain K. D. Anderson découvrit expérimentalement un antiélectron dans les rayons cosmiques et le nomma positron.

Aujourd'hui, il a déjà été établi avec précision que pour chaque particule élémentaire de notre monde, il existe une antiparticule (pour un électron - un positron, pour un proton - un antiproton, pour un photon - un antiphoton, et même pour un neutron - un antineutron) .

La compréhension antérieure du vide comme pur « rien » s'est transformée, conformément à la théorie de P. Dirac, en une multitude de couples générés : particule-antiparticule.

L'un des caractéristiques du vide physique est la présence en lui champs d'énergie égale à "0" et sans réel particules. Mais comme il y a un champ, il doit osciller. De telles oscillations dans le vide sont appelées nulles, car il n'y a pas de particules. Chose étonnante : les oscillations de champ sont impossibles sans le mouvement des particules, mais dans ce cas il y a des oscillations, mais il n'y a pas de particules ! Et puis la physique a réussi à trouver un tel compromis : les particules naissent avec des oscillations de champ nulles, vivent très brièvement et disparaissent. Cependant, il s'avère que les particules, nées de « rien » et acquérant de la masse et de l'énergie, violent ainsi la loi de conservation de la masse et de l'énergie. Tout l’enjeu ici réside dans la « durée de vie » d’une particule : elle est si courte que la violation des lois ne peut être calculée que théoriquement, mais elle ne peut pas être observée expérimentalement. Une particule est née de « rien » et est immédiatement morte. Par exemple, la durée de vie d’un électron instantané est de 10 à 21 secondes et celle d’un neutron instantané est de 10 à 24 secondes. Un neutron libre ordinaire vit quelques minutes, mais dans le noyau atomique pendant une durée indéfinie. Les particules qui vivent si peu ont été nommées par opposition aux particules réelles ordinaires - virtuel (en traduction du latin - possible).

Si la physique ne peut pas détecter une particule virtuelle individuelle, alors son effet total sur les particules ordinaires est parfaitement enregistré. Par exemple, deux plaques placées dans le vide physique et rapprochées sous l’impact de particules virtuelles commencent à s’attirer. Ce fait a été découvert en 1965 par le physicien expérimental néerlandais Hendrik Casimir.

En fait, toutes les interactions entre particules élémentaires se produisent avec la participation indispensable d'un fond virtuel sous vide, sur lequel les particules élémentaires, à leur tour, influencent également.

Il a été démontré plus tard que les particules virtuelles n’apparaissent pas seulement dans le vide ; Ils peuvent également être générés par des particules ordinaires. Les électrons, par exemple, émettent et absorbent constamment des photons virtuels.

A la fin du cours, nous notons que Concept atomistique, comme auparavant, repose sur l'idée que propriétés un corps physique peut finalement être réduit aux propriétés de ses particules constitutives , qui, à ce moment historique sont considérés comme indivisibles . Historiquement, ces particules étaient considérées comme des atomes, puis des particules élémentaires et aujourd'hui des quarks. D'un point de vue philosophique, les plus prometteurs semblent être nouvelles approches , basé non pas sur la recherche de particules fondamentales indivisibles, mais sur l'identification de leurs connexions internes pour expliquer la vision holistique propriétés des formations matérielles . Ce point de vue a également été exprimé W. Heisenberg , mais n’a malheureusement pas encore été développé.

Principes de base de la mécanique quantique

Comme le montre l'histoire des sciences naturelles, les propriétés des particules élémentaires rencontrées par les physiciens lors de l'étude du micromonde ne rentrent pas dans le cadre des théories physiques traditionnelles. Les tentatives visant à expliquer le micromonde à l’aide des concepts et principes de la physique classique ont échoué. La recherche de nouveaux concepts et explications a conduit à l'émergence d'une nouvelle théorie physique - la mécanique quantique, dont les origines étaient des physiciens aussi remarquables que W. Heisenberg, N. Bohr, M. Planck, E. Schrödinger et d'autres.

L'étude des propriétés spécifiques des microobjets a commencé par des expériences au cours desquelles il a été établi que des microobjets dans certains les expériences se révèlent sous forme de particules (corpuscules), et dans d'autres comme des vagues . Rappelons cependant l'histoire de l'étude de la nature de la lumière, ou plutôt les différences irréconciliables entre Newton et Huygens. Newton considérait la lumière comme un courant corpuscule, et Huygens - comment ondulé mouvement qui se produit dans un milieu spécial - l'éther.

En 1900, M. Planck, qui découvrit des portions discrètes d'énergie (quanta), compléta l'idée de la lumière sous forme de flux de quanta ou de photons . Cependant, parallèlement au concept quantique de la lumière, la mécanique ondulatoire de la lumière a continué à se développer dans les travaux de Louis de Broglie et d'E. Schrödinger. Louis de Broglie a découvert la similitude entre la vibration d'une corde et un atome émettant un rayonnement. L'atome de chaque élément est constitué de particules élémentaires : un noyau lourd et des électrons légers. Ce système de particules se comporte comme un instrument acoustique produisant des ondes stationnaires. Louis de Broglie a fait l'hypothèse audacieuse que Un électron se déplaçant de manière uniforme et rectiligne est une onde d’une certaine longueur. Avant cela, nous étions déjà habitués au fait que la lumière agit dans certains cas comme une particule et dans d'autres comme une onde. Par rapport à l'électron, nous l'avons reconnu comme une particule (sa masse et sa charge ont été déterminées). En effet, un électron se comporte comme une particule lorsqu’il se déplace dans un champ électrique ou magnétique. Il se comporte également comme une onde lorsqu'il se diffracte, en passant à travers un cristal ou un réseau de diffraction.

Expérience de réseau de diffraction

Pour révéler l'essence de ce phénomène, une expérience de pensée avec deux fentes est généralement réalisée. Dans cette expérience, un faisceau d'électrons émis par une source S, passe à travers une plaque à deux trous puis heurte l'écran.

Si les électrons étaient des particules classiques, comme des pastilles, le nombre d'électrons frappant l'écran en passant par la première fente serait représenté par une courbe DANS, et à travers la deuxième fente – une courbe AVEC. Le nombre total de hits serait exprimé par la courbe totale D.

En réalité, quelque chose de complètement différent se produit. Courbes DANS Et AVEC nous ne le recevrons que dans les cas où l'un des trous est fermé. Si les deux trous sont ouverts en même temps, un système de maxima et de minima apparaîtra sur l'écran, semblable à celui qui se produit pour les ondes lumineuses (courbe UN).

Les caractéristiques de la situation épistémologique émergente peuvent être définies comme suit. D'une part, il s'est avéré que la réalité physique est une, c'est-à-dire qu'il n'y a pas d'écart entre le champ et la matière : le champ est comme la matière, a des propriétés corpusculaires, et les particules de matière, comme le champ, ont des propriétés ondulatoires. D’un autre côté, il s’est avéré que la réalité physique unique est double. Naturellement, un problème s’est posé : comment résoudre l’antinomie des propriétés particulaires-ondes des micro-objets. Des caractéristiques non seulement différentes, mais opposées, sont attribuées au même micro-objet.

En 1925 Louis de Broglie (1875-1960) nominé principe , selon lequel chaque particule matérielle, quelle que soit sa nature, devrait correspond à l'onde dont la longueur est l'inverse est proportionnel à l'impulsion de la particule : je = h / p , Où je– longueur d'onde, h– constante de Planck égale à 6,63 × 10 –34 J × sec, r– l’impulsion de la particule, égale au produit de la masse de la particule et de sa vitesse ( r = m× v). Ainsi, il a été constaté que non seulement des photons (particules de lumière), mais aussi d'autres les particules matérielles telles que les électrons, les protons, les neutrons, etc. propriétés doubles . Ce phénomène est appelé dualité onde-particule . Ainsi, dans certaines expériences, une particule élémentaire peut se comporter comme un corpuscule, et dans d'autres, comme une onde. Il s'ensuit que toute observation de microobjets est impossible sans prendre en compte l'influence des instruments et instruments de mesure. Dans notre macrocosme, nous ne remarquons pas l'influence de l'appareil d'observation et de mesure sur les macrocorps que nous étudions, car cette influence est extrêmement faible et peut être négligée. Les macrodispositifs introduisent des perturbations dans le micromonde et ne peuvent s'empêcher d'introduire des changements dans les microobjets.

En raison de l'incohérence des propriétés corpusculaires et ondulatoires des particules, le physicien danois N. Bor (1885-1962) nommé en 1925 principe de complémentarité . L'essence de ce principe était la suivante : un trait extrêmement caractéristique de la physique atomique est nouvelle relation entre les phénomènes observés dans différentes expériences conditions. Les données expérimentales obtenues dans de telles conditions doivent être considérées comme complémentaires, car elles représentent des informations tout aussi essentielles sur les objets atomiques et, pris ensemble, ils les épuisent. L'interaction entre les instruments de mesure et les objets physiques étudiés est fait partie intégrante des phénomènes quantiques . Nous arrivons à la conclusion que le principe de complémentarité nous donne une caractéristique fondamentale pour considérer les objets du micromonde.

Le prochain principe fondamental de la mécanique quantique est principe d'incertitude , formulé en 1927 Werner Heisenberg (1901-1976). Son essence est la suivante. Il est impossible de déterminer simultanément et avec la même précision les coordonnées d’une microparticule et son élan . La précision de la mesure des coordonnées dépend de la précision de la mesure de la quantité de mouvement et vice versa ; impossible les deux mesurer ces quantités avec précision ; plus la précision de la mesure des coordonnées est grande ( X), plus l'impulsion est incertaine ( r), et inversement. Le produit de l’incertitude de la mesure de position et de l’incertitude de la mesure de la quantité de mouvement doit être « supérieur ou égal à » la constante de Planck ( h), .

Les limites définies par ce principe ne peuvent être fondamentalement dépassées par une quelconque amélioration des instruments et des procédures de mesure. Le principe d'incertitude a montré que les prédictions de la mécanique quantique ne sont que probabilistes et ne fournissent pas les prédictions exactes auxquelles nous sommes habitués en mécanique classique. C'est l'incertitude des prédictions de la mécanique quantique qui a suscité et continue de susciter des controverses parmi les scientifiques. On a même parlé de l'absence totale de certitude en mécanique quantique, c'est-à-dire de son l'indéterminisme. Les représentants de la physique classique étaient convaincus qu’à mesure que la science et la technologie de mesure s’amélioreraient, les lois de la mécanique quantique deviendraient précises et fiables. Ces scientifiques croyaient qu'il n'y a pas de limite à l'exactitude des mesures et des prévisions.

Le principe du déterminisme et de l'indéterminisme

Le déterminisme classique a commencé avec la déclaration de Laplace (XVIIIe siècle) : « Donnez-moi les données initiales des particules du monde entier, et je vous prédirai l'avenir du monde entier. » Cette forme extrême de certitude et de prédétermination de tout ce qui existe est appelée déterminisme de Laplace.

L’humanité a longtemps cru à la prédestination de Dieu, et plus tard à la connexion causale « de fer ». Cependant, il ne faut pas ignorer Sa Majesté événement, qui arrange pour nous des choses inattendues et improbables. En physique atomique, le hasard se manifeste particulièrement clairement. Nous devrions nous habituer à l’idée que le monde n’est pas organisé de manière linéaire et n’est pas aussi simple que nous le souhaiterions.

Le principe du déterminisme Cela est particulièrement évident en mécanique classique. Ainsi, ce dernier enseigne que selon les données initiales il est possible de déterminer l'état complet d'un système mécanique à tout moment peu importe à quel point le futur est lointain . En fait, ce n’est qu’une simplicité apparente. Donc, les données initiales, même en mécanique classique, ne peuvent pas être déterminées avec une précision infinie . Premièrement, la vraie valeur des données initiales ne nous est connue qu'avec quelques degré de probabilité . Pendant le mouvement, le système mécanique sera affecté par forces aléatoires, que nous ne pouvons pas prévoir . Deuxièmement, même si ces forces sont assez faibles, leur effet peut être très important sur une longue période de temps. Et nous n'avons également aucune garantie que pendant la période pendant laquelle nous entendons prédire l'avenir du système, cela le système restera isolé . Troisièmement, ces trois circonstances sont généralement ignorées en mécanique classique. L'influence du hasard ne doit pas être ignorée, car avec le temps, l'incertitude des conditions initiales augmente et la prédiction devient parfaite sans signification .

Comme le montre l'expérience, dans les systèmes où opèrent des facteurs aléatoires, lorsque les observations sont répétées plusieurs fois, certains modèles peuvent être détectés, généralement appelés statistique (probabiliste) . Si le système subit de nombreuses influences aléatoires, alors le modèle déterministe (dynamique) lui-même devient un serviteur du hasard ; et lui-même le hasard donne naissance à un nouveau type de modèle statistique . Il est impossible de dériver un modèle statistique à partir d’un modèle dynamique. Dans les systèmes où le hasard commence à jouer un rôle important, il est nécessaire de faire des hypothèses de nature statistique (probabiliste). Nous devons donc accepter « de facto » que le hasard est capable de créer un schéma pas pire que le déterminisme.

Mécanique quantique est essentiellement une théorie basé sur des modèles statistiques . Ainsi, le sort d'une microparticule individuelle, son histoire ne peuvent être retracées qu'en termes très généraux. Une particule ne peut être localisée dans l'espace qu'avec un certain degré de probabilité, et cette localisation se détériorera avec le temps à mesure que la localisation initiale sera précise - c'est une conséquence directe de la relation d'incertitude. Cela ne diminue toutefois en rien la valeur de la mécanique quantique. La nature statistique des lois de la mécanique quantique ne doit pas être considérée comme son infériorité ou la nécessité de rechercher une théorie déterministe - cela n'existe probablement pas.

La nature statistique de la mécanique quantique ne signifie pas qu’elle manque causalité . Causalité en mécanique quantique défini comme une certaine forme d'ordonnancement des événements dans l'espace et dans le temps, et cet ordre impose son restrictions même sur les événements apparemment les plus chaotiques .

Dans les théories statistiques, la causalité s’exprime de deux manières :

  • les modèles statistiques eux-mêmes sont strictement ordonnés ;
  • les particules élémentaires individuelles (événements) sont ordonnées de telle manière que l’une d’elles ne peut affecter l’autre que si leur localisation relative dans l’espace et le temps le permet sans violer la causalité, c’est-à-dire les règles qui ordonnent les particules.

La causalité en théorie quantique est exprimée par la célèbre équation d'E. Schrödinger . Cette équation décrit le mouvement d'un atome d'hydrogène (ensemble quantique) et de telle sorte que l'état précédent dans le temps détermine ses états ultérieurs (l'état de l'électron dans l'atome d'hydrogène - ses coordonnées et son élan).

(psi) – fonction d'onde ; t- temps; – incrémentation de fonction dans le temps, h– la constante de Planck ( h=6,63×10 -34 J×sec); je est un nombre réel arbitraire.

Dans la vie de tous les jours, nous appelons raison un phénomène qui donne lieu à un autre phénomène. Cette dernière est le résultat de l'action de la cause, c'est-à-dire conséquence . De telles définitions découlent des activités pratiques directes des personnes visant à transformer le monde qui les entoure et mettent l’accent sur la nature de cause à effet de leurs activités. La tendance dominante de la science moderne est déterminer la dépendance causale par le biais de lois. Par exemple, le célèbre méthodologiste et philosophe des sciences R. Carnap a estimé qu '«il serait plus fructueux de remplacer la discussion sur la signification du concept de causalité par une étude des différents types de lois que l'on trouve dans la science».

Quant au déterminisme et à l’indéterminisme, la science moderne combine organiquement nécessité et hasard. Par conséquent, le monde et les événements qui s’y déroulent ne sont ni prédéterminés sans ambiguïté, ni purement aléatoires, conditionnés par quoi que ce soit. Le déterminisme laplacéen classique a trop insisté sur le rôle de la nécessité en niant le caractère aléatoire de la nature et a donc donné une vision déformée du monde. Un certain nombre de scientifiques modernes, ayant étendu le principe d'incertitude de la mécanique quantique à d'autres domaines, ont proclamé la domination du hasard, niant la nécessité. Cependant, la position la plus adéquate serait de considérer la nécessité et le hasard comme des aspects interdépendants et complémentaires de la réalité.

Questions pour la maîtrise de soi

  1. Quels sont les concepts fondamentaux pour décrire la nature ?
  2. Nommez les principes physiques pour décrire la nature.
  3. Quelle est l’image physique du monde ? Donnez son concept général et nommez ses principaux types historiques.
  4. Quelle est l’universalité des lois physiques ?
  5. Quelle est la différence entre la mécanique quantique et classique ?
  6. Quelles sont les principales conclusions des théories de la relativité restreinte et générale ?
  7. Nommez les principes de base de la physique moderne et développez-les brièvement.

  1. Andreev E.P. Espace micromonde. M., Nauka, 1969.
  2. Gardner M. La théorie de la relativité pour des millions. M., Atomizdat, 1967.
  3. Heisenberg V. Principes physiques de la théorie quantique. L.-M., 1932.
  4. Jammer M. Evolution des concepts de mécanique quantique. M., Mir, 1985.
  5. Dirac P. Principes de la mécanique quantique. M., 1960.
  6. Dubnischeva T.Ya. Concepts des sciences naturelles modernes. Novossibirsk, 1997. Nom de l'atelier Annotation

    Présentations

    Titre de la présentation Annotation

    Tuteurs

    Nom du tuteur Annotation

MINISTÈRE DE L'ÉDUCATION DE LA FÉDÉRATION DE RUSSIE

INSTITUT D'ÉTAT DE MOSCOU D'INGÉNIERIE RADIO, D'ÉLECTRONIQUE ET D'AUTOMATISATION (UNIVERSITÉ TECHNIQUE)

Les AA BERZIN, V.G. MOROZOV

FONDAMENTAUX DE LA MÉCANIQUE QUANTIQUE

Tutoriel

Moscou – 2004

Introduction

La mécanique quantique est apparue il y a cent ans et a pris forme vers 1930 en une théorie physique cohérente. Actuellement, il est considéré comme le fondement de notre connaissance du monde qui nous entoure. Pendant assez longtemps, l’application de la mécanique quantique aux problèmes appliqués s’est limitée à l’énergie nucléaire (principalement militaire). Cependant, après l'invention du transistor en 1948

L'un des principaux éléments de l'électronique à semi-conducteurs, et à la fin des années 1950, un laser a été créé - un générateur de lumière quantique. Il est devenu évident que les découvertes en physique quantique ont un énorme potentiel pratique et qu'une connaissance approfondie de cette science est nécessaire non seulement pour les physiciens professionnels. , mais aussi pour les représentants d'autres spécialités - chimistes, ingénieurs et même biologistes.

Alors que la mécanique quantique commençait de plus en plus à acquérir les caractéristiques non seulement de la science fondamentale, mais aussi de la science appliquée, le problème s'est posé d'enseigner ses bases aux étudiants de spécialités non physiques. L'étudiant se familiarise pour la première fois avec quelques idées quantiques dans un cours de physique générale, mais, en règle générale, cette connaissance se limite à des faits aléatoires et à leurs explications très simplifiées. D’un autre côté, un cours complet de mécanique quantique enseigné dans les départements de physique des universités est clairement redondant pour ceux qui souhaitent appliquer leurs connaissances non pas à découvrir les secrets de la nature, mais à résoudre des problèmes techniques et autres problèmes pratiques. La difficulté d'« adapter » un cours de mécanique quantique aux besoins de l'enseignement aux étudiants des spécialités appliquées a été constatée depuis longtemps et n'a pas encore été complètement surmontée, malgré de nombreuses tentatives pour créer des cours « de transition » axés sur les applications pratiques des lois quantiques. Cela est dû aux spécificités de la mécanique quantique elle-même. Premièrement, pour comprendre la mécanique quantique, l'étudiant a besoin d'une connaissance approfondie de la physique classique : mécanique newtonienne, théorie classique de l'électromagnétisme, théorie restreinte de la relativité, optique, etc. Deuxièmement, en mécanique quantique, pour décrire correctement les phénomènes du micromonde, il faut sacrifier la clarté. La physique classique fonctionne avec des concepts plus ou moins visuels ; leur rapport avec l'expérience est relativement simple. La situation est différente en mécanique quantique. Comme le souligne L.D. Landau, qui a apporté une contribution significative à la création de la mécanique quantique, « il est nécessaire de comprendre ce que nous ne pouvons plus imaginer ». Habituellement, les difficultés rencontrées dans l'étude de la mécanique quantique s'expliquent généralement par son appareil mathématique plutôt abstrait, dont l'utilisation est inévitable en raison de la perte de clarté des concepts et des lois. En effet, pour apprendre à résoudre des problèmes de mécanique quantique, il faut connaître les équations différentielles, maîtriser assez bien les nombres complexes et être également capable de faire bien plus encore. Mais tout cela ne va pas au-delà de la formation mathématique d’un étudiant d’une université technique moderne. La vraie difficulté de la mécanique quantique n’est pas seulement liée aux mathématiques. Le fait est que les conclusions de la mécanique quantique, comme toute théorie physique, doivent prédire et expliquer expériences réelles, vous devez donc apprendre à relier des constructions mathématiques abstraites à des quantités physiques mesurables et à des phénomènes observables. Cette compétence est développée par chaque personne individuellement, principalement en résolvant des problèmes de manière indépendante et en comprenant les résultats. Newton a également noté : « dans l’étude des sciences, les exemples sont souvent plus importants que les règles ». En ce qui concerne la mécanique quantique, ces mots contiennent une grande part de vérité.

Le manuel proposé au lecteur est basé sur de nombreuses années de pratique d'enseignement du cours « Physique 4 » de MIREA, dédié aux fondamentaux de la mécanique quantique, aux étudiants de toutes les spécialités des facultés d'électronique et RTS et aux étudiants de ces spécialités de la faculté de cybernétique, où la physique est l'une des principales disciplines académiques. Le contenu du manuel et la présentation du matériel sont déterminés par un certain nombre de circonstances objectives et subjectives. Tout d'abord, il fallait tenir compte du fait que le cours « Physique 4 » est conçu pour un semestre. Par conséquent, parmi toutes les sections de la mécanique quantique moderne, celles qui sont directement liées à l'électronique et à l'optique quantique - les domaines d'application les plus prometteurs de la mécanique quantique - ont été sélectionnées. Cependant, contrairement aux cours de physique générale et de disciplines techniques appliquées, nous avons cherché à présenter ces sections dans le cadre d’une approche unifiée et assez moderne, prenant en compte les capacités des étudiants à la maîtriser. Le volume du manuel dépasse le contenu des cours magistraux et des cours pratiques, puisque le cours « Physique 4 » oblige les étudiants à suivre des cours ou des devoirs individuels qui nécessitent une étude indépendante de questions non incluses dans le plan de cours. La présentation de ces questions dans les manuels de mécanique quantique, destinés aux étudiants des départements universitaires de physique, dépasse souvent le niveau de préparation d'un étudiant d'une université technique. Ainsi, ce manuel peut être utilisé comme source de matériel pour les cours et les devoirs individuels.

Les exercices constituent une partie importante du manuel. Certains d'entre eux sont donnés directement dans le texte, les autres sont placés à la fin de chaque paragraphe. De nombreux exercices incluent des instructions pour le lecteur. En lien avec « l'inhabitualité » des concepts et méthodes de mécanique quantique évoqués ci-dessus, la réalisation d'exercices doit être considérée comme un élément absolument nécessaire de l'étude du cours.

1. Origines physiques de la théorie quantique

1.1. Des phénomènes qui contredisent la physique classique

Commençons par un bref aperçu des phénomènes que la physique classique ne pouvait pas expliquer et qui ont finalement conduit à l'émergence de la théorie quantique.

Spectre de rayonnement d'équilibre d'un corps noir. Rappelons qu'en physique

Un corps noir (souvent appelé « corps noir absolu ») est un corps qui absorbe complètement le rayonnement électromagnétique de toute fréquence incident sur lui.

Le corps noir est bien entendu un modèle idéalisé, mais il peut être réalisé avec une grande précision à l’aide d’un simple appareil.

Une cavité fermée avec un petit trou dont les parois intérieures sont recouvertes d'une substance qui absorbe bien le rayonnement électromagnétique, par exemple de la suie (voir Fig. 1.1.). Si la température des parois T est maintenue constante, alors un équilibre thermique finira par s'établir entre la substance des parois

Riz. 1.1. et le rayonnement électromagnétique dans la cavité. L'un des problèmes activement discutés par les physiciens à la fin du XIXe siècle était le suivant : comment l'énergie du rayonnement d'équilibre est-elle répartie sur

Riz. 1.2.

fréquences ? Quantitativement, cette distribution est décrite par la densité spectrale d'énergie du rayonnement u ω. Le produit ω dω est l'énergie des ondes électromagnétiques par unité de volume avec des fréquences comprises entre ω et ω + dω. La densité d'énergie spectrale peut être mesurée en analysant le spectre du rayonnement provenant de l'ouverture de la cavité illustrée sur la figure. 1.1. La dépendance expérimentale de u ω pour deux valeurs de température est représentée sur la Fig. 1.2. Avec l'augmentation de la température, le maximum de la courbe se déplace vers les hautes fréquences et à une température suffisamment élevée, la fréquence ω m peut atteindre la région du rayonnement visible à l'œil. Le corps commencera à briller et avec une nouvelle augmentation de la température, la couleur du corps passera du rouge au violet.

Jusqu'à présent, nous avons parlé de données expérimentales. L'intérêt pour le spectre du rayonnement du corps noir est dû au fait que la fonction u ω peut être calculée avec précision à l'aide des méthodes de physique statistique classique et de la théorie électromagnétique de Maxwell. Selon la physique statistique classique, à l'équilibre thermique, l'énergie de tout système est répartie uniformément sur tous les degrés de liberté (théorème de Boltzmann). Chaque degré de liberté indépendant du champ de rayonnement est une onde électromagnétique avec une certaine polarisation et fréquence. D'après le théorème de Boltzmann, l'énergie moyenne d'une telle onde en équilibre thermique à température T est égale à k B T, où k B = 1. 38· 10− 23 J/ K est la constante de Boltzmann. C'est pourquoi

où c est la vitesse de la lumière. Ainsi, l’expression classique de la densité spectrale de rayonnement à l’équilibre a la forme

vous ω=

k B T ω2

π2c3

Cette formule est la fameuse formule Rayleigh-Jeans. En physique classique, c’est à la fois précis et absurde. En fait, selon lui, en équilibre thermique, à n'importe quelle température, il existe des ondes électromagnétiques de fréquences arbitrairement élevées (c'est-à-dire le rayonnement ultraviolet, les rayons X et même le rayonnement gamma, mortel pour l'homme), et plus la fréquence du rayonnement est élevée, plus plus d'énergie lui tombe dessus. La contradiction évidente entre la théorie classique du rayonnement à l'équilibre et l'expérience a reçu un nom émotionnel dans la littérature physique - ultra-violet

catastrophe Notons que le célèbre physicien anglais Lord Kelvin, résumant le développement de la physique au XIXe siècle, a qualifié le problème du rayonnement thermique à l'équilibre de l'un des principaux problèmes non résolus.

Effet photo. Un autre « point faible » de la physique classique s'est avéré être l'effet photoélectrique - l'élimination des électrons d'une substance sous l'influence de la lumière. Il était totalement incompréhensible que l'énergie cinétique des électrons ne dépende pas de l'intensité de la lumière, qui est proportionnelle au carré de l'amplitude du champ électrique.

V onde lumineuse et est égal au flux d’énergie moyen incident sur la substance. D’un autre côté, l’énergie des électrons émis dépend de manière significative de la fréquence de la lumière et augmente linéairement avec l’augmentation de la fréquence. C'est aussi impossible à expliquer

V dans le cadre de l’électrodynamique classique, puisque le flux d’énergie d’une onde électromagnétique, selon la théorie de Maxwell, ne dépend pas de sa fréquence et est entièrement déterminé par l’amplitude. Enfin, l'expérience a montré que pour chaque substance, il existe un soi-disant la bordure rouge de l'effet photoélectrique, c'est-à-dire le minimum

fréquence ω min à laquelle commence l'inactivation des électrons. Siω< ω min , то свет с частотойω не выбьет ни одного электрона, независимо от интенсивности.

Effet Compton. Un autre phénomène que la physique classique ne pouvait pas expliquer a été découvert en 1923 par le physicien américain A. Compton. Il a découvert que lorsque le rayonnement électromagnétique (dans la gamme de fréquences des rayons X) est diffusé par des électrons libres, la fréquence du rayonnement diffusé est inférieure à la fréquence du rayonnement incident. Ce fait expérimental contredit l'électrodynamique classique, selon laquelle les fréquences du rayonnement incident et diffusé doivent être exactement égales. Pour vérifier cela, vous n’avez pas besoin de mathématiques complexes. Il suffit de rappeler le mécanisme classique de diffusion d'une onde électromagnétique par des particules chargées. Schème

Le raisonnement ressemble à ceci. Champ électrique alternatif E (t) =E 0 sinωt

l'onde incidente agit sur chaque électron avec une force F (t) =−eE (t), où −e -

(moi

charge électronique

L'électron acquiert une accélération a (t) =F (t)/m e

électron), qui change dans le temps avec la même fréquence ω que le champ dans l’onde incidente. Selon l'électrodynamique classique, une charge se déplaçant avec une accélération émet des ondes électromagnétiques. Il s'agit d'un rayonnement diffusé. Si l’accélération change avec le temps selon une loi harmonique de fréquence ω, alors des ondes de même fréquence sont émises. L'apparition d'ondes diffusées avec des fréquences inférieures à la fréquence du rayonnement incident contredit clairement l'électrodynamique classique.

Stabilité atomique. En 1912, un événement très important pour l'ensemble du développement des sciences naturelles s'est produit : la structure de l'atome a été clarifiée. Le physicien anglais E. Rutherford, menant des expériences sur la diffusion des particules alpha dans la matière, a découvert que la charge positive et la quasi-totalité de la masse de l'atome sont concentrées dans le noyau dont les dimensions sont de l'ordre de 10−12 - 10−13 cm. Les dimensions du noyau se sont révélées négligeables par rapport aux dimensions de l'atome lui-même (environ 10−8 cm). Pour expliquer les résultats de ses expériences, Rutherford a émis l'hypothèse que l'atome était structuré de manière similaire à celle du système solaire : les électrons légers se déplacent sur des orbites autour d'un noyau massif, tout comme les planètes se déplacent autour du Soleil. La force qui maintient les électrons sur leurs orbites est la force coulombienne d’attraction du noyau. À première vue, un tel « modèle planétaire » semble très

1 Le symbole désigne partout une charge élémentaire positive = 1,602· 10− 19 C.

attrayant : il est clair, simple et tout à fait cohérent avec les résultats expérimentaux de Rutherford. De plus, à partir de ce modèle, il est facile d’estimer l’énergie d’ionisation d’un atome d’hydrogène ne contenant qu’un seul électron. L'estimation donne un bon accord avec la valeur expérimentale de l'énergie d'ionisation. Malheureusement, pris au pied de la lettre, le modèle planétaire de l’atome présente un inconvénient désagréable. Le fait est que, du point de vue de l’électrodynamique classique, un tel atome ne peut tout simplement pas exister ; il est instable. La raison en est assez simple : l’électron se déplace sur son orbite avec une accélération. Même si la vitesse de l'électron ne change pas, il y a quand même une accélération vers le noyau (accélération normale ou « centripète »). Mais, comme indiqué ci-dessus, une charge se déplaçant avec accélération doit émettre des ondes électromagnétiques. Ces ondes emportent de l’énergie, donc l’énergie de l’électron diminue. Le rayon de son orbite diminue et finalement l'électron doit tomber sur le noyau. Des calculs simples, que nous ne présenterons pas, montrent que la « durée de vie » caractéristique d'un électron en orbite est d'environ 10−8 secondes. Ainsi, la physique classique est incapable d’expliquer la stabilité des atomes.

Les exemples ci-dessus n’épuisent pas toutes les difficultés rencontrées par la physique classique au tournant des XIXe et XXe siècles. Nous examinerons plus tard d'autres phénomènes dont les conclusions contredisent l'expérience, lorsque l'appareil de la mécanique quantique sera développé et que nous pourrons immédiatement donner l'explication correcte. Les contradictions progressivement accumulées entre la théorie et les données expérimentales ont conduit à la prise de conscience que «tout n'est pas en ordre» avec la physique classique et que des idées complètement nouvelles sont nécessaires.

1.2. L'hypothèse de Planck sur la quantification de l'énergie de l'oscillateur

Décembre 2000 marquait le centenaire de la théorie quantique. Cette date est associée aux travaux de Max Planck, dans lesquels il a proposé une solution au problème du rayonnement thermique à l'équilibre. Par souci de simplicité, Planck a choisi comme modèle de la substance des parois de la cavité (voir Fig. 1.1.) un système d'oscillateurs chargés, c'est-à-dire des particules capables d'effectuer des oscillations harmoniques autour de la position d'équilibre. Si ω est la fréquence propre de l'oscillateur, alors il est capable d'émettre et d'absorber des ondes électromagnétiques de même fréquence. Laissez les parois de la cavité de la Fig. 1.1. contiennent des oscillateurs avec toutes les fréquences naturelles possibles. Ensuite, une fois l’équilibre thermique établi, l’énergie moyenne par onde électromagnétique de fréquence ω doit être égale à l’énergie moyenne de l’oscillateur E ω de même fréquence naturelle d’oscillation. En rappelant le raisonnement donné à la page 5, écrivons la densité spectrale de rayonnement à l’équilibre sous la forme suivante :

1 En latin, le mot « quantique » signifie littéralement « portion » ou « morceau ».

À son tour, le quantum d’énergie est proportionnel à la fréquence de l’oscillateur :

Certaines personnes préfèrent utiliser à la place de la fréquence cyclique ω la fréquence dite linéaire ν =ω/ 2π, qui est égale au nombre d'oscillations par seconde. Alors l’expression (1.6) pour le quantum d’énergie peut s’écrire sous la forme

ε = h ν.

La valeur h = 2π 6, 626176· 10− 34 J· s est aussi appelée constante de Planck1.

Sur la base de l'hypothèse de quantification de l'énergie de l'oscillateur, Planck a obtenu l'expression suivante pour la densité spectrale du rayonnement d'équilibre2 :

π2c3

e ω/kB T

− 1

Dans la région des basses fréquences (ω k B T ), la formule de Planck coïncide pratiquement avec la formule de Rayleigh-Jeans (1.3), et aux hautes fréquences (ω k B T ), la densité spectrale de rayonnement, conformément à l'expérience, tend rapidement vers zéro .

1.3. L'hypothèse d'Einstein sur les quanta du champ électromagnétique

Bien que l'hypothèse de Planck sur la quantification de l'énergie des oscillateurs « ne rentre pas » dans la mécanique classique, elle pourrait être interprétée dans le sens où, apparemment, le mécanisme d'interaction de la lumière avec la matière est tel que l'énergie du rayonnement n'est absorbée et émise que par portions, dont la valeur est donnée par la formule ( 1.5). En 1900, on ne savait pratiquement rien de la structure des atomes, de sorte que l’hypothèse de Planck elle-même ne signifiait pas encore un rejet complet des lois classiques. Une hypothèse plus radicale fut exprimée en 1905 par Albert Einstein. En analysant les lois de l'effet photoélectrique, il a montré qu'elles s'expliquent toutes naturellement si l'on accepte que la lumière d'une certaine fréquence ω est constituée de particules individuelles (photons) avec de l'énergie

1 Parfois, pour souligner de quelle constante de Planck il s’agit, on l’appelle « la constante de Planck barrée ».

2 Or, cette expression s'appelle la formule de Planck.

où Aout est la fonction de sortie, c'est-à-dire l'énergie nécessaire pour vaincre les forces retenant l'électron dans la substance1. La dépendance de l'énergie photoélectronique sur la fréquence lumineuse, décrite par la formule (1.11), était en excellent accord avec la dépendance expérimentale, et la valeur dans cette formule s'est avérée très proche de la valeur (1.7). Notez qu’en acceptant l’hypothèse des photons, il a également été possible d’expliquer les modèles de rayonnement thermique à l’équilibre. En effet, l’absorption et l’émission de l’énergie du champ électromagnétique par la matière se produisent sous forme de quanta car des photons individuels ayant exactement cette énergie sont absorbés et émis.

1.4. Moment photonique

L’introduction du concept de photons a dans une certaine mesure relancé la théorie corpusculaire de la lumière. Le fait que le photon soit une « vraie » particule est confirmé par l’analyse de l’effet Compton. Du point de vue de la théorie des photons, la diffusion des rayons X peut être représentée comme des actes individuels de collisions de photons avec des électrons (voir Fig. 1.3.), dans lesquels les lois de conservation de l'énergie et de la quantité de mouvement doivent être satisfaites.

La loi de conservation de l'énergie dans ce processus a la forme

proportionné à la vitesse de la lumière, donc

une expression de l'énergie électronique est nécessaire

prendre une forme relativiste, c'est-à-dire

Anguille = moi c2,

E el=

moi e 2c 4+ p 2c 2

où p est l'amplitude de l'impulsion électronique après une collision avec un photon, am

électron. La loi de conservation de l'énergie dans l'effet Compton ressemble à ceci :

ω + moi c2 = ω+

moi e 2c 4+ p 2c 2

D’ailleurs, il ressort immédiatement de là que ω< ω ; это наблюдается и в эксперименте. Чтобы записать закон сохранения импульса в эффекте Комптона, необходимо найти выражение для импульса фотона. Это можно сделать на основе следующих простых рассуждений. Фотон всегда движется со скоростью светаc , но, как известно из теории относительности, частица, движущаяся со скоростью света, должна

avoir une masse nulle. Ainsi, d’après l’expression générale de relativiste

énergie E =m 2 c 4 +p 2 c 2 il s'ensuit que l'énergie et l'impulsion du photon sont liées par la relation E =pc. En rappelant la formule (1.10), on obtient

Maintenant, la loi de conservation de la quantité de mouvement dans l'effet Compton peut s'écrire

La solution du système d'équations (1.12) et (1.18), que nous laissons au lecteur (voir exercice 1.2.), conduit à la formule suivante pour changer la longueur d'onde du rayonnement diffusé ∆λ = λ − λ :

est appelée la longueur d'onde Compton de la particule (masse m) sur laquelle le rayonnement est diffusé. Si m = m e = 0,911· 10− 30 kg est la masse de l'électron, alors λ C = 0,0243· 10− 10 m Les résultats des mesures de ∆λ effectuées par Compton puis par de nombreux autres expérimentateurs sont tout à fait cohérents avec. les prédictions de la formule (1.19) et la valeur de la constante de Planck, qui est incluse dans l'expression (1.20), coïncident avec les valeurs obtenues à partir d'expériences sur le rayonnement thermique à l'équilibre et l'effet photoélectrique.

Après l’avènement de la théorie des photons de la lumière et son succès dans l’explication d’un certain nombre de phénomènes, une situation étrange s’est produite. Essayons en fait de répondre à la question : qu’est-ce que la lumière ? D'une part, dans l'effet photoélectrique et l'effet Compton, elle se comporte comme un flux de particules - des photons, mais, d'autre part, les phénomènes d'interférence et de diffraction montrent avec la même persistance que la lumière est une onde électromagnétique. Sur la base de l'expérience « macroscopique », nous savons qu'une particule est un objet qui a des dimensions finies et se déplace le long d'une certaine trajectoire, et qu'une onde remplit une région de l'espace, c'est-à-dire qu'il s'agit d'un objet continu. Comment combiner ces deux points de vue mutuellement exclusifs sur une même réalité physique – le rayonnement électromagnétique ? Le paradoxe onde-particule (ou, comme les philosophes préfèrent le dire, la dualité onde-particule) pour la lumière n’a été expliqué qu’en mécanique quantique. Nous y reviendrons après avoir pris connaissance des bases de cette science.

1 Rappelons que le module du vecteur d'onde est appelé nombre d'onde.

Exercices

1.1. À l'aide de la formule d'Einstein (1.11), expliquez l'existence du rouge limites de la matière. ωmin pour un effet photo. Exprimerωmin grâce à la fonction de travail électronique

1.2. Dériver l’expression (1.19) pour le changement de longueur d’onde du rayonnement dans l’effet Compton.

Astuce : en divisant l’égalité (1.14) par c et en utilisant la relation entre le nombre d’onde et la fréquence (k =ω/c), nous écrivons

p2 + m2 e c2 = (k − k) + moi c.

Après avoir mis les deux côtés au carré, on obtient

où ϑ est l’angle de diffusion illustré sur la figure. 1.3. En égalisant les membres droits de (1.21) et (1.22), on arrive à l'égalité

moi c(k − k) = kk(1 −cos ϑ) .

Il reste à multiplier cette égalité par 2π, à diviser par m e ckk et à passer des nombres d'ondes aux longueurs d'onde (2π/k =λ).

2. Quantification de l'énergie atomique. Propriétés ondulatoires des microparticules

2.1. La théorie atomique de Bohr

Avant de passer directement à l'étude de la mécanique quantique dans sa forme moderne, nous discuterons brièvement de la première tentative d'application de l'idée de quantification de Planck au problème de la structure atomique. Nous parlerons de la théorie de l'atome proposée en 1913 par Niels Bohr. L'objectif principal que Bohr s'était fixé était d'expliquer la structure étonnamment simple du spectre d'émission de l'atome d'hydrogène, formulée par Ritz en 1908 sous la forme de ce que l'on appelle le principe de combinaison. Selon ce principe, les fréquences de toutes les raies du spectre de l'hydrogène peuvent être représentées comme les différences de certaines quantités T (n) (« termes »), dont la séquence est exprimée en termes d'entiers.

MÉCANIQUE QUANTIQUE
théorie physique fondamentale du comportement dynamique de toutes les formes élémentaires de matière et de rayonnement, ainsi que de leurs interactions. La mécanique quantique est la base théorique sur laquelle est construite la théorie moderne des atomes, des noyaux atomiques, des molécules et des corps physiques, ainsi que des particules élémentaires à partir desquelles ils sont tous composés. La mécanique quantique a été créée par des scientifiques cherchant à comprendre le fonctionnement de l’atome. Les processus atomiques sont étudiés par les physiciens et notamment les chimistes depuis de nombreuses années ; en présentant cette question, nous suivrons, sans entrer dans les détails de la théorie, le cours historique du développement du sujet. Voir aussi ATOME.
L'origine de la théorie. Lorsque E. Rutherford et N. Bohr proposèrent le modèle nucléaire de l’atome en 1911, cela ressemblait à un miracle. En fait, il a été construit à partir de quelque chose qui était connu depuis plus de 200 ans. Il s'agissait essentiellement d'un modèle copernicien du système solaire, reproduit à l'échelle microscopique : au centre se trouve une masse lourde, bientôt appelée noyau, autour de laquelle tournent des électrons dont le nombre détermine les propriétés chimiques de l'atome. . Mais pas seulement, derrière ce modèle visuel se trouvait une théorie qui permettait de commencer à calculer certaines propriétés chimiques et physiques des substances, du moins celles construites à partir des atomes les plus petits et les plus simples. La théorie de Bohr-Rutherford contenait un certain nombre de dispositions qu'il est utile de rappeler ici, car elles ont toutes été conservées sous une forme ou une autre dans la théorie moderne. Premièrement, la question de la nature des forces qui lient l’atome est importante. Du 18ème siècle on savait que les corps chargés électriquement s'attirent ou se repoussent avec une force inversement proportionnelle au carré de la distance qui les sépare. En utilisant comme corps d'essai des particules alpha résultant de transformations radioactives, Rutherford a montré que la même loi d'interaction électrique (loi de Coulomb) est valable à des échelles un million de millions de fois plus petites que celles pour lesquelles elle avait été initialement établie expérimentalement. Planck et A. Einstein sur la nature de la lumière, Bohr a réussi à expliquer quantitativement tout le spectre du rayonnement des atomes d'hydrogène dans un tube à décharge et à donner une explication qualitative de toutes les lois fondamentales du système périodique des éléments. En 1920, le moment était venu d’aborder le problème du spectre d’émission des atomes plus lourds et de calculer l’intensité des forces chimiques qui lient les atomes entre eux dans des composés. Mais ici, l’illusion du succès s’est estompée. Pendant plusieurs années, Bohr et d’autres chercheurs ont tenté en vain de calculer le spectre de l’hélium, l’atome le plus simple doté de deux électrons après l’hydrogène. Au début, rien ne fonctionnait ; En fin de compte, plusieurs chercheurs ont résolu ce problème de différentes manières, mais la réponse s'est avérée incorrecte: elle contredisait l'expérience. Ensuite, il s’est avéré qu’il était généralement impossible de construire une théorie acceptable de l’interaction chimique. Au début des années 1920, la théorie de Bohr était épuisée. Le moment est venu de reconnaître la vérité de la remarque prophétique que Bohr faisait en 1914 dans une lettre à un ami dans son style complexe et caractéristique : « Je suis enclin à croire que le problème implique des difficultés extrêmement grandes, qui ne peuvent être surmontées qu'en s'éloignant beaucoup plus des considérations ordinaires que ce qui était exigé jusqu'à présent, et que le succès obtenu auparavant était dû uniquement à la simplicité des systèmes considérés.
Voir aussi
BOR Niels Henrik David;
LUMIÈRE ;
RUTHERFORD Ernest;
SPECTROSCOPIE.
Premiers pas. Comme la combinaison par Bohr d'idées préexistantes dans les domaines de l'électricité et de la mécanique avec des conditions de quantification a conduit à des résultats incorrects, il a fallu tout changer complètement ou partiellement. Les principales dispositions de la théorie de Bohr ont été données ci-dessus, et pour les calculs correspondants, des calculs peu complexes utilisant l'algèbre ordinaire et l'analyse mathématique suffisaient. En 1925, le jeune physicien allemand W. Heisenberg rendit visite à Bohr à Copenhague, où il passa de longues heures à discuter avec lui, découvrant ce qui, dans la théorie de Bohr, devait nécessairement être inclus dans la théorie future et ce qui, en principe, pourrait être abandonné. Bohr et Heisenberg ont immédiatement convenu que la future théorie doit nécessairement représenter tout ce qui est directement observable, et que tout ce qui ne l'est pas peut être modifié ou exclu de la considération. Dès le début, Heisenberg pensait que les atomes devaient être préservés, mais que l'orbite d'un électron dans un atome devait être considérée comme une idée abstraite, puisqu'aucune expérience ne pouvait déterminer l'orbite de l'électron à partir de mesures comme cela peut être fait pour les orbites de planètes. Le lecteur remarquera peut-être qu'il y a ici un certain illogisme : à proprement parler, l'atome est aussi inobservable directement que les orbites électroniques, et en général, il n'y a pas une seule sensation dans notre perception du monde qui ne nécessite pas d'explication. De nos jours, les physiciens citent de plus en plus le célèbre aphorisme prononcé pour la première fois par Einstein lors d’une conversation avec Heisenberg : « Ce que nous observons exactement, c’est la théorie qui nous le dit ». Ainsi, la distinction entre quantités observables et inobservables est de nature purement pratique, n’ayant aucune justification ni en logique stricte ni en psychologie, et cette distinction, quelle que soit la manière dont elle est faite, doit être considérée comme faisant partie de la théorie elle-même. L’idéal d’Heisenberg d’une théorie purifiée de tout ce qui est inobservable est donc une certaine direction de pensée, mais en aucun cas une approche scientifique cohérente. Néanmoins, elle a dominé la théorie atomique pendant près d’un demi-siècle après sa première formulation. Nous avons déjà rappelé les éléments constitutifs du premier modèle de Bohr, tels que la loi de Coulomb pour les forces électriques, les lois de la dynamique de Newton et les règles habituelles de l'algèbre. Grâce à une analyse subtile, Heisenberg a montré qu'il était possible de préserver les lois connues de l'électricité et de la dynamique en trouvant une expression appropriée de la dynamique newtonienne, puis en modifiant les règles de l'algèbre. En particulier, Heisenberg a suggéré que puisque ni la position q ni l'impulsion p d'un électron ne sont des quantités mesurables au sens où le sont, par exemple, la position et l'impulsion d'une voiture, nous pouvons, si nous le souhaitons, les conserver dans le théorie uniquement en les considérant comme des symboles mathématiques représentés par des lettres, mais non par des chiffres. Il a adopté des règles algébriques pour p et q, selon lesquelles le produit pq ne coïncide pas avec le produit qp. Heisenberg a montré que de simples calculs de systèmes atomiques donnent des résultats acceptables si l'on suppose que la position q et l'impulsion p satisfont à la relation

Où h est la constante de Planck, déjà connue de la théorie quantique du rayonnement et présentée dans la théorie de Bohr, a. La constante de Planck h est un nombre commun, mais très petit, environ 6,6×10-34 J*s. Ainsi, si p et q sont des quantités sur une échelle ordinaire, alors la différence entre les produits pq et qp sera extrêmement petite par rapport à ces produits eux-mêmes, de sorte que p et q peuvent être considérés comme des nombres ordinaires. Construite pour décrire les phénomènes du monde microscopique, la théorie de Heisenberg est presque entièrement cohérente avec la mécanique newtonienne lorsqu'elle est appliquée à des objets macroscopiques. Déjà dans les premiers travaux de Heisenberg, il avait été montré que, malgré l'incertitude du contenu physique de la nouvelle théorie, elle prédit l'existence d'états énergétiques discrets caractéristiques des phénomènes quantiques (par exemple, l'émission de lumière par un atome). Dans des travaux ultérieurs, menés conjointement avec M. Born et P. Jordan à Göttingen, Heisenberg développa l'appareil mathématique formel de la théorie. Les calculs pratiques restaient cependant extrêmement difficiles. Après plusieurs semaines de travail acharné, W. Pauli a dérivé une formule pour les niveaux d'énergie de l'atome d'hydrogène, qui coïncide avec la formule de Bohr. Mais avant que les calculs puissent être simplifiés, des idées nouvelles et complètement inattendues sont apparues. Voir aussi
RÉSUMÉ D'ALGÈBRE ;
LA BARRE EST CONSTANTE.
Particules et vagues. En 1920, les physiciens connaissaient déjà bien la double nature de la lumière : les résultats de certaines expériences avec la lumière pouvaient s’expliquer en supposant que la lumière était une onde, tandis que dans d’autres, elle se comportait comme un flux de particules. Puisqu’il semblait évident que rien ne pouvait être à la fois onde et particule, la situation restait floue, provoquant de vifs débats entre spécialistes. En 1923, le physicien français L. de Broglie, dans ses notes publiées, suggérait qu'un tel comportement paradoxal n'était peut-être pas spécifique à la lumière, mais que la matière pouvait aussi se comporter comme des particules dans certains cas, et comme des ondes dans d'autres. S'appuyant sur la théorie de la relativité, de Broglie a montré que si l'impulsion d'une particule est égale à p, alors l'onde « associée » à cette particule doit avoir une longueur d'onde l = h/p. Cette relation est similaire à la relation E = hn, obtenue pour la première fois par Planck et Einstein, entre l'énergie d'un quantum lumineux E et la fréquence n de l'onde correspondante. De Broglie a également montré que cette hypothèse pouvait être facilement testée dans des expériences similaires à celles démontrant la nature ondulatoire de la lumière, et il a insisté pour que de telles expériences soient réalisées. Les notes de De Broglie attirèrent l'attention d'Einstein et, en 1927, K. Davisson et L. Germer aux États-Unis, ainsi que J. Thomson en Angleterre, confirmèrent non seulement l'idée fondamentale de de Broglie sur les électrons, mais aussi sa formule pour la longueur d'onde. En 1926, le physicien autrichien E. Schrödinger, qui travaillait alors à Zurich, entendit parler des travaux de de Broglie et des résultats préliminaires d'expériences qui les confirmaient, publia quatre articles dans lesquels il présenta une nouvelle théorie, qui constituait une base mathématique solide pour ces idées. Cette situation a son analogue dans l’histoire de l’optique. La simple certitude que la lumière est une onde d’une certaine longueur ne suffit pas pour décrire le comportement de la lumière en détail. Il est également nécessaire d'écrire et de résoudre les équations différentielles dérivées de J. Maxwell, qui décrivent en détail les processus d'interaction de la lumière avec la matière et la propagation de la lumière dans l'espace sous la forme d'un champ électromagnétique. Schrödinger a écrit une équation différentielle pour les ondes de matière de de Broglie, similaire aux équations de Maxwell pour la lumière. L'équation de Schrödinger pour une particule a la forme


où m est la masse de la particule, E est son énergie totale, V(x) est l'énergie potentielle et y est la quantité décrivant l'onde électronique. Dans une série d’articles, Schrödinger a montré comment son équation pouvait être utilisée pour calculer les niveaux d’énergie de l’atome d’hydrogène. Il a également établi qu'il existait des moyens simples et efficaces de résoudre approximativement des problèmes qui ne pouvaient pas être résolus exactement, et que sa théorie des ondes de matière était mathématiquement complètement équivalente à la théorie algébrique des observables de Heisenberg et conduisait dans tous les cas aux mêmes résultats. P. Dirac, de l'Université de Cambridge, a montré que les théories de Heisenberg et de Schrödinger ne représentent que deux des nombreuses formes possibles de théorie. La théorie des transformations de Dirac, dans laquelle la relation (1) joue un rôle crucial, a fourni une formulation générale claire de la mécanique quantique, couvrant toutes ses autres formulations comme cas particuliers. Dirac a rapidement obtenu un succès inattendu en démontrant comment la mécanique quantique se généralise au domaine des très grandes vitesses, c'est-à-dire prend une forme qui satisfait aux exigences de la théorie de la relativité. Peu à peu, il est devenu clair qu'il existe plusieurs équations d'ondes relativistes, dont chacune, dans le cas de faibles vitesses, peut être approchée par l'équation de Schrödinger, et que ces équations décrivent des particules de types complètement différents. Par exemple, les particules peuvent avoir des « spins » différents ; c'est ce que prévoit la théorie de Dirac. De plus, selon la théorie relativiste, chaque particule doit avoir une antiparticule de signe opposé à la charge électrique. Au moment de la publication des travaux de Dirac, seules trois particules élémentaires étaient connues : le photon, l'électron et le proton. En 1932, l'antiparticule de l'électron, le positon, est découverte. Au cours des décennies suivantes, de nombreuses autres antiparticules ont été découvertes, dont la plupart satisfaisaient l’équation de Dirac ou ses généralisations. Créée en 1925-1928 grâce aux efforts d'éminents physiciens, la mécanique quantique n'a pas subi depuis lors de changements significatifs dans ses principes fondamentaux.
Voir aussi ANTIMATIÈRE.
Applications. Toutes les branches de la physique, de la biologie, de la chimie et de l’ingénierie dans lesquelles les propriétés de la matière à petite échelle sont importantes se tournent désormais systématiquement vers la mécanique quantique. Donnons quelques exemples. La structure des orbites électroniques les plus éloignées du noyau atomique a été étudiée en profondeur. Les méthodes de la mécanique quantique ont été appliquées à des problèmes de structure moléculaire, conduisant à une révolution en chimie. La structure des molécules est déterminée par les liaisons chimiques des atomes et, aujourd'hui, des problèmes complexes résultant de l'application cohérente de la mécanique quantique dans ce domaine sont résolus à l'aide d'ordinateurs. La théorie de la structure cristalline des solides et en particulier la théorie des propriétés électriques des cristaux ont attiré beaucoup d'attention. Les résultats pratiques sont impressionnants : on peut citer à titre d’exemple l’invention des lasers et des transistors, ainsi que des avancées significatives dans l’explication du phénomène de supraconductivité.
Voir aussi
PHYSIQUE DU SOLIDE ;
LASER ;
TRANSISTOR ;
SUPRACONDUCTIVITÉ. De nombreux problèmes ne sont pas encore résolus. Cela concerne la structure du noyau atomique et la physique des particules. De temps en temps, on se demande si les problèmes de la physique des particules élémentaires dépassent le cadre de la mécanique quantique, tout comme la structure des atomes dépasse le cadre de la dynamique newtonienne. Cependant, rien n’indique encore que les principes de la mécanique quantique ou ses généralisations dans le domaine de la dynamique des champs se soient révélés inapplicables nulle part. Depuis plus d’un demi-siècle, la mécanique quantique est restée un outil scientifique doté d’un « pouvoir explicatif » unique et ne nécessite pas de changements significatifs dans sa structure mathématique. Il peut donc paraître surprenant qu’il y ait encore un débat intense (voir ci-dessous) sur la signification physique de la mécanique quantique et son interprétation.
Voir aussi
STRUCTURE ATOMIQUE ;
STRUCTURE DU NOYAU ATOMIQUE ;
STRUCTURE MOLÉCULAIRE ;
PARTICULES ÉLÉMENTAIRES.
Question sur la signification physique. La dualité onde-particule, si évidente en expérience, crée l'un des problèmes les plus difficiles dans l'interprétation physique du formalisme mathématique de la mécanique quantique. Prenons, par exemple, une fonction d'onde qui décrit une particule se déplaçant librement dans l'espace. L'idée traditionnelle d'une particule, entre autres, suppose qu'elle se déplace le long d'une certaine trajectoire avec un certain élan p. La fonction d'onde se voit attribuer la longueur d'onde de Broglie l = h/p, mais il s'agit d'une caractéristique d'une onde qui est infinie dans l'espace et ne transporte donc pas d'informations sur l'emplacement de la particule. La fonction d'onde qui localise une particule dans une certaine région de l'espace avec une extension de Dx peut être construite sous la forme d'une superposition (paquet) d'ondes avec un ensemble d'impulsions correspondant, et si la plage d'impulsions souhaitée est égale à Dp , alors il est assez simple de montrer que pour les valeurs de Dx et Dp la relation DxDp і doit être satisfaite h/4p. Cette relation, obtenue pour la première fois en 1927 par Heisenberg, exprime le principe d'incertitude bien connu : plus l'une des deux variables x et p est spécifiée avec précision, moins la théorie permet à l'une de déterminer l'autre avec précision.



La relation de Heisenberg pourrait être considérée simplement comme un défaut de la théorie, mais, comme Heisenberg et Bohr l'ont montré, elle correspond à une loi de la nature profonde et jusqu'alors inaperçue : même en principe, aucune expérience ne peut déterminer les valeurs x et p d'un particule réelle avec plus de précision que ne le permet la relation de Heisenberg. Heisenberg et Bohr différaient dans leur interprétation de cette conclusion. Heisenberg y voyait un rappel que toutes nos connaissances sont d'origine expérimentale et que l'expérience introduit inévitablement des perturbations dans le système étudié, tandis que Bohr y voyait une limitation de la précision avec laquelle le concept même d'onde et de particule est applicable au monde. de l'atome. L’éventail des opinions sur la nature même de l’incertitude statistique s’avère beaucoup plus large. Ces incertitudes ne sont pas nouvelles ; elles sont inhérentes à presque toutes les mesures, mais sont généralement considérées comme dues à des défauts des instruments ou des méthodes utilisées : la valeur exacte existe, mais il est pratiquement très difficile de la trouver, et c'est pourquoi nous considérons les résultats obtenus comme des valeurs probables. avec une incertitude statistique inhérente. L'une des écoles de pensée physique et philosophique, autrefois dirigée par Einstein, estime qu'il en va de même pour le micromonde et que la mécanique quantique avec ses résultats statistiques ne donne que des valeurs moyennes qui seraient obtenues en répétant l'expérience en question. fois avec de petites différences dues à des imperfections dans notre contrôle. De ce point de vue, la théorie exacte de chaque cas individuel existe en principe, mais elle n’a tout simplement pas encore été trouvée. Une autre école, historiquement associée au nom de Bohr, soutient que l'indéterminisme est inhérent à la nature même des choses et que la mécanique quantique est la théorie qui décrit le mieux chaque cas individuel, et que l'incertitude d'une quantité physique reflète la précision avec laquelle cette quantité peuvent être déterminés et utilisés. L’opinion de la plupart des physiciens était en faveur de Bohr. En 1964, J. Bell, alors en poste au CERN (Genève), montra qu'en principe ce problème pouvait être résolu expérimentalement. Le résultat de Bell constitue peut-être l’avancée la plus importante dans la recherche de la signification physique de la mécanique quantique depuis les années 1920. Le théorème de Bell, comme on appelle maintenant ce résultat, stipule que certaines prédictions faites à partir de la mécanique quantique ne peuvent pas être reproduites en calculant à partir d'une théorie déterministe précise et en faisant ensuite la moyenne des résultats. Étant donné que deux de ces méthodes de calcul devraient donner des résultats différents, la possibilité d'une vérification expérimentale se présente. Les mesures effectuées dans les années 1970 ont confirmé de manière convaincante l’adéquation de la mécanique quantique. Et pourtant, il serait prématuré de prétendre que l'expérience a mis un terme au débat entre Bohr et Einstein, car des problèmes de ce genre surgissent souvent comme s'ils étaient nouveaux, sous une forme linguistique différente, chaque fois que, semble-t-il, tous les les réponses ont déjà été trouvées. Quoi qu’il en soit, d’autres énigmes demeurent, nous rappelant que les théories physiques ne sont pas seulement des équations mais aussi des explications verbales, reliant le domaine cristallin des mathématiques aux régions nébuleuses du langage et de l’expérience sensorielle, et que c’est souvent la chose la plus difficile.
LITTÉRATURE
Vikhman E. Physique quantique. M., 1977 Jammer M. Evolution des concepts de mécanique quantique. M., 1985 Migdal A.B. Physique quantique pour petits et grands. M., 1989 Volkova E.L. et autres. Mécanique quantique sur un ordinateur personnel. M., 1995

Encyclopédie de Collier. - Société ouverte. 2000 .



Avez-vous aimé l'article? Partagez avec vos amis !