Que sont les domaines en physique. Domaines physiques fondamentaux

l'un des principaux notions de physique apparues en 2ème mi-temps. 17ème siècle [bien que le terme "P.f." a été introduit en physique bien plus tard que les Anglais. le physicien JC Maxwell ; en apparence mathématique; le terme « field » est associé au travail de l'anglais. mathématicien W. R. Hamilton "On quaternions" (W. R. Hamilton, Lectures on quarternions, Dublin, 1853)]. Depuis lors, le concept de P. f. a changé à plusieurs reprises son sens, en conservant cependant à toutes les étapes de ce changement connexion étroite avec le concept d'espace, exprimé dans l'utilisation du concept de P. f. pour caractériser une distribution spatialement continue de la physique. quantités Représentations modernes physiciens à propos de P. f. se déroulent selon deux lignes sensiblement différentes – classique et quantique. Ligne classique développement du concept de P. f. Cette ligne commence par la loi de Newton gravité universelle (1687), qui a permis de calculer P. f. forces de gravité. Cela se poursuit en hydrodynamique. les travaux d'Euler (années 50 du XVIIIe siècle), qui considérait la répartition des vitesses dans un espace rempli d'un fluide idéal en mouvement (champ de vitesse). Les plus grands mérites dans le développement du concept de P. f. appartenir à l'anglais le physicien M. Faraday (années 30 du 19e siècle), qui a développé en détail le concept de lignes de champ de la physique. Classique ligne de développement du concept de P. f. se ramifie en deux. La branche principale est associée à l'étude de P. f. forces électriques et magnétiques (loi de Coulomb, 1785), initialement considérées comme indépendantes, mais grâce au travail des dates. physique par H. Oersted (1821), français. physiciens A. Ampere (1826) et Faraday (1831), ils ont commencé à être considérés ensemble - comme composants d'une seule physique électromagnétique. Durant cette période, le sens du concept de P. f. dépendait d'idées sur la nature de l'action des forces. Dans le concept d'action à longue portée, remontant à Newton, le concept de P. f. joué aux. rôle, il ne servait que de désignation abrégée pour une région d’espace vide dans laquelle des forces à longue portée peuvent se manifester. Connaissant le potentiel d'une fonction physique, il était possible de calculer en chaque point de l'espace la force agissant sur un corps qui y était placé, sans recourir à la loi de l'interaction des corps. Porteurs d'attributs physiques. la réalité (masse, énergie, élan, charge, force) dans ce concept étaient des corps interagissant à distance sans l'aide de k.-l. agents intermédiaires. En l'absence d'au moins un des corps en interaction, il n'y avait pas de forces, c'est-à-dire P.f. n'avait pas d'indépendance. existence. Dans le concept d'action à courte portée, originaire de Descartes, l'interaction s'effectuait en changeant l'état du milieu intermédiaire - l'éther, remplissant tout l'espace. Les vecteurs d'énergie dans ce concept n'étaient pas seulement des interactions. corps, mais aussi l'éther qui les entoure, de sorte qu'à côté du champ de puissance, on peut aussi parler du champ d'énergie. En même temps, comme en génie mécanique. théories qui expliquaient l’émergence des forces mécaniques. mouvement et tension élastique de l'éther, et dans les théories purement électromagnétiques, qui laissaient l'éther immobile et non déformable, P.f. était toujours privé d'indépendance. existence. Étant une caractéristique des changements dans l'état de l'éther - une substance qui avait une réalité primaire, P. f. avait une ontologie le statut de son attribut, c'est-à-dire ne possédait qu’une réalité secondaire. Ce changement a été causé par des sources discrètes de P. f. – les courants et les charges, de sorte que P. f., inextricablement lié à eux, soit exempt de sources P.. f. l'éther n'existait pas. La prochaine étape dans le développement du classique. concepts de P. f. associé aux réalisations de la théorie de la dynamique libre. électromagnétique P. f. ( ondes électromagnétiques , dont un cas particulier est la lumière), qui, une fois créée, peut exister quelles que soient les sources qui l'ont générée (Maxwell, 1864 ; Hertz, 1888). Grâce à cela, il est devenu possible d'attribuer P. f. impulsion. Cependant, puisque l'éther a continué à servir de support matériel pour la dynamique. P.f., ce dernier était toujours privé d’indépendance. existence, donc l'impulsion de P. f. (ainsi que son énergie) était en réalité une caractéristique non pas de P. f., mais de l'éther. En conséquence, l’expression « énergie de champ » ne doit pas être comprise dans son sens littéral, mais comme un « champ d’énergie ». Classique théorie du Pf électromagnétique. a été complété par le travail d'A. Einstein en spécial. théorie de la relativité (1905). Priver l'éther de la fonction d'abdos. système de référence a créé la possibilité d'attribuer P. f. autosuffisant existence. Même si cette décision n’a pas été dictée par la nécessité, elle a néanmoins été acceptée par la majorité des physiciens. Passé de l'état de substance matérielle (éther) à un état indépendant. substance matérielle, électromagnétique P. f. partageait avec la matière les fonctions de porteur d'énergie, de quantité de mouvement et de masse. L'énergie et l'élan continuent d'être des caractéristiques du mouvement. [Parfois, le statut d'une substance matérielle n'est pas attribué à P. f., mais à l'énergie. Ainsi, le mouvement (l'énergie) (voir F. Engels, Dialectics of Nature, 1964, pp. 45, 78, 168) passe d'un attribut à une substance. Dans ce cas, P. f. n'a toujours pas d'indépendance. existence, mais sert de caractéristique à la distribution continue de l'énergie dans l'espace, ce qui rend encore une fois l'expression « champ d'énergie » plutôt que « énergie de champ » plus correcte. La direction qui attribue le statut de substance à l'énergie est parfois identifiée à l'énergétique).] La deuxième branche du classique. lignes de développement du concept de P. f. associé aux progrès dans le domaine de la théorie recherche P. f. forces gravitationnelles (physique gravitationnelle). Depuis Newton jusqu'aux travaux d'Einstein sur la théorie de la relativité générale (10e siècle du 20e siècle), la gravité a été interprétée sur la base de l'idée de forces à longue portée et ne pouvait être incluse dans le cadre du concept de action à courte portée. Sur la base du fait de l'égalité de la masse inertielle et de la masse lourde, Einstein a formulé la théorie relativiste de la gravitation. P. f., dans lequel à la fois gravitationnel P. f. Les propriétés de l'espace sont décrites par la même quantité. Cela nous permet de franchir une nouvelle étape dans le développement du concept de P. f. par rapport à ce qui a été réalisé en classique théorie relativiste de l'électromagnétisme. Spécialiste. La théorie de la relativité a révélé pour la première fois le rôle fondamental de l’énergie électromagnétique. f. dans l'établissement des caractéristiques métriques de l'espace et du temps, qui, comme il s'est avéré, dépendent de la vitesse de la lumière. Mais le continuum espace-temps y restait élément indépendant physique réalité, servant uniquement d'arène pour l'interaction de P. f. et des substances. Cela pourrait être considéré comme quelque chose d’absolu, car P. f. et la matière existait dans l'espace-temps. Dans la théorie de la relativité générale, l’aspect espace-temps de la réalité s’exprime pleinement par la gravité. Pf, en fonction de quatre paramètres de coordonnées (trois spatiaux et un temporel). "...C'est une propriété de ce champ. Si nous imaginons que le champ est supprimé, alors il n'y aura plus d'"espace", puisque l'espace n'a pas d'existence indépendante" (Einstein ?., L'essence de la théorie de la relativité). , M., 1955 , p. On peut évidemment en dire autant du temps. Disponibilité en classique physique de deux types physique. réalité, radicalement différente dans leur structure spatiale(P. f. et substances), ainsi que deux types qualitativement différents de P. f. (électromagnétiques et gravitationnelles) ont donné lieu à de nombreuses. tente de construire une théorie unifiée et cohérente de P. f., dans laquelle la gravitation et l'électromagnétisme, d'une part, ne devraient pas être des types logiquement séparés de P. f., mais divers aspects un seul P. f. ; d'autre part, les particules de matière doivent y être interprétées comme des régions spéciales du Pf., de sorte que le Pf. et ses sources, interprétées comme des points particuliers (singularités) du Pf., seraient l'unité. moyens de décrire le physique réalité. Cependant, le manque de succès dans les années ultérieures et saura convaincre. la mise en œuvre d'un tel programme a suscité un fort scepticisme à son égard, comme c'est le cas actuellement. A l’époque, elle n’a pas beaucoup de partisans. Ligne quantique de développement du concept de P. f. Cette ligne continue à ce jour. temps, est née de la nécessité d'interpréter les résultats d'expériences étudiant l'effet photoélectrique. Jusqu'aux travaux de L. de Broglie (1924), l'idée de la lumière comme flux de particules spatialement discrètes (photons), introduite par Einstein en 1905 pour expliquer ces expériences, semblait incompatible avec la théorie classique. l'idée de la lumière comme fonction physique spatialement continue. De Broglie a suggéré que chaque particule (et pas seulement le photon) est associée à une fonction d’onde. La dualité onde-particule est devenue une caractéristique essentielle de la mécanique quantique non relativiste. Cependant, le champ ? n'y est pas aussi directement ontologisé que chez de Broglie et dans les idées de E. Schrödinger (1926, 1952) et de D. Bohm (1952) qui ont développé ses idées. Selon l'interprétation de Copenhague de la mécanique quantique, partagée aujourd'hui. temps, l'écrasante majorité des scientifiques, le ?-champ est ce qu'on appelle. Champ de probabilité (voir Microparticules). En relativiste théorie des quanta en moderne étape de son développement, la théorie quantique des fonctions d'onde. est le seul. une manière de décrire les particules élémentaires et leurs interactions. Dans son cadre, le concept de P. f. est en cours de développement. Grâce aux propriétés ondulatoires de toutes particules élémentaires et aux propriétés quantiques (corpusculaires) de tous les P. f., chaque P. f. (dans le premier sens classique) est en même temps un collectif de particules, et chaque ensemble de particules (dans le premier sens classique) représente une fonction fonctionnelle. Ainsi, la théorie quantique relativiste sur nouvelle base revient à l'ontologisation du dualisme onde-particule, traitant le champ ? de Schrödinger comme un champ classique P.f. matière (voir E. Henley et W. Thirring, Elementary quantum field theory, Moscou, 1963, p. 19). C’est significatif qu’ontologique. égalité des particules et P. f. n'a lieu qu'en tenant compte de ce qu'on appelle pactes virtuels. Si l'on ne prend en compte que les parties réelles, alors P. f. s'avère ontologiquement plus significatif, car il a un état de vide, dans lequel il n'y a pas de particules réelles (mais il y a un nombre variable indéfini particules virtuelles, dont l'existence se manifeste par des fluctuations de l'état de vide du Pf.). Des distinctions sont souvent faites entre P. f. particules-sources d'interaction et P. f. particules se transformant en interactions. Cela est dû à l'interprétation de l'interaction entre les particules sources comme un échange de quanta virtuels du Pf, qui sert de support d'interaction. Avec une intensité d'interaction suffisante (la mesure de l'intensité est l'énergie), les quanta virtuels peuvent se transformer en quanta réels, donnant lieu à l'existence de ce qu'on appelle. gratuit P. f. Les fonctions fonctionnelles libres qui décrivent l’état des particules avant et après interaction ne sont pas observables, car l’observation en mécanique quantique est indissociable de l’interaction. Le dernier, du point de vue. la théorie quantique de P. f., n'est rien d'autre que la transformation d'une définition. état de P. f. (une collection de particules) dans un autre. Interaction de P. f. généralement interprété sur la base du concept d’absorption et d’émission de particules. Ces particules peuvent être réelles ou virtuelles. Pour les particules virtuelles, l'énergie et la quantité de mouvement obéissent aux lois de conservation seulement dans la limite des incertitudes de la relation, donc à de petites distances très un grand nombre particules virtuelles. Cela conduit au fait qu'en présence d'interactions, les éléments mentionnés ci-dessus connexion simple entre les particules et P. f. Les particules en interaction (ainsi qu'une particule réelle, qui en l'absence des autres interagit avec le vide, ainsi qu'avec son propre PF, dont elle est elle-même la source) sont entourées d'un nuage de particules virtuelles. À proprement parler, une partie ne peut plus être comparée à une particule réelle. P.f. Dr. en mots, son image inclut, à un degré ou à un autre, P. f. toutes les autres particules élémentaires. Basique difficultés des temps modernes théorie quantique de P. f. réside dans le manque de méthodes permettant de résoudre avec précision les équations de fonctions fonctionnelles en interaction. En électrodynamique quantique (théorie de l'interaction entre les fonctions électromagnétiques et électron-positon), la solution approximative de telles équations est facilitée par la petitesse de la force d'interaction, ce qui permet d'utiliser un modèle d'interaction simplifié (théorie des perturbations). Dans la théorie des interactions fortes, où la théorie quantique de P. f. n’est qu’un diagramme ; pas un seul problème n’a encore été strictement résolu sans l’hypothèse que l’interaction est petite. La nécessité d'attirer tous les P. f. (y compris gravitationnelle, à laquelle l'approche quantique est également applicable) pour une description précise des interactions des particules élémentaires a fait naître le désir de construire une théorie quantique unifiée. Pf n'aurait pas tiré de l'expérience tout le spectre des masses et des spins des particules élémentaires, mais l'aurait reçu automatiquement. La tentative la plus célèbre dans ce sens appartient à Heisenberg (la théorie d'une physique spiporique non linéaire unique - la «matière primordiale»), qui n'a cependant pas encore apporté de résultats physiques tangibles. résultats. Les difficultés mentionnées de la théorie quantique de Pf. a donné naissance à l'idée de remplacer les tentatives de résolution d'équations pour les opérateurs P. f. construction d'un tel système d'équations, qui s'appuierait uniquement sur les propriétés générales de la matrice de diffusion (matrice S), qui relie directement l'état de la fonction fonctionnelle libre. avant et après l’interaction et ne prétendrait pas être une description spatio-temporelle détaillée des processus d’interaction. Sur ce chemin vers le présent. À l’époque, certains scientifiques avançaient des revendications radicales pour abandonner complètement l’utilisation du concept de Pf. Cela se fait sur la base de l’hypothèse selon laquelle le concept de continuum espace-temps n’a pas de signification physique. sens en moderne la microphysique et son statut sont similaires au concept d'éther en physique du 19ème siècle. (voir G. F. Chew, The dubious role of space-time continuum in microscopique physique, dans la revue : "Science Progress", 1963, v. 51, n° 204, p. 529). Dans le même temps, le refus d'utiliser des concepts spatio-temporels (et avec lui les idées sur P. f. ) en microphysique, bien sûr, ne signifie en aucun cas un refus de les utiliser en macrophysique (voir aussi E. I. Zimmerman, The macroscopio nature of space-time, dans la revue : "American Journal of Physics", 1962, v. 30, p. .97). Cependant, la plupart des scientifiques considèrent toujours qu'il est nécessaire d'utiliser le concept de P. f. (et avec elle, bien entendu, la représentation spatio-temporelle) comme ontologique. base pour décrire l’interaction des particules élémentaires. Sur cette voie dans la théorie de P. f. se pose notamment idée intéressante sur l'existence dans la nature de ce qu'on appelle. kompensiruyuschih P.f., dont chacun est responsable de la préservation de l'un ou l'autre physique fondamental. quantités lors des interactions. Méthodologique complexe problèmes liés à la modernité idées sur P. f., extrêmement multiformes. Cela implique le problème de l’interprétation de mathématiques hautement abstraites. appareil moderne théorie de P. f. (cela inclut notamment la question du statut ontologique des particules virtuelles) et le problème des méthodes de description des interactions (formalisme hamiltonien ou matrice S ?). Le dernier problème est similaire vieux problème expressions du mouvement dans la logique des concepts, figées dans l'aporie de Zénon d'Élée : comment décrire l'interaction - à travers ses résultats (matrice S) ou à travers son déroulement spatio-temporel (formalisme hamiltonien). Cela inclut également le problème de l'adéquation de la description de l'interaction basée sur la dép. des idées sur P. f. et sur sa source, posée par Pauli dans les années 30. Discussions sur toutes ces questions et bien d’autres questions méthodologiques. problèmes de la théorie de P. f. sont en cours et sont encore loin d’être achevés. Lit. : Maxwell D.K., Izbr. op. selon la théorie électro champ magnétique, trad. [de l'anglais], M., 1954 ; Einstein ?., Infeld L., Evolution de la physique, trad. de l'anglais, 2e éd., M., 1956 ; Ovtchinnikov ?. ?., Le concept de masse et d'énergie dans leurs termes historiques. développement et philosophie signification, M., 1957, p. 177 ; Markov. ?., Hyperons et K-mésons, M., 1958 ; lui, ô moderne. forme d'atomisme, "VF", 1960, n° 3, 4 ; Steinman R. Ya., Espace et Temps, M., 1962, p. 68, 143 ; Kuznetsov B.G., Développement de la physique. idées de Galilée à Einstein à la lumière des temps modernes. Sciences, M., 1963, ch. 2, 3, 4 ; Whittaker?., L'histoire des théories de l'éther et de l'électricité. Les théories classiques, L.–, 1951.

Champ physique- il s'agit d'une forme particulière de matière qui existe en tout point de l'espace et se manifeste en influençant une substance qui possède une propriété liée à celle qui a créé ce champ. La principale différence est la douceur.

corps + champ de charge corps + charge

Propriétés des champs physiques

    Il existe une différence fondamentale dans le comportement de la matière et du champ. La matière a toujours une limite nette du volume qu'elle occupe, mais le champ ne peut en principe pas avoir de limite nette, il change progressivement d'un point à l'autre ;

    En un point donné de l’espace, il peut exister un nombre infini de champs physiques qui ne s’influencent pas mutuellement.

    Le champ et la matière peuvent s’influencer mutuellement.

Classification mathématique des champs

Champ électromagnétique- il s'agit d'une forme particulière de matière, caractérisée par la valeur des vecteurs E et H en chaque point de l'espace.

Les champs sont divisés en : scalaire, vectoriel, tenseur.

Champs scalaires est une certaine fonction scalaire avec un domaine de définition distribué continuellement en chaque point de l'espace.

Le champ scalaire est caractérisé par la surface plane, qui est donnée par l'équation :

(1.1)

Champ vectoriel est une quantité vectorielle continue avec un domaine de définition spécifié en chaque point de l'espace.

À PROPOS La principale caractéristique de ce champ est une ligne vectorielle. Il s'agit d'une ligne en chaque point de laquelle le vecteur champ est dirigé tangentiellement.

Enregistrement physique des lignes électriques :

(1.2)

Champ tensoriel est une quantité tensorielle continue distribuée dans l'espace.

tenseur
(1.3)

Caractéristiques différentielles des champs physiques

Pente est une caractéristique vectorielle d'un champ scalaire. Le gradient d'une fonction scalaire est un vecteur numériquement égal à la dérivée de cette fonction dans la direction de la normale à la surface plane et dirigé le long de cette normale.

(1.4)

Propriétés du dégradé :

    le gradient est numériquement égal vitesse maximale changements de fonction.

D rendu :

(1.5)

    la direction du gradient coïncide avec la direction du changement le plus rapide de la fonction.

(1.6)

Divergence est une caractéristique scalaire d'un champ vectoriel. Divergence du champ vectoriel est la limite du taux d'écoulement à travers une surface fermée S au volume contenu dans cette surface.

(1.7)

- un certain débit

(1.8)

D L'ivergence caractérise la présence ou l'absence de sources en un point donné du champ (là où le champ commence ou se termine).

Si à un moment donné
, alors à ce stade se trouve la source du champ, c'est-à-dire son début, et l'endroit où le champ se termine
, et ce point s'appelle le drain. À un point où il n'y a pas de sources
.

M. Faraday est entré dans la science uniquement grâce à son talent et à sa diligence dans l'auto-éducation. Venant de famille pauvre, il travaille dans un atelier de reliure, où il se familiarise avec les travaux de scientifiques et de philosophes. Le célèbre physicien anglais G. Davy (1778-1829), qui a contribué à l'entrée de M. Faraday dans la communauté scientifique, a dit un jour que sa plus grande réussite scientifique était sa « découverte » de M. Faraday. M. Faraday a inventé un moteur électrique et un générateur électrique, c'est-à-dire des machines pour produire de l'électricité. Il a eu l'idée que l'électricité a une seule nature physique, c'est-à-dire quelle que soit la manière dont elle est obtenue : par le mouvement d'un aimant ou le passage de particules chargées électriquement dans un conducteur. Pour expliquer l'interaction entre les charges électriques à distance, M. Faraday a introduit la notion de champ physique. Champ physique il représentait la propriété de l'espace lui-même autour d'un corps chargé électriquement d'exercer impact physiqueà un autre corps chargé placé dans cet espace. À l'aide de particules métalliques, il a montré l'emplacement et la présence de forces agissant dans l'espace autour d'un aimant (forces magnétiques) et d'un corps chargé électriquement (électrique). M. Faraday a exposé ses idées sur le domaine physique dans une lettre-testament, qui n'a été ouverte qu'en 1938 en présence de membres du London Société royale. Dans cette lettre, on découvrait que M. Faraday possédait une technique pour étudier les propriétés du champ et que dans sa théorie, les ondes électromagnétiques se propagent à une vitesse finie. Les raisons pour lesquelles il a exposé ses idées sur le domaine physique sous la forme d'une lettre de testament sont peut-être les suivantes. Les représentants de l'école française de physique lui ont demandé une preuve théorique du lien entre les forces électriques et magnétiques. De plus, la notion de champ physique, selon M. Faraday, signifiait que la propagation des forces électriques et magnétiques se produisait continuellement d'un point du champ à un autre et, par conséquent, ces forces avaient le caractère de forces à courte portée, et non à longue portée, comme le croyait C. Coulomb. M. Faraday a une autre idée féconde. En étudiant les propriétés des électrolytes, il a découvert que la charge électrique des particules qui forment l’électricité n’est pas fractionnaire. Cette idée a été confirmée



déterminer la charge d'un électron déjà présent fin XIX V.

Théorie des forces électromagnétiques de D. Maxwell

Comme I. Newton, D. Maxwell a donné tous les résultats des recherches sur les forces électriques et magnétiques forme théorique. Cela s'est passé dans les années 70 années XIX V. Il a formulé sa théorie basée sur les lois de communication entre l'interaction des forces électriques et magnétiques, dont le contenu peut être représenté comme suit :

1. Tout courant électrique provoque ou crée un champ magnétique dans l’espace qui l’entoure. Un courant électrique constant crée un champ magnétique constant. Mais un champ magnétique constant (aimant fixe) ne peut pas du tout créer de champ électrique (ni constant ni alternatif).

2. Le champ magnétique alternatif résultant crée un champ électrique alternatif, qui à son tour crée un champ magnétique alternatif,

3. Les lignes de champ électrique sont fermées sur les charges électriques.

4. Les lignes de champ magnétique sont fermées sur elles-mêmes et ne finissent jamais, c'est-à-dire que les charges magnétiques n'existent pas dans la nature.

Dans les équations de D. Maxwell, il y avait constante C, qui indique que la vitesse de propagation des ondes électromagnétiques dans un champ physique est finie et coïncide avec la vitesse de propagation de la lumière dans le vide, égale à 300 000 km/s.

Concepts et principes de base de l'électromagnétisme.

La théorie de D. Maxwell a été perçue avec beaucoup de doute par certains scientifiques. Par exemple, G. Helmholtz (1821-1894) adhère au point de vue selon lequel l'électricité est un « fluide en apesanteur » se propageant à une vitesse infinie. A sa demande, G. Hertz (1857-

1894) commença une expérience prouvant la nature fluide de l’électricité.

À cette époque, O. Fresnel (1788-1827) montrait que la lumière se propage non pas sous forme d'ondes longitudinales, mais sous forme d'ondes transversales. En 1887, G. Hertz réussit à construire une expérience. La lumière dans l'espace entre les charges électriques se propage en ondes transversales à une vitesse de 300 000 km/s. Cela lui a permis d'affirmer que son expérience élimine les doutes sur l'identité de la lumière, rayonnement thermique et le mouvement électromagnétique des ondes.

Cette expérience est devenue la base de la création d'une image physique électromagnétique du monde, dont G. Helmholtz était l'un des adeptes. Il croyait que tout force physique, de nature dominante, doit être expliqué sur la base de l'attraction et de la répulsion. Cependant, la création d’une image électromagnétique du monde s’est heurtée à des difficultés.

1. Le concept principal de la mécanique de Galilée-Newton était notion de substance,

avoir une masse, mais il s'avère que la matière peut avoir une charge.

La charge est la propriété physique d'une substance de créer un champ physique autour d'elle qui a un effet physique sur d'autres corps et substances chargés (attraction, répulsion).

2. La charge et la masse d'une substance peuvent avoir différentes tailles, c'est-à-dire que ce sont des quantités discrètes. En même temps, la notion de champ physique présuppose la transmission interaction physique continuellement d'un point à un autre. Cela signifie que les forces électriques et magnétiques sont des forces à courte portée car il n’y a pas d’espace vide dans le champ physique qui ne soit rempli d’ondes électromagnétiques.

3. Dans la mécanique galiléo-newtonienne, une vitesse infiniment élevée est possible

interaction physique, il est également indiqué ici que l'électromagnétique

les ondes se propagent à une vitesse élevée mais finie.

4. Pourquoi la force de gravité et la force d'interaction électromagnétique agissent-elles indépendamment l'une de l'autre ? À mesure que nous nous éloignons de la Terre, la gravité diminue et s'affaiblit, et les signaux électromagnétiques agissent de manière vaisseau spatial exactement de la même manière que sur Terre. Au 19ème siècle un exemple tout aussi convaincant pourrait être donné sans vaisseau spatial.

5. Ouverture en 1902 P. Lebedev (1866-1912) - professeur à l'Université de Moscou - la pression lumineuse a aiguisé la question de la nature physique de la lumière : est-ce un flux de particules ou seulement des ondes électromagnétiques d'une certaine longueur ? La pression, en tant que phénomène physique, est associée au concept de matière, à la discrétion - plus précisément. Ainsi, la pression de la lumière indiquait la nature discrète de la lumière en tant que flux de particules.

6. La similitude de la diminution des forces gravitationnelles et électromagnétiques - selon la loi

« inversement proportionnel au carré de la distance » - a soulevé une question légitime : pourquoi le carré de la distance, et, par exemple, pas un cube ? Certains scientifiques ont commencé à parler du champ électromagnétique comme de l’un des états de « l’éther » qui remplit l’espace entre les planètes et les étoiles.

Toutes ces difficultés sont dues au manque de connaissances sur la structure de l'atome à cette époque, mais M. Faraday avait raison lorsqu'il disait que, sans savoir comment l'atome est structuré, on peut étudier les phénomènes dans lesquels il s'exprime. nature physique. En effet, les ondes électromagnétiques véhiculent des informations importantes sur les processus qui se déroulent à l’intérieur des atomes. éléments chimiques et les molécules de matière. Ils fournissent des informations sur le passé et le présent lointains de l'Univers : sur la température corps cosmiques, leur composition chimique, leur distance, etc.

7. L'échelle d'ondes électromagnétiques suivante est actuellement utilisée :

ondes radio d'une longueur d'onde de 104 à 10 -3 m ;

ondes infrarouges- de 10-3 à 810-7 m ;

lumière visible - de 8 10-7 à 4 10-7 m;

ondes ultraviolettes - de 4 10-7 à 10-8 m;

Ondes de rayons X (rayons) - de 10-8 à 10-11 m ;

rayonnement gamma - de 10-11 à 10-13 m.

8. Quant aux aspects pratiques de l'étude des forces électriques et magnétiques, ils ont été réalisés au XIXe siècle. rythme rapide : premier ligne télégraphique entre les villes (1844), pose d'un câble transatlantique (1866), téléphone (1876), lampe à incandescence (1879), radio (1895).

La part minimale de l'énergie électromagnétique est photon. Il s’agit de la plus petite quantité indivisible de rayonnement électromagnétique.

sensationnel début du XXI V. est la création par des scientifiques russes de Troitsk (région de Moscou) d'un polymère composé d'atomes de carbone, qui possède les propriétés d'un aimant. On croyait généralement que la présence de métaux dans une substance était responsable des propriétés magnétiques. Les tests de métallicité de ce polymère ont montré qu’il ne contient aucune présence de métaux.

Champ- une des formes d'existence de la matière et, peut-être, la plus importante. Le concept de « champ » reflète le fait que les forces électriques et magnétiques agissent à une vitesse finie sur une distance, se générant mutuellement et continuellement. Le champ est émis, se propage à une vitesse finie dans l'espace et interagit avec la matière. Faraday a formulé les idées de terrain comme nouveau formulaire affaire, et a mis les notes dans une enveloppe scellée, léguant qu'elle serait ouverte après sa mort (cette enveloppe n'a été découverte qu'en 1938). Faraday a utilisé (1840) l'idée de la conservation et de la transformation universelles de l'énergie, bien que la loi elle-même n'ait pas encore été découverte.

Dans ses conférences (1845), Faraday parlait non seulement des transformations équivalentes de l'énergie d'une forme à une autre, mais aussi qu'il avait longtemps tenté de « découvrir un lien direct entre la lumière et l'électricité » et qu'« il avait réussi à magnétiser et électrifier l'énergie ». un faisceau de lumière et éclairant la ligne de force magnétique. Il possède une méthode d'étude de l'espace autour d'un corps chargé à l'aide de corps d'essai, une introduction à l'image de terrain lignes électriques. Il a décrit ses expériences sur la rotation du plan de polarisation de la lumière par un champ magnétique. L'étude de la relation entre les propriétés électriques et magnétiques des substances a conduit Faraday non seulement à la découverte du para- et du diamagnétisme, mais également à l'établissement d'une idée fondamentale - l'idée d'un champ. Il écrit (1852) : « L’environnement ou l’espace qui l’entoure joue un rôle aussi essentiel que l’aimant lui-même, faisant partie d’un système magnétique réel et complet. »

Faraday a montré que la force électromotrice d'induction E se produit lorsque le flux magnétique change F(ouverture, fermeture, changement de courant dans les conducteurs, approche ou retrait d'un aimant, etc.). Maxwell a exprimé ce fait comme suit : E = -dF/dt. Selon Faraday, la capacité à induire des courants se manifeste par un cercle autour de la résultante magnétique. Selon Maxwell, un champ magnétique alternatif est entouré d'un champ électrique vortex, et le signe moins est associé à la règle de Lenz : un courant induit apparaît dans une direction telle qu'il empêche le changement qui le génère. Désignation pourriture - de l'anglais. rotor - vortex. En 1846, F. Neumann découvrit qu'il fallait dépenser une certaine quantité d'énergie pour créer un courant d'induction.

En général, le système d'équations écrit par Maxwell dans forme vectorielle, a une forme compacte :

Les vecteurs d'induction électrique et magnétique (D et B) et les vecteurs d'intensité de champ électrique et magnétique (E et H) inclus dans ces équations sont liés par les relations simples indiquées avec la constante diélectrique e et la perméabilité magnétique du milieu μ. L'utilisation de cette opération signifie que le vecteur d'intensité du champ magnétique tourne autour du vecteur de densité de courant. j.


Selon l'équation (1), tout courant provoque l'apparition d'un champ magnétique dans l'espace environnant, le courant continu est un champ magnétique constant. Un tel champ ne peut pas provoquer de champ électrique dans les régions « suivantes », puisque, selon l’équation (2), seul un champ magnétique changeant génère un courant. Autour CA un champ magnétique alternatif est également créé, capable de créer dans l'élément « suivant » de l'espace un champ électrique d'onde, une onde continue - l'énergie du champ magnétique dans le vide est complètement convertie en énergie électrique, et vice versa. Puisque la lumière voyage sous la forme ondes transversales, deux conclusions peuvent être tirées : la lumière est une perturbation électromagnétique ; le champ électromagnétique se propage dans l'espace sous forme d'ondes transversales avec une vitesse Avec= 3 10 8 m/s, selon les propriétés du milieu, et donc « une action instantanée à longue portée » est impossible. Ainsi, dans les ondes lumineuses, les oscillations sont provoquées par l'intensité des champs électriques et magnétiques, et le porteur de l'onde est l'espace lui-même, qui est en état de tension. Et à cause du courant de déplacement, cela créera un nouveau champ magnétique et ainsi de suite à l'infini. .

La signification des équations (3) et (4) est claire - (3) décrit théorème électrostatique Gauss et généralise la loi de Coulomb, (4) reflète le fait de l'absence de charges magnétiques. Divergence (de lat. diverger - détecter une divergence) est une mesure de la source. Si, par exemple, les rayons lumineux ne naissent pas dans le verre, mais le traversent seulement, divD = 0. Le soleil, en tant que source de lumière et de chaleur, a une divergence positive et l'obscurité une divergence négative. Ainsi, les lignes de champ électrique se terminent sur des charges dont la densité est p, et les lignes de champ magnétique sont fermées sur elles-mêmes et ne se terminent nulle part.

Le système de vues qui constituait la base des équations de Maxwell s'appelait La théorie de Maxwell sur le champ électromagnétique. Bien que ces équations aient une forme simple, plus Maxwell et ses disciples y travaillaient, plus leur signification se révélait profonde. G. Hertz, dont les expériences ont été la première preuve directe de la validité de la théorie de Faraday-Maxwell du champ électromagnétique, a écrit à propos de l'inépuisabilité des équations de Maxwell : « Vous ne pouvez pas étudier cette théorie étonnante sans parfois éprouver le sentiment que formules mathématiques en direct propre vie, ont leur propre esprit - il semble que ces formules soient plus intelligentes que nous, plus intelligentes même que l'auteur lui-même, comme si elles nous donnaient plus que ce qu'elles contenaient à l'origine.

Le processus de propagation du champ se poursuivra indéfiniment sous la forme vague non amortie- l'énergie du champ magnétique dans le vide est entièrement convertie en énergie électrique, et vice versa. Parmi les constantes incluses dans les équations se trouvait la constante c ; Maxwell a découvert que sa valeur était exactement égale à la vitesse de la lumière. Il était impossible de ne pas prêter attention à cette coïncidence. Ainsi, dans les ondes lumineuses, les oscillations sont provoquées par l'intensité des champs électriques et magnétiques, et le porteur de l'onde est l'espace lui-même, qui est en état de tension.

onde lumineuse- c'est une onde électromagnétique,« courant dans l’espace et séparé des charges qui l’émettaient », comme le disait Weiskopf. Il a comparé l'importance de la découverte de Maxwell à la découverte de la loi de la gravitation de Newton. Newton a relié le mouvement des planètes à la gravité sur Terre et a découvert les lois fondamentales régissant le mouvement mécanique des masses sous l'influence de forces. Maxwell a connecté l'optique à l'électricité et en a dérivé des lois fondamentales (équations de Maxwell) régissant le comportement des champs électriques et magnétiques et leur interaction avec les charges et les aimants. Les travaux de Newton ont conduit à l'introduction du concept de loi universelle de la gravitation, les travaux de Maxwell - le concept de champ électromagnétique et l'établissement des lois de sa propagation. Si un champ électromagnétique peut exister indépendamment d’un support matériel, alors l’action à longue portée doit céder la place à l’action à courte portée, les champs se propageant dans l’espace avec une vitesse finie. Les idées sur le courant de déplacement (1861), les ondes électromagnétiques et la nature électromagnétique de la lumière (1865) étaient si audacieuses et inhabituelles que même la génération suivante de physiciens n'accepta pas immédiatement la théorie de Maxwell. En 1888, G. Hertz découvrit les ondes électromagnétiques, mais un opposant aussi actif à la théorie de Maxwell que W. Thomson (Kelvin) ne pouvait être convaincu que par les expériences de P.N. Lebedev, qui a découvert l'existence de légère pression.

DANS milieu du 19ème V. Maxwell a combiné l'électricité et le magnétisme théorie unifiée champs. La charge électrique est associée à des particules élémentaires dont les plus connues - l'électron et le proton - ont la même charge e, c'est une constante universelle de la nature. En SI = 1,6 10 -19 Cl. Bien que les charges magnétiques n’aient pas encore été découvertes, elles apparaissent déjà en théorie. Selon le physicien Dirac, l’ampleur des charges magnétiques devrait être un multiple de la charge électronique.

Des recherches plus approfondies dans le domaine du champ électromagnétique ont conduit à des contradictions avec les idées mécanique classique, que le physicien néerlandais X.A. a tenté d'éliminer grâce à la coordination mathématique des théories. Lorenz. Il a introduit des transformations des coordonnées des systèmes inertiels qui, contrairement aux transformations galiléennes classiques, contenaient une constante - la vitesse de la lumière, liée à la théorie des champs. Les échelles de temps et de longueur ont changé à des vitesses proches de la vitesse de la lumière. Signification physique Ces transformations de Lorentz n'ont été expliquées que par A. Einstein en 1905 dans son ouvrage « Sur l'électrodynamique des corps en mouvement », qui constituait la base de la théorie spéciale de la relativité (STR), ou mécanique relativiste.

Les sciences naturelles identifient non seulement les types d’objets matériels dans l’Univers, mais révèlent également les liens entre eux. La connexion entre les objets d'un système intégral est plus ordonnée, plus stable que la connexion de chacun des éléments avec des éléments de environnement externe. Pour détruire un système, pour isoler l'un ou l'autre élément du système, il faut lui appliquer une certaine énergie. Cette énergie a des valeurs différentes et dépend du type d'interaction entre les éléments du système. Dans le mégamonde, ces interactions sont assurées par la gravité ; dans le macromonde, l'interaction électromagnétique s'ajoute à la gravité, et elle devient la principale, car elle est plus forte. Dans le microcosme, à la taille d'un atome, une interaction nucléaire encore plus forte apparaît, garantissant l'intégrité des noyaux atomiques. En passant aux particules élémentaires, l'énergie connexions internes nous savons que substances naturelles- Ce composés chimiqueséléments construits à partir d'atomes et assemblés en tableau périodique. Pendant un certain temps, on a cru que les atomes étaient les éléments constitutifs élémentaires de l'univers, mais il a ensuite été établi que l'atome représente « l'univers tout entier » et est constitué de particules encore plus fondamentales interagissant les unes avec les autres : protons, électrons, neutrons, mésons. , etc. Le nombre de particules se prétendant élémentaires augmente, mais sont-elles vraiment si élémentaires ?

La mécanique newtonienne a été acceptée, mais l’origine des forces provoquant les accélérations n’a pas été discutée. Les forces gravitationnelles agissent à travers le vide, elles sont à longue portée, tandis que les forces électromagnétiques agissent à travers un milieu. Actuellement, toutes les interactions dans la nature sont réduites à quatre types : gravitationnelle, électromagnétique, nucléaire forte et nucléaire faible.

Pesanteur(de lat. gravité- gravité) est historiquement la première interaction étudiée. À la suite d'Aristote, ils croyaient que tous les corps tendaient vers « leur place » (les lourds - jusqu'au sol, les légers - vers le haut). Physique des XVII-XVIII siècles. seules les interactions gravitationnelles étaient connues. Selon Newton, deux masses ponctuelles s’attirent avec une force dirigée le long de la droite qui les relie : Le signe moins indique qu’il s’agit d’attraction, r- distance entre les corps (on pense que la taille des corps est beaucoup plus petite r), t 1 et t 2 - masse corporelle Ampleur G- constante universelle qui détermine la valeur forces gravitationnelles. Si des corps pesant 1 kg sont situés à une distance de 1 m les uns des autres, alors la force d'attraction entre eux est égale à 6,67 10 -11 N. La gravité est universelle, tous les corps y sont soumis, et même la particule elle-même est la source de la gravité. Si la valeur Gétait plus grande, la force augmenterait également, mais G très petit et interaction gravitationnelle dans le monde des particules subatomiques, c'est insignifiant, et entre les corps macroscopiques, c'est à peine perceptible. Cavendish a pu mesurer la valeur G, profitant échelles de torsion. La polyvalence est constante G signifie que n'importe où dans l'Univers et à tout moment, la force d'attraction entre des corps pesant 1 kg, séparés d'une distance de 1 m, aura la même valeur. On peut donc dire que la valeur G détermine la structure des systèmes gravitationnels. La gravité, ou gravitation, n'est pas très importante dans l'interaction entre les petites particules, mais elle maintient ensemble les planètes, l'ensemble du système solaire et les galaxies. Nous ressentons constamment la gravité dans nos vies. La loi a établi la nature à longue portée de la force gravitationnelle et la propriété principale de l'interaction gravitationnelle - son universalité.

La théorie de la gravité d'Einstein (GTR) donne des résultats différents de la loi de Newton dans les champs gravitationnels forts, dans les champs faibles - les deux théories coïncident. Selon GTR, pesanteur- C'est une manifestation de la courbure de l'espace-temps. Les corps se déplacent le long de trajectoires courbes, non pas parce que la gravité agit sur eux, mais parce qu’ils se déplacent dans un espace-temps courbe. Déménagent " le chemin le plus court, et la gravité est la géométrie. L’influence de la courbure de l’espace-temps peut être détectée non seulement à proximité d’objets en effondrement tels que des étoiles à neutrons ou des trous noirs. Il s'agit par exemple de la précession de l'orbite de Mercure ou de la dilatation du temps à la surface de la Terre (voir Fig. 2.3, V). Einstein a montré que la gravité peut être décrite comme l’équivalent d’un mouvement accéléré.

Pour éviter la compression de l'Univers sous l'influence de l'autogravité et assurer sa stationnarité, il a introduit une possible source de gravité aux propriétés inhabituelles, conduisant à la « séparation » de la matière, plutôt qu'à sa concentration, et à la force de répulsion. augmente avec l'augmentation de la distance. Mais ces propriétés ne peuvent se manifester que de manière très sur une grande échelle Univers. La force répulsive est incroyablement petite et ne dépend pas de la masse répulsive ; il est représenté sous la forme où T - la masse de l'objet repoussé ; r- sa distance du corps repoussant ; L- constante. Il existe actuellement une limite supérieure pour L= 10 -53 m -2, soit pour deux corps pesant 1 kg chacun, situés à une distance de 1 m, la force d'attraction dépasse la répulsion cosmique d'au moins 10 à 25 fois. Si deux galaxies d'une masse de 10,41 kg sont situées à une distance de 10 millions de lumière. ans (environ 10 22 m), alors pour eux les forces attractives seraient approximativement équilibrées par les forces répulsives, si la valeur L très proche de la limite supérieure spécifiée. Cette quantité n’a pas encore été mesurée, bien qu’elle soit fondamentale pour la structure à grande échelle de l’Univers.

Interaction électromagnétique, provoquée par des charges électriques et magnétiques, est transportée par des photons. Forces d'interaction entre les charges d'une manière complexe dépendent de la position et du mouvement des charges. Si deux accusations q 1 et q2 immobile et concentré sur des points éloignés r, alors l’interaction entre eux est électrique et est déterminée par la loi de Coulomb : depuis signes de charge q1 Et q2 la force d'interaction électrique dirigée le long de la ligne droite reliant les charges sera une force d'attraction ou de répulsion. Ici, la constante qui détermine l'intensité de l'interaction électrostatique est notée 8,85 10 -12 F/m. Ainsi, deux charges de 1 C chacune, séparées de 1 m, subiront une force de 8,99 10 9 N. Une charge électrique est toujours associée aux particules élémentaires. La valeur numérique de la charge des plus célèbres d'entre eux - le proton et l'électron - est la même : c'est la constante universelle. e = 1,6 10e à 19e année. La charge d’un proton est considérée comme positive et celle d’un électron est considérée comme négative.

Forces magnétiques sont générés courants électriques- mouvement des charges électriques. Il existe des tentatives pour unifier les théories en tenant compte des symétries, dans lesquelles l'existence de charges magnétiques (monopoles magnétiques) est prédite, mais elles n'ont pas encore été découvertes. Donc la valeur e détermine l’intensité de l’interaction magnétique. Si charges électriques se déplaçant avec accélération, ils émettent - dégagent de l'énergie sous forme de lumière, d'ondes radio ou de rayons X, selon la gamme de fréquences. Presque tous les médias perçus par nos sens ont nature électromagnétique, même s'ils se manifestent parfois sous des formes complexes. Interactions électromagnétiques déterminent la structure et le comportement des atomes, empêchent les atomes de se désintégrer et sont responsables des connexions entre les molécules, c'est-à-dire des phénomènes chimiques et biologiques.

La gravité et l'électromagnétisme sont des forces à longue portée qui s'étendent dans tout l'Univers.

Forces nucléaires fortes et faibles- à courte portée et n'apparaissent que dans la taille du noyau atomique, c'est-à-dire dans des zones de l'ordre de 10 à 14 m.

La force nucléaire faible est responsable de nombreux processus qui provoquent certains types de désintégrations nucléaires particules élémentaires (par exemple, (3-désintégration - la transformation des neutrons en protons) avec une plage d'action presque ponctuelle : environ 10 -18 m. Elle a un effet plus fort sur les transformations des particules que sur leur mouvement, donc son efficacité est déterminée par une constante liée au taux de décroissance, - connexion permanente universelle g(W), déterminer le taux de processus tels que la désintégration des neutrons. L'interaction nucléaire faible est réalisée par ce qu'on appelle les bosons faibles, et certains particules subatomiques peut se transformer en d'autres. La découverte de particules subnucléaires instables a révélé que la force faible provoque de nombreuses transformations. Les supernovae sont l’un des rares cas d’interaction faible observés.

La forte interaction nucléaire empêche la désintégration des noyaux atomiques, et sans elle, les noyaux se désintégreraient en raison des forces de répulsion électrique des protons. Dans certains cas, la valeur est introduite pour la caractériser g(S), semblable à une charge électrique, mais beaucoup plus grande. La forte interaction réalisée par les gluons chute brusquement jusqu'à zéro en dehors d'une région d'un rayon d'environ 10 à 15 m. Elle lie ensemble les quarks qui composent les protons, les neutrons et d'autres particules similaires appelées hadrons. Ils disent que l'interaction des protons et des neutrons est le reflet de leurs interactions internes, mais jusqu'à présent, l'image de ces phénomènes profonds nous est cachée. Elle est associée à l'énergie libérée par le Soleil et les étoiles, aux transformations dans les réacteurs nucléaires et à la libération d'énergie. Les types d’interactions répertoriés ont apparemment des natures différentes. À ce jour, il n’est pas clair si toutes les interactions dans la nature en sont épuisées. La plus forte est l'interaction forte à courte portée, l'interaction électromagnétique est plus faible de 2 ordres de grandeur, l'interaction faible est plus faible de 14 ordres de grandeur et l'interaction gravitationnelle est plus faible de 39 ordres de grandeur. En fonction de l'ampleur des forces d'interaction, elles se produisent dans des moments différents. De fortes interactions nucléaires se produisent lorsque des particules entrent en collision à des vitesses proches de la lumière. Le temps de réaction, déterminé en divisant le rayon d'action des forces par la vitesse de la lumière, donne une valeur de l'ordre de 10 -23 s. Les processus d'interaction faible se produisent en 10 -9 s et les processus gravitationnels - de l'ordre de 10 16 s, soit 300 millions d'années.

La « loi du carré inverse », selon laquelle les objets agissent les uns sur les autres masses gravitationnelles ou charges électriques, découle, comme l'a montré P. Ehrenfest, de la tridimensionnalité de l'espace (1917). Dans l'espace n mesures, les particules ponctuelles interagiraient selon la loi de puissance inverse ( n- 1). Pour n = 3, la loi du carré inverse est valable, puisque 3 - 1 = 2. Et avec u = 4, ce qui correspond à la loi du cube inverse, les planètes se déplaceraient en spirale et tomberaient rapidement vers le Soleil. Dans les atomes à plus de trois dimensions, il n’y aurait pas non plus d’orbites stables, c’est-à-dire qu’il n’y aurait ni processus chimiques ni vie. Kant a également souligné le lien entre la tridimensionnalité de l’espace et la loi de la gravité.

De plus, on peut montrer que la propagation des ondes sous leur forme pure est impossible dans un espace à nombre pair de dimensions - des distorsions apparaissent qui perturbent la structure (information) véhiculée par l'onde. Un exemple en est la propagation d'une onde sur un revêtement en caoutchouc (sur une surface de dimension n= 2). En 1955, le mathématicien H. J. Withrow a conclu que, puisque les organismes vivants nécessitent la transmission et le traitement d’informations, les formes de vie supérieures ne peuvent exister dans des espaces de dimension paire. Cette conclusion s'applique aux formes de vie que nous connaissons et aux lois de la nature et n'exclut pas l'existence d'autres mondes, de nature différente.

De Newton et P. Laplace, la considération de la mécanique comme universelle a été préservée théorie physique. Au 19ème siècle cette place a été prise par l'image mécanique du monde, y compris la mécanique, la thermodynamique et théorie cinétique matière, théorie élastique de la lumière et électromagnétisme. La découverte de l'électron a stimulé une révision des idées. A la fin du siècle, H. Lorenz construisit son théorie des électrons couvrir tous les phénomènes naturels, mais n’y est pas parvenu. Problèmes associés à la discrétion des charges et à la continuité du champ, ainsi que problèmes de théorie des rayonnements (« catastrophe ultraviolette") a conduit à la création d'une image quantique du monde et de la mécanique quantique. Après la création de SRT, on s’attendait à ce que l’image électromagnétique du monde, combinant la théorie de la relativité, la théorie de Maxwell et la mécanique, puisse fournir une couverture universelle du monde naturel, mais cette illusion fut rapidement dissipée.

De nombreux théoriciens ont tenté de couvrir la gravitation et l’électromagnétisme avec des équations unifiées. Sous l'influence d'Einstein, qui a introduit l'espace-temps à quatre dimensions, des théories des champs multidimensionnels ont été élaborées dans le but de réduire les phénomènes à propriétés géométriques espace.

L'unification a été réalisée sur la base de l'indépendance établie de la vitesse de la lumière pour différents observateurs se déplaçant dans l'espace vide en l'absence forces extérieures. Einstein représenté ligne du monde objet sur un plan où l’axe spatial est dirigé horizontalement et l’axe temporel est dirigé verticalement. Alors la ligne verticale est la ligne du monde d'un objet qui est au repos dans un système de référence donné, et la ligne inclinée est la ligne du monde d'un objet se déplaçant avec vitesse constante. Une ligne d'univers courbe correspond à un objet se déplaçant avec accélération. Tout point de ce plan correspond à une position dans cet endroità cette époque, on l'appelle événement. Dans ce cas, la gravité n’est plus une force agissant sur le fond passif de l’espace et du temps, mais représente une distorsion de l’espace-temps lui-même. Après tout, le champ gravitationnel est la « courbure » de l’espace-temps.

Pour établir une connexion entre des systèmes de référence se déplaçant les uns par rapport aux autres, il est nécessaire de mesurer les intervalles spatiaux dans les mêmes unités que celles du temps. Le multiplicateur pour un tel recalcul peut être vitesse de la lumière, reliant la distance au temps qu'il faut à la lumière pour parcourir cette distance. Dans un tel système, 1 m est égal à 3,33 not (1 not = 10 -9 s). Ensuite, la ligne du monde du photon passera sous un angle de 45°, et celle de tout objet matériel - sous un angle plus petit (puisque sa vitesse est toujours inférieure à la vitesse de la lumière). Puisque l'axe spatial correspond à trois axes cartésiens, alors les lignes du monde corps matériels sera situé à l'intérieur du cône décrit par la ligne d'univers du photon. Résultats des observations éclipse solaire 1919 apporte à Einstein une renommée mondiale. Les déplacements des étoiles, visibles à proximité du Soleil uniquement lors d'une éclipse, coïncidaient avec les prédictions de la théorie de la gravité d'Einstein. Ainsi, son approche géométrique de la construction de la théorie de la gravité a été confirmée par des expériences impressionnantes.

Dans le même 1919, lorsque la relativité générale est apparue, T. Kaluza, professeur associé privé à l'Université de Königsberg, a envoyé à Einstein son travail, où il a proposé cinquième dimension. En essayant de trouver le principe fondamental de toutes les interactions (à cette époque, deux étaient connues - la gravité et l'électromagnétisme), Kaluza a montré qu'elles pouvaient être dérivées uniformément dans la relativité générale à cinq dimensions. La taille de la cinquième dimension n’a pas d’importance pour le succès de l’unification et, peut-être, elle est si petite qu’elle ne peut pas être détectée. Ce n’est qu’après deux ans de correspondance avec Einstein que l’article fut publié. Le physicien suédois O. Klein a proposé une modification de l'équation fondamentale de la mécanique quantique avec cinq variables au lieu de quatre (1926). Il a « réduit » les dimensions de l'espace que nous ne pouvons pas percevoir à une très petite taille (en donnant l'exemple d'un tuyau d'irrigation jeté négligemment, qui de loin apparaît comme une ligne sinueuse, mais de près, chacune de ses pointes se révèle être être un cercle). Les dimensions de ces boucles particulières sont 10 à 20 fois taille plus petite noyau atomique. La cinquième dimension n’est donc pas observable, mais elle est possible.

Les scientifiques soviétiques G.A. ont contribué au développement de la théorie à cinq dimensions. Mandel et V.A. Fok. Ils ont montré que la trajectoire d’une particule chargée dans un espace à cinq dimensions peut être strictement décrite comme ligne géodésique(du grec géodaésie- division du territoire), ou le chemin le plus court entre deux points de la surface, c'est-à-dire que la cinquième dimension peut être physiquement réelle. Il n'a pas été détecté en raison de la relation d'incertitude de Heisenberg, qui représente chaque particule sous la forme d'un paquet d'ondes occupant une région de l'espace dont la taille dépend de l'énergie de la particule (plus l'énergie est élevée, plus le volume de la région). Si la cinquième dimension est pliée en un petit cercle, alors pour la détecter, les particules qui l'éclairent doivent avoir une énergie élevée. Les accélérateurs produisent des faisceaux de particules offrant une résolution de 10 à 18 m. Par conséquent, si un cercle dans la cinquième dimension a des dimensions plus petites, il ne peut pas encore être détecté.

Le professeur soviétique Yu.B. Rumer, dans sa théorie des cinq dimensions, a montré que la cinquième dimension peut recevoir un sens actes. Des tentatives sont immédiatement apparues pour visualiser cet espace à cinq dimensions, comme l'espace-temps à quatre dimensions introduit par Einstein. L’une de ces tentatives est l’hypothèse de l’existence de mondes « parallèles ». Il n'était pas difficile d'imaginer une image en quatre dimensions d'une balle : c'est un ensemble de ses images à chaque instant - un « tuyau » de balles qui s'étend du passé au futur. Et une boule à cinq dimensions est déjà un champ, un plan de mondes absolument identiques. Dans tous les mondes qui ont de trois à cinq dimensions, même une cause, même aléatoire, peut donner lieu à plusieurs conséquences. Six dimensions Un univers construit par l'extraordinaire Concepteur d'avions soviétique L.R. Bartini, comprend trois dimensions spatiales et trois temporelles. Pour Bartini, la longueur est la durée, la largeur est le nombre d'options, la hauteur est la vitesse du temps dans chacun des mondes possibles.

Théorie de la gravité quantiqueétait censé connecter GTR et mécanique quantique. Dans un Univers soumis aux lois de la gravité quantique, la courbure de l'espace-temps et sa structure devraient fluctuer, monde quantique n'est jamais au repos. Et les concepts de passé et de futur, la séquence des événements dans un tel monde devraient également être différents. Ces changements n'ont pas encore été détectés car effets quantiques apparaissent à une échelle extrêmement réduite.

Dans les années 50 XXe siècle R. Feynman, Y. Schwinger et S. Tomogawa ont créé indépendamment l'électrodynamique quantique, reliant la mécanique quantique aux concepts relativistes et expliquant de nombreux effets obtenus dans l'étude des atomes et de leur rayonnement. La théorie des interactions faibles fut alors développée et il fut démontré que l'électromagnétisme ne pouvait être unifié mathématiquement qu'avec la force faible. L’un de ses auteurs, le physicien théoricien pakistanais A. Salam, a écrit : « Le secret de la réussite d’Einstein est qu’il a réalisé l’importance fondamentale de la charge dans l’interaction gravitationnelle. Et jusqu'à ce que nous comprenions la nature des charges dans les interactions électromagnétiques, faibles et fortes aussi profondément qu'Einstein l'a fait pour la gravité, il y a peu d'espoir de succès dans l'unification finale... Nous aimerions non seulement poursuivre les tentatives d'Einstein dans lesquelles il n'a pas réussi. , mais incluez également d’autres frais dans ce programme.

L'intérêt pour les théories multidimensionnelles a été ravivé et les travaux d'Einstein, Bergman, Kaluza, Rumer et Jordan ont recommencé à être tournés. Dans les travaux Physiciens soviétiques(L.D. Landau, I.Ya. Pomeranchuk, E.S. Fradkin) il est montré qu'à des distances de 10 -33 cm, des contradictions inamovibles apparaissent en électrodynamique quantique (divergences, anomalies, toutes les charges deviennent nulles). De nombreux scientifiques ont travaillé sur des idées visant à créer une théorie unifiée. S. Weinberg, A. Salam et S. Glashow ont montré que l'électromagnétisme et la force nucléaire faible peuvent être considérés comme une manifestation d'une certaine force « électrofaible » et que les véritables porteurs forte interaction- les quarks. La théorie créée - chromodynamique quantique- construit des protons et des neutrons à partir de quarks et formé ce qu'on appelle modèle standard particules élémentaires.

Planck a également noté le rôle fondamental des grandeurs composées de trois constantes qui définissent les théories de base - STR (vitesse de la lumière c), mécanique quantique (constante de Planck h) et la théorie de la gravité de Newton (constante gravitationnelle G). De leur combinaison, vous pouvez obtenir trois quantités (Planckien) Avec

dimensions de masse, de temps et de longueur

5 10 93 g/cm3 . La longueur de Planck coïncide avec la distance critique à laquelle elle n'a plus de sens électrodynamique quantique. Désormais, la géométrie n'a été déterminée qu'à des distances de plus de 10 à 16 cm, soit 17 ordres de grandeur supérieurs à ceux de Planck ! L'unification des interactions est nécessaire pour éliminer les divergences et les anomalies dans la théorie - le problème était la définition des particules en tant que points et leur distorsion de l'espace-temps. Et ils ont commencé à le rechercher à l'aide d'idées de symétries supérieures. Ces idées ont reçu un « second souffle » dans les années 80. XXe siècle dans les théories de grande unification du GUT et de la supergravité. GUT est une théorie qui nous permet d'unifier toutes les interactions sauf celles gravitationnelles. Si nous parvenons à y combiner l'interaction gravitationnelle, nous obtiendrons la théorie de tout ce qui existe (TVS). Le monde sera alors décrit de manière uniforme. La recherche d’une telle « superpuissance » se poursuit.

Les théories de la supergravité utilisent des constructions multidimensionnelles inhérentes à l'approche géométrique pour construire la relativité générale. Vous pouvez construire un monde à partir d'un nombre différent de dimensions (ils utilisent des modèles à 11 et 26 dimensions), mais ceux à 11 dimensions sont les plus intéressants et les plus beaux d'un point de vue mathématique : 7 est le nombre minimum de dimensions cachées de l'espace-temps qui permettent d'inclure trois forces non gravitationnelles dans la théorie, et 4 sont les dimensions habituelles de l'espace-temps. Les quatre interactions connues sont traitées comme des structures géométriques ayant plus de cinq dimensions.

La théorie des supercordes a été développée depuis le milieu des années 80. XXe siècle avec la supergravité. Cette théorie a commencé à être développée par le scientifique anglais M. Green et le scientifique américain J. Schwartz. Au lieu d’un point, ils ont associé les particules à une chaîne unidimensionnelle placée dans un espace multidimensionnel. Cette théorie, en remplaçant les particules ponctuelles par de minuscules boucles d'énergie, a éliminé les absurdités qui surviennent dans les calculs. Cordes cosmiques - ce sont des formations exotiques invisibles générées par la théorie des particules élémentaires. Cette théorie reflète la compréhension hiérarchique du monde – la possibilité qu'il n'y ait pas de base définitive pour réalité physique, mais il n'y a qu'une séquence de particules de plus en plus petites. Il existe des particules très massives et environ un millier de particules sans masse. Chaque corde ayant une taille de Planck (10 -33 cm) peut avoir une infinité de types (ou modes) de vibrations. Comment la vibration des cordes de violon crée divers sons, donc la vibration de ces cordes peut générer toutes les forces et particules. Supercordes permettent de comprendre la chiralité (du grec. Cheir- main), alors que la supergravité ne peut pas expliquer la différence entre la gauche et la droite - elle contient des parts égales de particules de chaque direction. La théorie des supercordes, comme la supergravité, n'est pas associée à l'expérience, mais à l'élimination des anomalies et des divergences, ce qui est plus caractéristique des mathématiques.

physicien américain E. Witten a conclu que la théorie des supercordes est le principal espoir pour l'avenir de la physique ; elle prend non seulement en compte la possibilité de la gravité, mais affirme également son existence, et la gravité est une conséquence de la théorie des supercordes. Sa technologie, empruntée à la topologie et à la théorie quantique des champs, permet la découverte de profondes symétries entre nœuds intriqués de grande dimension. La dimension correspondant à la théorie relativement cohérente a été fixée, elle est égale à 506.

Grâce à la théorie des supercordes, il est possible d’expliquer la répartition « irrégulière » de la matière dans l’Univers. Les supercordes sont des fils laissés par la matière de l'Univers nouvellement né. Ils sont incroyablement mobiles et denses, plient l'espace autour d'eux, forment des boules et des boucles, et des boucles massives pourraient créer attraction gravitationnelle, suffisamment forte pour donner naissance à des particules élémentaires, des galaxies et des amas de galaxies. En 1986, de nombreux articles sur les cordes cosmiques avaient été publiés, même s’ils n’avaient pas encore été découverts. On pense qu'il est possible de trouver des supercordes grâce à la courbure de l'espace qu'elles provoquent, agissant comme lentille gravitationnelle, ou par les ondes gravitationnelles qu’ils émettent. L'évolution des supercordes se joue sur des ordinateurs et des images apparaissent sur l'écran d'affichage qui correspondent à celles observées dans l'espace - des filaments, des couches et des vides géants s'y forment également, dans lesquels il n'y a pratiquement pas de galaxies.

Cette extraordinaire convergence de la cosmologie et de la physique des particules au cours des 30 dernières années a permis de comprendre l'essence des processus de naissance de l'espace-temps et de la matière dans un court intervalle de 10 -43 à 10 -35 s après la singularité primaire, appelé Big Bang. Le nombre de dimensions 10 (supergravité) ou 506 (théorie des supercordes) n'est pas définitif. Des images géométriques plus complexes peuvent apparaître, mais de nombreuses dimensions supplémentaires ne sont pas directement détectables. La véritable géométrie de l'Univers n'a probablement pas trois dimensions spatiales, ce qui n'est typique que de notre métagalaxie - la partie observable de l'Univers.

Et tous, sauf trois, pour le moment Big Bang(il y a 10 à 15 milliards d'années) recroquevillé jusqu'à la taille de Planck. Sur longues distances(jusqu'à la taille de la Métagalaxie 10 28 cm) la géométrie est euclidienne et tridimensionnelle, et sur celles de Planck elle est non euclidienne et multidimensionnelle. On pense que les théories de tout ce qui existe (TEC) actuellement en cours de développement devraient combiner les descriptions de toutes les interactions fondamentales entre les particules.

La coïncidence du sujet de recherche a modifié la méthodologie établie des sciences. L'astronomie était considérée comme une science d'observation et les accélérateurs étaient considérés comme un outil de physique des particules. Maintenant, ils ont commencé à faire des hypothèses sur les propriétés des particules et leurs interactions en cosmologie, et il est devenu possible pour la génération actuelle de scientifiques de les tester. Ainsi, il résulte de la cosmologie que le nombre de particules fondamentales doit être faible. Cette prédiction était liée à l'analyse des processus de fusion primaire des nucléons, lorsque l'âge de l'Univers était d'environ 1 s, et elle a été faite à une époque où il semblait que l'obtention de plus grandes puissances dans les accélérateurs entraînerait une augmentation du nombre de nucléons. de particules élémentaires. S’il y avait beaucoup de particules, l’Univers serait différent aujourd’hui.



Avez-vous aimé l'article? Partagez avec vos amis !