Signification géométrique du déterminant de la matrice des opérateurs. Propriétés de base des déterminants et leur signification géométrique

Propriété 2.12. Déterminant de la matrice de Gram de manière linéaire système dépendant les vecteurs sont 0.

Preuve. Soit le système de vecteurs linéairement dépendant. Alors, soit le système contient vecteur zéro, et l'énoncé dans ce cas est évident, ou il existe un vecteur qui peut être exprimé linéairement à travers les vecteurs précédents du système. Dans la matrice de Gram
soustraire de je-ième ligne, lignes précédentes avec coefficients
. Le déterminant de la matrice de Gram ne changera pas, mais je La ième ligne deviendra zéro. Déterminant d'une matrice de ligne zéro égal à zéro, et, par conséquent, le déterminant de la matrice de Gram est égal à zéro.

R. nous allons jeter un coup d'oeil signification géométrique Matrices de Gram à partir d'un système de vecteurs linéaire indépendant
. Si k=1, alors
- carré de la longueur du vecteur. Si k>1, puis on l'applique au système de vecteurs
processus et construction d'orthogonalisation système orthogonal vecteurs
. Notons par P. matrice de transition du système
au système
. Cette matrice a vue triangulaire, et sur sa diagonale principale il y en a 1, et son déterminant est 1. De plus, et donc les déterminants des matrices de Gram sont égaux. Depuis le système vectoriel
est orthogonale, alors la matrice de Gram de ce système de vecteurs est diagonale, et son déterminant égal au produit carrés des longueurs des vecteurs de ce système. Ainsi, l'égalité est établie. Considérons le cas k=2. Alors
égale à la longueur de la hauteur du parallélogramme abaissé sur le côté (voir Erreur : source de référence introuvable). Par conséquent, le produit
égale à l'aire d'un parallélogramme engendré par des vecteurs
, et le déterminant de la matrice de Gram
égal au carré l'aire de ce parallélogramme. Si k=3, alors le vecteur au plan engendré par les vecteurs
. Par conséquent, le déterminant de la matrice de Gram de trois vecteurs est égal au carré du volume du parallélépipède engendré par les vecteurs
. Puisque tout raisonnement est généralisé à une dimension arbitraire, la propriété est ainsi établie.

Propriété 2.13 Le déterminant de la matrice de Gram d'un système de vecteurs est égal à 0 si le système est linéairement dépendant, et au carré du volume k-parallélépipède dimensionnel engendré par des vecteurs
sinon.

Montrons maintenant l'inégalité d'Hadamard.

Théorème 2.4.

Preuve. Si le système de vecteurs
linéairement dépendant, alors l’inégalité est évidente. Soit ce système de vecteurs linéairement indépendant. Appliquons-lui le processus d'orthogonalisation et construisons un système orthogonal de vecteurs
. Vecteur est la composante orthogonale du vecteur sur coque linéaire vecteurs
, et donc,
par l'inégalité de Bessel (théorème 2.2). C’est d’ailleurs ce qu’il fallait prouver.

L'inégalité d'Hadamard ne se transforme en égalité que si le système de vecteurs originel est orthogonal. Dans d’autres cas, l’inégalité est stricte.

Corollaire 2.5 Les inégalités sont valables
Et
.

Preuve. DANS n-dimensionnel espace arithmétique définissons produit scalaire selon la formule
. Considérons le système de vecteurs formé par les colonnes de la matrice UN. La matrice de Gram de ce système vectoriel est égale à
et par l'inégalité d'Hadamard
. Parce que le
, alors l'inégalité
installée. En appliquant l'inégalité résultante à la matrice transposée, nous obtenons
.

Corollaire 2.6 Soit
. Alors
.

Preuveévidemment.

Mettons
et, de plus, par induction
. Matrice a l'ordre , son déterminant est égal
et tous ses éléments sont égaux
. Il est facile de vérifier que l'inégalité (Corollaire 2.6) se transforme en égalité sur cette matrice.

1. Considérez des vecteurs arbitraires. Supposons d’abord que ces vecteurs sont linéairement indépendants. Dans ce cas, le déterminant de Gram compilé pour l’un de ces vecteurs sera différent de zéro. Alors, en supposant d’après (22)

(23)

et multiplier terme à terme ces inégalités et l'inégalité

, (24)

.

Ainsi, le déterminant de Gram pour linéairement vecteurs indépendants positif, pour ceux linéairement dépendants, il est nul. Le déterminant de Gram n’est jamais négatif.

Notons pour abréviation . Puis de (23) et (24)

où est l'aire d'un parallélogramme construit sur et . Plus loin,

,

où est le volume d'un parallélépipède construit sur des vecteurs. En continuant plus loin, nous trouvons :

,

et enfin

. (25)

Il est naturel de l’appeler le volume d’un parallélépipède à dimension 2 construit sur des vecteurs comme sur des arêtes.

Notons par , les coordonnées du vecteur dans une base orthonormée dans , et soit

Alors basé sur (14)

et donc [voir formule (25)]

. (26)

Cette égalité a la signification géométrique suivante :

Volume carré d'un parallélépipède égal à la somme volumes carrés de ses projections sur tous les sous-espaces de dimensions coordonnées. En particulier, d’après (26) il résulte :

. (26)

À l'aide des formules (20), (21), (22), (26), (26"), un certain nombre de problèmes métriques de base de la géométrie analytique unitaire dimensionnelle et euclidienne sont résolus.

2. Revenons au développement (15). Il en découle directement :

ce qui, en combinaison avec (22), donne l'inégalité (pour les vecteurs arbitraires )

dans ce cas, le signe égal est valable si et seulement si le vecteur est orthogonal aux vecteurs.

De là, il est facile d’obtenir l’inégalité dite d’Hadamard

où le signe égal est valable si et seulement si les vecteurs sont orthogonaux par paires. L'inégalité (29) exprime le fait géométriquement évident suivant :

Le volume d'un parallélépipède n'excède pas le produit des longueurs de ses arêtes et n'est égal à ce produit que lorsque le parallélépipède est rectangulaire.

L'inégalité d'Hadamard peut être donnée aspect normal, mettant dans (28) et introduisant en considération le déterminant composé des coordonnées des vecteurs dans une base orthonormée :

.

Alors de (26") et (28) il résulte

. (28)

3. Établissons maintenant une inégalité de Hadamard généralisée, couvrant à la fois l'inégalité (27) et l'inégalité (28) :

et le signe égal est valable si et seulement si chacun des vecteurs est orthogonal à l'un des vecteurs ou à l'un des déterminants, égal à zéro.

L'inégalité (28") a la signification géométrique suivante :

Le volume d'un parallélépipède n'excède pas le produit des volumes de deux faces supplémentaires et est égal à ce produit si et seulement si ces faces sont orthogonales entre elles ou au moins l'une d'elles a un volume nul.

Nous établirons la validité de l'inégalité (29) de manière inductive par rapport au nombre de vecteurs . L'inégalité est vraie lorsque ce nombre est 1 [voir formule (27)].

Introduisons deux sous-espaces et, respectivement, de bases et . Évidemment, . Considérons les développements orthogonaux

.

Remplacer le carré du volume du parallélépipède par le produit du carré du volume de la base et du carré de la hauteur [voir. formule (22)], on trouve

Dans ce cas, de la décomposition vectorielle il résulte :

, (31)

et ici le signe n'a lieu que lorsque .

En utilisant maintenant les relations (30), (30"), (31) et l'hypothèse de récurrence, on obtient :

Nous avons des inégalités (29). Passant à la clarification du moment où le signe apparaît dans cette inégalité, nous supposons que Et . Alors d'après (30") également Et . Puisque dans les relations (32) le signe égal est valable partout, alors, en plus, par l'hypothèse de récurrence, chacun des vecteurs est orthogonal à chacun des vecteurs. Évidemment, le vecteur a aussi cette propriété

Ainsi, l’inégalité généralisée d’Hadamard est complètement établie.

4. L'inégalité d'Hadamard généralisée (29) peut également prendre une forme analytique.

Soit une forme hermitienne définie positive arbitraire. Considérant comme coordonnées d'un vecteur dans un espace dimensionnel avec une base, nous prenons la forme comme forme métrique de base dans (voir page 224). Il deviendra alors un espace unitaire. Appliquons l'inégalité d'Hadamard généralisée aux vecteurs de base : - matrice réelle de coefficients positifs définis forme quadratique entre les vecteurs et , l'ayant déterminé à partir de la relation

.

De l'inégalité de Bunyakovsky, il s'ensuit qu'elle a une valeur réelle.

Il y a environ 20 ans, j'ai eu l'opportunité d'étudier les mathématiques supérieures dans une université, et nous avons commencé avec les matrices (peut-être comme tous les étudiants de l'époque). Pour une raison quelconque, on pense que les matrices sont les plus sujet facile Je sais mathématiques supérieures. Peut-être - parce que toutes les opérations avec des matrices se résument à la connaissance de méthodes de calcul du déterminant et de plusieurs formules construites - encore une fois, sur le déterminant. Il semblerait que tout soit simple. Mais... Essayez de répondre à une question fondamentale : qu'est-ce qu'un déterminant, qu'est-ce que moyens le nombre que vous obtenez lorsque vous le calculez ? (indice : une variante comme « un déterminant est un nombre trouvé par Certaines règles" n'est pas la bonne réponse, puisqu'il s'agit de la méthode d'obtention, et non de l'essence même du déterminant). Est-ce que vous abandonnez ? - alors lisez la suite...

Je tiens à dire tout de suite que je ne suis mathématicien ni par formation ni par poste. A moins que je ne m’intéresse à l’essence des choses, et que parfois j’essaie d’aller au fond des choses. C'était pareil avec le déterminant : il fallait traiter de régression multiple, et dans cette partie de l'économétrie presque tout se fait à travers... des matrices, bon sang. J’ai donc dû faire moi-même une petite recherche, car aucun des mathématiciens que je connaissais n’a donné de réponse claire à la question posée, qui ressemblait au départ à « qu’est-ce qu’un déterminant ». Tout le monde a soutenu qu'un déterminant est un nombre qui est calculé d'une manière spéciale, et s'il est égal à zéro, alors... En général, comme dans n'importe quel manuel d'algèbre linéaire. Merci, nous avons réussi.

Si une personne a une idée, alors une autre personne devrait être capable de la comprendre (même si, pour ce faire, il faut parfois s'armer de connaissances supplémentaires). Un appel au moteur de recherche "grand et puissant" a montré que "l'aire d'un parallélogramme est égale au module du déterminant de la matrice formée par les vecteurs - les côtés du parallélogramme". Parlant dans un langage simple, si une matrice est un moyen d'écrire un système d'équations, alors chaque équation décrit individuellement un vecteur. En construisant les vecteurs spécifiés dans la matrice à partir du point d'origine, nous définissons ainsi une certaine figure dans l'espace. Si notre espace est unidimensionnel, alors la figure est un segment ; si elle est bidimensionnelle, alors la figure est un parallélogramme, et ainsi de suite.

Il s'avère que pour un espace unidimensionnel, le déterminant est la longueur d'un segment, pour un plan - l'aire d'une figure, pour une figure tridimensionnelle - son volume... ils continuent espaces à n dimensions, ce que nous ne pouvons pas imaginer. Si le volume d'une figure (c'est-à-dire le déterminant d'une matrice 3*3) est égal à zéro, cela signifie que la figure elle-même n'est pas tridimensionnelle (elle peut être bidimensionnelle, unidimensionnelle ou même un point). Le rang d'une matrice est la vraie dimension (maximale) de l'espace pour laquelle le déterminant n'est pas égal à zéro.

Ainsi, presque tout est clair avec le déterminant : il détermine le « volume » de la figure formée par les vecteurs décrits par le système d'équations (même si on ne sait pas pourquoi sa valeur ne dépend pas du fait qu'il s'agisse ou non de la matrice d'origine ou avec celui transposé - peut-être que la transposition est un type Transformation affine?). Nous devons maintenant comprendre les opérations sur les matrices...

Si une matrice est un système d'équations (sinon pourquoi aurions-nous besoin d'un tableau de nombres qui n'ont rien à voir avec la réalité ?), alors nous pouvons faire différentes choses avec. Par exemple, nous pouvons ajouter deux lignes de la même matrice, ou multiplier une ligne par un nombre (c'est-à-dire que nous multiplions chaque coefficient de la ligne par le même nombre). Si nous avons deux matrices de mêmes dimensions, alors nous pouvons les ajouter (l'essentiel est de ne pas ajouter un bouledogue avec un rhinocéros - mais les mathématiciens, lorsqu'ils ont développé la théorie des matrices, ont-ils pensé à ce scénario ?). Cela est intuitivement clair, d’autant plus qu’en algèbre linéaire, de telles opérations sont illustrées par des systèmes d’équations.

Cependant, quel est l’intérêt de la multiplication matricielle ? Comment puis-je multiplier un système d’équations par un autre ? Quelle est la signification de ce que j’obtiens dans ce cas ? Pourquoi la règle commutative n'est-elle pas applicable pour multiplier des matrices (c'est-à-dire que le produit des matrices B * A n'est pas seulement égal au produit A * B, mais n'est pas toujours réalisable) ? Pourquoi, si nous multiplions une matrice par un vecteur colonne, nous obtenons un vecteur colonne, et si nous multiplions un vecteur ligne par une matrice, nous obtenons un vecteur ligne ?

Eh bien, ce n'est pas comme Wikipédia, c'est même manuels modernes en algèbre linéaire sont impuissants à donner une explication claire. Puisqu'étudier quelque chose selon le principe « croire d'abord et comprendre ensuite » n'est pas pour moi, je fouille dans les profondeurs des siècles (plus précisément, je lis des manuels de la première moitié du 20e siècle) et trouve phrase intéressante

Si une collection de vecteurs ordinaires, c'est-à-dire visant segments géométriques, est un espace tridimensionnel, alors la partie de cet espace constituée de vecteurs parallèles à un certain plan est un espace bidimensionnel, et tous les vecteurs parallèles à une certaine ligne forment un espace vectoriel unidimensionnel.

Les livres ne le disent pas directement, mais il s'avère que les vecteurs parallèles à un certain plan ne se trouvent pas nécessairement sur ce plan. Autrement dit, ils peuvent être dans espace tridimensionnel n'importe où, mais s'ils sont parallèles à ce plan particulier, alors ils forment un espace à deux dimensions... D'après les analogies qui me viennent à l'esprit - la photographie : le monde tridimensionnel est présenté sur un plan, tandis qu'un vecteur, parallèle à la matrice(ou film) de l'appareil photo, le même vecteur dans l'image correspondra (à condition que l'échelle soit 1:1). Afficher un monde en trois dimensions sur un plan « supprime » une dimension (« profondeur » de l’image). Si je comprends bien, complexe notions mathématiques, la multiplication de deux matrices est précisément le reflet similaire d’un espace dans un autre. Par conséquent, si la réflexion de l’espace A dans l’espace B est possible, alors l’admissibilité de la réflexion de l’espace B dans l’espace A n’est pas garantie.

Tout article se termine au moment où l'auteur en a assez de l'écrire. UN t. Comme je ne me suis pas fixé pour objectif d'embrasser l'immensité, mais que je voulais uniquement comprendre l'essence des opérations décrites sur les matrices et comment exactement les matrices sont liées aux systèmes d'équations que je résolvais, je n'ai pas approfondi algèbre linéaire, mais est revenu à l'économétrie et régression multiple, mais je l'ai fait plus consciemment. Comprendre ce que je fais et pourquoi et pourquoi seulement de cette façon et pas autrement. Ce que j'ai trouvé dans ce document peut être intitulé "un chapitre sur l'essence des opérations de base de l'algèbre linéaire, que, pour une raison quelconque, ils ont oublié d'imprimer dans les manuels". Mais nous ne lisons pas de manuels, n’est-ce pas ? Pour être honnête, quand j'étais à l'université, ça me manquait vraiment compréhension questions soulevées ici, j'espère donc qu'en présentant ce matériel difficile autant que possible en mots simples, je fais une bonne action et j'aide quelqu'un à aller au fond des choses algèbre matricielle, transférant les opérations sur les matrices de la section « kamlanie avec un tambourin » à la section « outils pratiques, appliqué consciemment.

Propriété 2.7. Le déterminant de la matrice de Gram d'un système de vecteurs linéairement dépendant est égal à 0.

Preuve. Soit le système de vecteurs linéairement dépendant. Alors, soit le système contient un vecteur nul, et la déclaration dans ce cas est évidente, soit il existe un vecteur qui peut être exprimé linéairement en termes des vecteurs précédents du système. Dans la matrice de Gram, soustrayez de jeème ligne, lignes précédentes avec coefficients . Le déterminant de la matrice de Gram ne changera pas, mais je La ième ligne deviendra zéro. Le déterminant d'une matrice avec une ligne nulle est égal à zéro, et donc le déterminant d'une matrice de Gram est égal à zéro.

Considérons la signification géométrique de la matrice de Gram d'un système de vecteurs linéaire indépendant. Si k=1, alors est le carré de la longueur du vecteur. Si k>1, puis nous appliquons le processus d'orthogonalisation au système de vecteurs et construisons un système orthogonal de vecteurs . Notons par P. matrice de transition d’un système à l’autre. Cette matrice a une forme triangulaire, et sur sa diagonale principale il y a des 1, et son déterminant est 1. De plus, et par conséquent, les déterminants des matrices de Gram sont égaux. Puisque le système de vecteurs est orthogonal, la matrice de Gram de ce système de vecteurs est diagonale, et son déterminant est égal au produit des carrés des longueurs des vecteurs de ce système. Ainsi, l'égalité est établie. Considérons le cas k=2. Elle est alors égale à la longueur de la hauteur du parallélogramme abaissé sur le côté (voir Fig. 1). Par conséquent, le produit est égal à l'aire du parallélogramme engendré par les vecteurs, et le déterminant de la matrice de Gram est égal au carré de l'aire de ce parallélogramme. Si k=3, alors le vecteur est une composante orthogonale du vecteur au plan engendré par les vecteurs . Par conséquent, le déterminant de la matrice de Gram de trois vecteurs est égal au carré du volume du parallélépipède engendré par les vecteurs. Puisque tout raisonnement est généralisé à une dimension arbitraire, la propriété est ainsi établie.

Propriété 2.8 Le déterminant de la matrice de Gram d'un système de vecteurs est égal à 0 si le système est linéairement dépendant, et au carré du volume k-parallélépipède dimensionnel couvert différemment par les vecteurs.

Montrons maintenant l'inégalité d'Hadamard.

Théorème 2.4.

Preuve. Si le système de vecteurs est linéairement dépendant, alors l'inégalité est évidente. Soit ce système de vecteurs linéairement indépendant. Appliquons-lui le processus d'orthogonalisation et construisons un système orthogonal de vecteurs. Le vecteur est la composante orthogonale du vecteur sur l'enveloppe linéaire des vecteurs , et donc par l'inégalité de Bessel (Théorème 2.2). C’est d’ailleurs ce qu’il fallait prouver.

L'inégalité d'Hadamard ne se transforme en égalité que si le système de vecteurs originel est orthogonal. Dans d’autres cas, l’inégalité est stricte.

Corollaire 2.5 Les inégalités sont valables Et .



Preuve. DANS n-espace arithmétique dimensionnel nous définissons le produit scalaire par la formule . Considérons le système de vecteurs formé par les colonnes de la matrice UN. La matrice de Gram de ce système de vecteurs est égale et par l’inégalité d’Hadamard . Parce que le , alors l'inégalité installée. En appliquant l'inégalité résultante à la matrice transposée, nous obtenons .



Avez-vous aimé l'article? Partage avec tes amis!