Multiplication matricielle par blocs. Matrices

  • 5. Le théorème de la multiplication d'une certaine ligne d'une matrice déterminante par le même nombre. Déterminant à deux lignes proportionnelles.
  • 6. Théorème sur la décomposition d'un déterminant en une somme de déterminants et ses conséquences.
  • 7. Le théorème sur le développement du déterminant en éléments d'une ligne (colonne) et ses conséquences.
  • 8. Opérations sur les matrices et leurs propriétés. Prouvez-en un.
  • 9. Opération de transposition matricielle et ses propriétés.
  • 10. Définition d'une matrice inverse. Montrer que toute matrice inversible n’a qu’une seule inversion.
  • 13. Matrices de blocs. Addition et multiplication de matrices de blocs. Théorème sur le déterminant d'une matrice quasi-triangulaire.
  • 14. Théorème sur le déterminant du produit des matrices.
  • 15. Théorème sur l'existence d'une matrice inverse.
  • 16.Détermination du rang matriciel. Le théorème sur la base mineure et son corollaire.
  • 17. Le concept de dépendance linéaire des lignes et des colonnes d'une matrice. Théorème du rang matriciel.
  • 18. Méthodes de calcul du rang d'une matrice : la méthode des mineurs limitrophes, la méthode des transformations élémentaires.
  • 19. Application de transformations élémentaires de lignes uniquement (uniquement de colonnes) pour trouver la matrice inverse.
  • 20. Systèmes d'équations linéaires. Le critère de compatibilité et le critère de certitude.
  • 21. Solution d'un système conjoint d'équations linéaires.
  • 22. Systèmes homogènes d'équations linéaires. Théorème sur l'existence d'un système fondamental de solutions.
  • 23. Opérations linéaires sur les vecteurs et leurs propriétés. Prouvez-en un.
  • 24. Détermination de la différence entre deux vecteurs. Montrer que pour tous les vecteurs, la différence existe et est unique.
  • 25. Définition de la base, coordonnées vectorielles dans la base. Théorème sur la décomposition d'un vecteur par rapport à une base.
  • 26. Dépendance linéaire des vecteurs. Les propriétés du concept de dépendance linéaire en prouvent une.
  • 28. Systèmes de coordonnées cartésiennes dans l'espace, sur un plan et sur une ligne. Théorème sur la combinaison linéaire de vecteurs et ses conséquences.
  • 29. Dériver des formules exprimant les coordonnées d'un point dans un DCS à travers les coordonnées du même point dans un autre DCS.
  • 30. Produit scalaire de vecteurs. Définition et propriétés de base.
  • 31. Produit croisé de vecteurs. Définition et propriétés de base.
  • 32. Produit mixte de vecteurs. Définition et propriétés de base.
  • 33. Double produit vectoriel de vecteurs. Définition et formule de calcul (sans preuve).
  • 34. Lignes et surfaces algébriques. Théorèmes sur l'invariance (immuabilité) de l'ordre.
  • 35. Équations générales d'un plan et d'une droite.
  • 36. Équations paramétriques d'une droite et d'un plan.
  • 37. Transition des équations générales d'un plan et d'une droite sur un plan à leurs équations paramétriques. La signification géométrique des coefficients a, b, c (a, b) dans l'équation générale d'un plan (droite sur un plan).
  • 38. Élimination d'un paramètre des équations paramétriques sur un plan (dans l'espace), équations canoniques d'une droite.
  • 39. Équations vectorielles d'une droite et d'un plan.
  • 40. Équations générales d'une droite dans l'espace, réduction à la forme canonique.
  • 41. Distance d'un point à un plan. Distance d'un point à une ligne. Autres problèmes concernant les lignes et les avions.
  • 42. Définition d'une ellipse. Équation canonique d'une ellipse. Equations paramétriques de l'ellipse. Excentricité de l'ellipse.
  • 44. Définition d'une parabole. Dérivation de l'équation canonique de la parabole.
  • 45. Courbes du second ordre et leur classification. Le théorème principal sur le kvp.
  • 45. Surfaces du second ordre et leur classification. Le théorème principal du PvP. Surfaces de rotation.
  • 47.Définition de l'espace linéaire. Exemples.
  • 49. Définition de l'espace euclidien. Longueur du vecteur. Angle entre les vecteurs. Inégalité de Cauchy-Bunyakovsky. Exemple.
  • 50. Définition de l'espace euclidien. Théorème de Pythagore. Exemple d'inégalité triangulaire.
  • 9. Opération de transposition matricielle et ses propriétés.

    Définition: La matrice A' obtenue à partir de la matrice A en remplaçant les lignes par des colonnes est dite transposée par rapport à la matrice A.

    Les règles suivantes pour transposer les matrices sont valables :

      (αA+αB)’=αA’ + αB’

      (AB)'=B'A'

    L’idée de la preuve est de montrer que les matrices (AB)’ et B’A’ ont la même dimension et que leurs éléments correspondants sont égaux.

    Définition: Si A est une matrice carrée arbitraire et A=A’ (-A=A’), alors la matrice A est dite symétrique
    ou asymétrique

    10. Définition d'une matrice inverse. Montrer que toute matrice inversible n’a qu’une seule inversion.

    Définition:

    A A -1= A -1 A=E Il s'ensuit que pour la matrice A -1 l'inverse sera (A -1) -1 =A

    Théorème: Chaque matrice inversible possède une inversion unique.

    Preuve: Supposons que la matrice A possède, avec X, une autre matrice inverse Y, c'est-à-dire AU=E. Alors

    (HA)U=UE=U ┐

    X(AU)=XE=X ┘D'où X=Y. Ceux. la matrice A a une inversion unique (etc.)

    11. Définition d'une matrice inverse. Prouver que (ABC) -1 =C -1 DANS -1 UN -1 .

    Définition: Une matrice carrée A est dite inversible s’il existe une matrice carrée X telle que AX=XA=E. (1)

    Chaque matrice X satisfaisant l'égalité (1) est appelée l'inverse de la matrice A ou l'inverse de la matrice A. La matrice inverse de la matrice A est notée A -1

    A A -1= A -1 A=E Il s'ensuit que pour la matrice A -1 l'inverse sera (A -1) -1 =A (3)

    Théorème: Si les matrices carrées A, B, C du même ordre sont inversibles, alors leur produit est également inversible et (ABC) -1 =C -1 B -1 A -1 .

    Preuve: A(B(CC -1)B -1)A -1 =E et C -1 (B -1 (A -1 A)B)C=E (h.t.d.)

    Pour tout m naturel, par définition, A m = A*A***…*A – m fois.

    Par définition, A 0 = E.

    Définition: Pour chaque matrice inversible A, A -2 =A -1 *A -1 ; A -3 = A -1 *A -1 *A -1 (4)

    De (3) et (4), il s'ensuit que pour chaque matrice inversible A et tout entier p et q nous avons règles normales actions avec diplômes :

    A r A q =A r+ q

    (AB) p =A p B p si AB=BA

    (UNE p) q =UNE p* q

    12.Montrer qu'en transposant une matrice inversible, on obtient à nouveau une matrice inversible et ( UN ’) -1 =( UN -1 )’.

    Théorème: Suite à la transposition de la matrice inversible A, une matrice inversible est à nouveau obtenue et (A') -1 = (A -1)'.

    Preuve: Appliquons les règles de transposition à la relation AX=XA=E :

    (AH)’=(HA)’=E’

    A'X'=X'A'=E

    De la définition de la matrice inverse il résulte que (A’) -1 = X’=(A -1)’(h.t.c.)

    13. Matrices de blocs. Addition et multiplication de matrices de blocs. Théorème sur le déterminant d'une matrice quasi-triangulaire.

    Une matrice rectangulaire A peut être divisée en cellules rectangulaires (blocs) par des lignes verticales et horizontales. En particulier, la matrice peut être divisée uniquement par des lignes horizontales ou uniquement verticales. (A α,β) s , t – matrice de blocs. Considérons deux matrices A et B de même dimension et avec la même partition en blocs. Les blocs correspondants A α,β et B α,β ont la même dimension m α x n β , α=1..s, β=1..t. Ensuite, conformément à la règle d'addition matricielle, l'opération d'addition de matrices de blocs de même taille avec la même partition en blocs s'effectue exactement de la même manière que s'il y avait des éléments numériques à la place des blocs.

    Pour étendre la règle de multiplication matricielle aux matrices blocs, il faut que tous dimensions horizontales les blocs de la première matrice coïncidaient avec les tailles correspondantes du deuxième facteur. Le nombre de colonnes du bloc A α,β est égal au nombre de lignes du bloc B β,c.


    Β passe de 1 à t, c passe de 1 à u. Ainsi, il est possible de multiplier formellement les matrices A et B de la même manière que si au lieu de blocs il y avait des éléments numériques.

    Définition: Une matrice carrée dans laquelle tous les éléments situés sous (au-dessus) de la diagonale principale sont égaux à 0 est appelée matrice triangulaire supérieure (inférieure). Des concepts similaires sont introduits pour les matrices de blocs.

    Définition: Une matrice de blocs A est appelée une matrice quasi-triangulaire supérieure (inférieure) si tous les blocs diagonaux et la matrice A elle-même sont des matrices carrées et que tous les blocs non diagonaux situés sous (au-dessus) des blocs diagonaux sont des matrices nulles.

    Définition: Une matrice de blocs A est dite quasi-diagonale si tous les blocs diagonaux et la matrice A elle-même sont des matrices carrées et que tous les blocs non diagonaux sont des matrices nulles.

    Théorème: Le déterminant d'une matrice quasi-triangulaire est lié au déterminant des matrices diagonales par la relation suivante :

    (♀) où P est le produit.

    Preuve: Considérons d'abord la matrice quasi-triangulaire
    où A 12 =0,
    ,
    ,

    Par définition

    Parce que Et 12 =0 alors de tous les produits il ne peut y avoir ≠0 que ceux dans lesquels les indices
    . En conséquence, les indices restants ne peuvent prendre que des valeurs de l'ensemble
    . Dans ces conditions, le nombre d'inversions dans une permutation
    est égal à :

    En tenant compte de cela, nous constatons que

    Il s'ensuit que

    Considérant dans cas général matrice quasi triangulaire

    Comme une matrice


    d'après (*) on aura
    . Matrice
    encore une fois quasi triangulaire. Après avoir effectué la même opération dessus, on obtient
    . Après (p-1) de telles étapes, nous arrivons à (♀).

    L'égalité (♀) se prouve de la même manière par rapport à la matrice quasi-triangulaire supérieure (etc.)

    Vous devez souvent utiliser des matrices divisées en parties rectangulaires - « cellules » ou « blocs ». Nous consacrons cette section à la considération de telles matrices « blocs ».

    1. Soit une matrice rectangulaire

    En utilisant l'horizontale et lignes verticales Découpons la matrice en blocs rectangulaires :

    . (58)

    On dira de la matrice (58) qu'elle est divisée en blocs de taille ou qu'elle se présente sous la forme d'une matrice de blocs. Au lieu de (58) nous écrirons en abréviation :

    Dans ce cas nous utiliserons la notation suivante :

    Les actions sur les matrices de blocs sont effectuées selon les mêmes règles formelles que dans le cas où au lieu de blocs nous avons des éléments numériques. Soit par exemple deux matrices rectangulaires de même taille et de même partition en blocs :

    C'est facile de voir ça

    . (62)

    Examinons de plus près la multiplication des matrices de blocs. On sait (voir chapitre I, p. 17) que lors de la multiplication de deux matrices rectangulaires, la longueur des lignes du premier facteur doit coïncider avec la hauteur des colonnes du deuxième facteur. Pour permettre la multiplication par blocs de ces matrices, nous exigerons en outre que lors du partitionnement en blocs, toutes les dimensions horizontales du premier facteur coïncident avec les dimensions verticales correspondantes du second :

    , . (63)

    Il est alors facile de vérifier que

    , Où . (64)

    Notons séparément le cas particulier où l'un des facteurs est une matrice quasi diagonale. Soit une matrice quasi-diagonale, c'est-à-dire et pour . Dans ce cas, la formule (64) nous donne :

    Lorsqu'une matrice bloc est multipliée à gauche par une matrice quasi-diagonale, les lignes de la matrice bloc sont multipliées à gauche par les cellules diagonales correspondantes de la matrice quasi-diagonale.

    Soit maintenant une matrice quasi-diagonale, c'est-à-dire et pour . Alors de (64) on obtient :

    Lorsqu'une matrice bloc est multipliée à droite par une matrice quasi-diagonale, toutes les colonnes de la matrice bloc sont multipliées à droite par les cellules diagonales correspondantes de la matrice quasi-diagonale.

    Notez que la multiplication de matrices de blocs carrés du même ordre est toujours réalisable lorsque les facteurs sont divisés en modèles de blocs carrés identiques et que dans chacun des facteurs il y a des matrices carrées aux endroits diagonaux.

    Une matrice de blocs (58) est appelée quasi-triangulaire supérieure (inférieure) si et tout pour (respectivement tout pour ). Un cas particulier de matrice quasi triangulaire est une matrice quasi diagonale.

    À partir de la formule (64), il est facile de voir que le produit de deux matrices quasi-triangulaires supérieures (inférieures) est à nouveau une matrice quasi-triangulaire supérieure (inférieure) ; dans ce cas, les blocs diagonaux du produit sont obtenus en multipliant les blocs diagonaux correspondants des facteurs.

    En effet, en supposant dans (64) et

    .

    Le cas des matrices quasi-triangulaires inférieures est analysé de la même manière.

    Notons la règle de calcul du déterminant d'une matrice quasi-triangulaire. Cette règle peut être obtenue sur la base du développement de Laplace.

    Si est une matrice quasi-triangulaire (en particulier quasi-diagonale) avec des blocs diagonaux carrés, alors le déterminant de cette matrice égal au produit déterminants du bloc diagonal :

    (67)

    2. Soit une matrice de blocs

    (68)

    Ajoutons à la ème ligne du bloc la ème ligne, préalablement multipliée à gauche par une matrice rectangulaire de taille . Obtenons la matrice de blocs

    . (69)

    Introduisons une matrice carrée auxiliaire, présentée sous la forme du schéma bloc carré suivant :

    . (70)

    Les cellules diagonales de la matrice contiennent des matrices unitaires dont les ordres sont respectivement égaux ; tous les blocs non diagonaux de la matrice sont égaux à zéro, à l'exception du bloc situé à l'intersection de la ème ligne de bloc avec la ème colonne de bloc.

    Ce n'est pas difficile à voir

    Par conséquent, puisque est une matrice non singulière, pour les rangs de matrices on a

    Dans le cas particulier où est une matrice carrée, d’après (71) on a :

    Mais le déterminant d'une matrice quasi-triangulaire est 1 :

    Ainsi,

    Les mêmes conclusions peuvent être tirées si une autre colonne est ajoutée à n'importe quelle colonne de la matrice (67), préalablement multipliée à droite par une matrice rectangulaire de dimensions appropriées.

    Les résultats obtenus peuvent être formulés comme le théorème suivant.

    Théorème 3. Si dans une matrice de blocs à la ème ligne de bloc (colonne) on ajoute la ème ligne de bloc (colonne), préalablement multipliée à gauche (à droite) par une matrice rectangulaire de dimensions appropriées, alors cette transformation ne changera pas le rang de la matrice, et aussi dans le cas où est une matrice carrée, et le déterminant de la matrice est .

    3. Considérez maintenant que cas particulier, lorsque le bloc diagonal de la matrice est un carré et, de plus, une matrice non singulière ().

    A la ème ligne de la matrice on ajoute la première ligne, multipliée à gauche par . On obtient alors la matrice

    , (76)

    . (77)

    S'il s'agit d'une matrice carrée non singulière, alors ce processus peut être poursuivi. On arrive ainsi à l'algorithme gaussien généralisé.

    Soit une matrice carrée. Alors

    . (78)

    La formule (78) réduit le calcul d'un déterminant constitué de blocs au calcul d'un déterminant d'ordre inférieur, constitué de blocs.

    Considérons le déterminant, divisé en quatre blocs :

    où et sont des matrices carrées.

    Laisser . Soustrayez ensuite de la deuxième ligne la première, préalablement multipliée à gauche par . On obtient :

    . (JE)

    De la même manière, si , alors on soustrait de la première ligne la seconde, préalablement multipliée à gauche par . On obtient :

    . (II)

    Dans le cas particulier où les quatre matrices , , , sont carrées (du même ordre), les formules de Schur découlent de (I) et (II), réduisant le calcul du déterminant du ième ordre au calcul du déterminant du ème commande:

    (), (je)

    (). (IIa)

    Si les matrices commutent entre elles, alors de (Ia) il résulte :

    (étant donné cela). (Ib)

    De la même manière, s'ils font la navette entre eux, alors

    (étant donné cela). (IIb)

    La formule (Ib) a été obtenue sous l'hypothèse et la formule (IIb) sous la condition. Toutefois, pour des raisons de continuité, ces restrictions peuvent être écartées.

    À partir des formules (Ia) - (IIb), nous pouvons obtenir six formules supplémentaires en échangeant les places sur les côtés droits et et en même temps et .

    .

    D'après la formule (Ib)

    .

    4. Établissons la formule de Frobenius pour inverser une matrice de blocs. Laissez la matrice carrée non singulière () être divisée en blocs

    , (80)

    et let est également une matrice carrée non singulière (). Doit être déterminé.

    Appliquons l'algorithme gaussien généralisé à la matrice. De la deuxième rangée de blocs, nous soustrayons la première, préalablement multipliée à gauche par . Cette opération équivaut à multiplier la matrice de gauche par la matrice, où . C'est pourquoi

    . (81)

    Introduisons la notation

    et notons que de l'égalité (81) il résulte :

    Par conséquent, puisque , alors et . Passer à matrices inverses en égalité (81), on obtient

    . (83)

    Nous chercherons la matrice inverse de la matrice sous la forme . Alors de l'égalité

    nous trouvons que . Ainsi,

    . (84)

    Mais alors à partir de l’égalité (83) nous trouvons

    En effectuant une multiplication matricielle par blocs du côté droit de l'égalité (85), nous arrivons à la formule de Frobenius

    , (86)

    . (87)

    La formule de Frobenius (86) réduit l'inversion d'une matrice d'ordre à l'inversion de matrices à deux ordres et et aux opérations d'addition et de multiplication de matrices de dimensions , , et .

    Si nous supposons cela (au lieu de ) et échangeons les rôles des matrices et , alors nous pouvons obtenir une autre forme de la formule de Frobenius :

    , (88)

    . (89)

    Exemple. Vous devez trouver les éléments de matrice inverses pour une matrice

    .

    Nous croyons

    On retrouve séquentiellement

    , ,

    , ,

    ,

    ,

    ,

    .

    Par conséquent, en utilisant la formule (86) nous trouvons :

    .

    5. Le théorème 3 implique également

    Théorème 4. Si une matrice rectangulaire est représentée sous forme de bloc

    où est une matrice carrée non singulière d'ordre (), alors le rang de la matrice n'est égal que si

    Preuve. Soustrayons de la deuxième ligne de bloc de la matrice la première, préalablement multipliée à gauche par . On obtient alors la matrice

    . (92)

    Les matrices et selon le théorème 3 ont le même rang. Le rang de la matrice coïncide avec le rang de la matrice (c'est-à-dire c) si et seulement si est vrai, c'est-à-dire (91). Le théorème a été prouvé.

    Illustrons cette méthode de recherche avec l’exemple suivant.

    Exemple. Laisser

    Nécessaire pour calculer.

    Nous appliquons une méthode d'élimination légèrement modifiée à la matrice

    .

    À toutes les lignes, nous ajoutons une deuxième ligne avec un facteur et veillons à ce que tous les éléments de la première colonne, à l'exception du deuxième élément, soient égaux à zéro. Après cela, à toutes les lignes sauf la deuxième, nous ajoutons une troisième ligne avec un facteur et veillons à ce que dans la deuxième colonne tous les éléments, à l'exception des deuxième et troisième, soient égaux à zéro. Après cela, aux trois dernières lignes, nous ajoutons la première ligne avec un facteur et obtenons une matrice de la forme

    .

    .

    ,

    ,

    .

    Matrices et déterminants
    Applications Windows portables sur Bodrenko.com

    Chapitre 1
    MATRICES ET DÉTERMINANTS

    Dans ce chapitre, nous étudions des tableaux de nombres appelés matrices, qui jouent un rôle très important dans le futur. Ici, les opérations de base sur les matrices sont introduites et les propriétés des déterminants, qui sont les principaux caractéristique numérique matrices carrées.

    § 1. Matrices

    1. Le concept de matrice. Une matrice est un tableau rectangulaire de nombres contenant un certain nombre de m lignes et un certain nombre de n colonnes. Les numéros de type sont appelés ordres matriciels. Si m = n, la matrice est dite carrée, et le nombre m = n est son ordre. À l’avenir, des doubles tirets ou des parenthèses seront utilisés pour écrire la matrice :

    Cependant, pour désignation courte les matrices utiliseront souvent soit une lettre latine majuscule (par exemple, A), soit le symbole ║ un ij ║, et parfois avec une explication :
    Les nombres a ij inclus dans cette matrice sont appelés ses éléments. Dans l'entrée a ij - le premier index i signifie le numéro de ligne et le deuxième index j signifie le numéro de colonne.
    Dans le cas d'une matrice carrée

    Les notions de diagonales principales et secondaires sont introduites. Diagonale principale la matrice (1.1) est appelée la diagonale a 11 a 22 ...a nn venant de la gauche coin supérieur de cette matrice dans son coin inférieur droit. Diagonale latérale de la même matrice est appelée la diagonale a n1 a (n-1)2 ...a 1n , allant du coin inférieur gauche au coin supérieur droit.

    2. Opérations de base sur les matrices et leurs propriétés. Tout d’abord, convenons de calculer deux matrices égal, si ces matrices ont les mêmes ordres et que tous leurs éléments correspondants sont les mêmes.
    Passons à la définition des opérations de base sur les matrices.
    UN) Ajout de matrice.Montant deux matrices A = ║ un ij ║(i = 1, 2,..., m; j = 1, 2,..., n) et B = (i = 1, 2,..., m; j = 1, 2,... , n) des mêmes ordres m et n est appelé une matrice C= (i = 1, 2,..., m; j = 1, 2,..., n) des mêmes ordres m et n, éléments c ij - qui sont égaux

    C ij = a ij + b ij (i = 1, 2,..., m ; j = 1, 2,... , n ) (1,2

    Pour désigner la somme de deux matrices, la notation C = A + B est utilisée. L'opération de composition de la somme des matrices est appelée leur. ajout. Donc par définition

    De la définition de la somme des matrices, ou plus précisément de la formule (1.2), il résulte immédiatement que l'opération d'addition matricielle a les mêmes propriétés que l'opération d'addition nombres réels, à savoir :
    1) propriété commutative : A + B = B + A ;
    2) propriété associative : (A + B) + C = A + (B + C).
    Ces propriétés permettent de ne pas se soucier de l'ordre des termes des matrices lors de l'ajout de deux ou plus matrices

    b) Multiplier une matrice par un nombre. Le travail matrice A = ║ un ij ║(i = 1, 2,..., m; j = 1, 2,... , n) en réel
    le nombre λ est appelé la matrice C = (i = 1, 2,..., m ; j = 1, 2,..., n), dont les éléments c ij sont égaux

    c ij = λ a ij (i = 1, 2,..., m; j = 1, 2,... , n) (1.3)

    Pour désigner le produit d'une matrice par un nombre, la notation C = λ A ou C = Aλ est utilisée. L'opération consistant à composer le produit d'une matrice par un nombre s'appelle multiplier la matrice par ce nombre. Directement à partir de la formule (1.3), il ressort clairement que multiplier une matrice par un nombre a les propriétés suivantes :
    1) une propriété combinatoire par rapport à un facteur numérique : (λ µ )A = λ ( µ UN);

    2) propriété distributive concernant la somme des matrices : λ (A + B) = λ A + λ B ;
    3) propriété de distribution concernant la somme des nombres : (λ + µ )A = λ A + µ UN.
    Commentaire. Il est naturel d'appeler la différence de deux matrices A et B de mêmes ordres une telle matrice C de mêmes ordres m et n, qui en somme avec la matrice B donne la matrice A. Pour désigner la différence de deux matrices, une notation naturelle est utilisé : C = A - B.
    Il est très simple de vérifier que la différence C de deux matrices A et B peut être obtenue par la règle C = A + (-1)B.
    c) Multiplication matricielle. Le travail matrice A = ║ un ij ║(i = 1, 2,..., m; j = 1, 2,..., n), ayant des ordres égaux respectivement à m et n, sur la matrice B = (i = 1, 2,.. ., n ; j = 1, 2,..., p), ayant des ordres égaux respectivement à n et p, est appelée une matrice C= (i = 1, 2,..., m; j = 1, 2,... , p), ayant des ordres égaux respectivement à m et p, et des éléments c ij définis par la formule

    Pour désigner le produit de la matrice A et de la matrice B, utilisez la notation C = A - B. L'opération de composition du produit de la matrice A et de la matrice B s'appelle multiplication ces matrices. De la définition formulée ci-dessus, il résulte que La matrice A ne peut pas être multipliée par chaque matrice B: il faut que le nombre de colonnes de la matrice A soit égal au nombre de lignes de la matrice B.
    En particulier, les deux produits A B et B A ne peuvent être déterminés que dans le cas où le nombre de colonnes A coïncide avec le nombre de lignes B et le nombre de lignes A coïncide avec le nombre de colonnes B. Dans ce cas, les deux matrices A - B et B - A seront carrés, mais leurs ordres seront généralement différents. Pour que les deux produits A B et B A soient non seulement définis, mais aient également le même ordre, il est nécessaire et suffisant que les deux matrices A et B soient matrices carrées du même ordre.
    La formule (1.4) est une règle de composition des éléments de la matrice C, qui est le produit de la matrice A et de la matrice B. Cette règle peut également être formulée verbalement : élément c je , debout à l'intersectionje -les lignes etj- ème colonne de la matrice

    C = UN B, égal à la somme produits par paires du correspondant éléments du i-ième lignes de la matrice A et la ème colonne de la matrice B.
    A titre d'exemple d'application de cette règle, nous présentons la formule de multiplication de matrices carrées du second ordre

    De la formule (1.4) il résulte propriétés suivantes produit de la matrice A et de la matrice B :
    1) propriété associative : (AB)C = A(BC) ;
    2) propriété distributive relative à la somme des matrices : (A + B)C = AC + BC ou A(B + C) = AB + AC.
    La propriété distributive découle immédiatement des formules (1.4) et (1.2), et pour prouver propriété associative il suffit de noter que si A = ║ un ij ║(i = 1, 2,..., m ; j = 1, 2,..., n), B = (i = 1, 2,..., n ; j = 1, 2,... , p ), C = (i = 1, 2,..., m ; j = 1, 2,... , p ), alors
    l'élément d il de la matrice (AB)C dû à (1.4) est égal à et l'élément d il " de la matrice A(BC) est égal à , mais alors l'égalité d il = d il " découle de la possibilité de changer l'ordre de sommation par rapport à j et k.
    La question sur la propriété de permutation du produit de la matrice A et de la matrice B a du sens de se poser uniquement pour les matrices carrées A et B du même ordre (car, comme indiqué ci-dessus, seules pour ces matrices A et B sont tous deux des produits AB et BA A définis et sont des matrices des mêmes ordres). Des exemples élémentaires montrent que le produit de deux matrices carrées du même ordre n'a pas, en général, la propriété de commutation. En fait, si on pose

    Nous indiquerons ici cependant des cas particuliers importants dans lesquels la propriété de commutation est vraie (deux matrices pour lesquelles la propriété de commutation est vraie sont généralement appelées commutation). Parmi les matrices carrées, nous soulignons la classe des matrices dites diagonale matrices dont chacune a des éléments situés en dehors de la diagonale principale égaux à zéro. Chaque matrice diagonale d'ordre n a la forme

    où d 1, d 2,..., d n sont des nombres quelconques. Il est facile de voir que si tous ces nombres sont égaux entre eux, c'est-à-dire d 1 = d 2= ...= d n = d, alors pour tout
    Pour une matrice carrée A d’ordre n, l’égalité AD = DA est vraie. En fait, désignons par les symboles Cij et cf(j les éléments situés respectivement à l'intersection de la i-ème ligne et de la j-ro colonne des matrices AD et DA. Alors à partir de l'égalité (1.4) et de la Sous forme de la matrice D, nous obtenons que c ij =a ij d j = a ij d , c ij " = d i a ij = da ij (1.6), c'est-à-dire c ij = c ij " .

    Parmi toutes les matrices diagonales (1.5) avec des éléments coïncidants d 1 = d 2= ...= d n rôle important deux matrices jouent. La première de ces matrices est obtenue pour d = 1 et est appelée matrice d'identité d'ordre n et est désigné par le symbole E. La deuxième matrice est obtenue à d = 0 et est appelée matrice nulle du nième ordre et est désigné par le symbole O. Ainsi,

    Grâce à ce qui a été prouvé ci-dessus, AE = EA et AO = O A. De plus, d'après les formules (1.6) il ressort clairement que

    AE = EA = E, AO = OA = O. (1,7)

    La première des formules (1.7) caractérise le rôle particulier de la matrice identité E, semblable au rôle joué par le nombre 1 lors de la multiplication de nombres réels. Quant au rôle particulier de la matrice nulle O, il se révèle non seulement par la seconde des formules (1.7), mais aussi par l'égalité élémentaire vérifiable A + O = O + A = A (cette égalité est une conséquence directe de la formule (1.2)).
    En conclusion, notons que la notion de matrice nulle peut également être introduite pour les matrices non carrées (une matrice nulle est toute matrice dont les éléments sont tous nuls).
    3. Matrices de blocs. Supposons qu'une matrice A = ║ un ij ║à l'aide de lignes horizontales et verticales, il est divisé en cellules rectangulaires distinctes, chacune étant une matrice de plus petites tailles et appelée bloc de la matrice originale. Dans ce cas, il devient possible de considérer la matrice originale A comme une nouvelle matrice (dite bloc) A = ║ Un αβ ║, éléments Un αβ auxquels ces blocs servent.
    Nous désignons ces éléments comme étant grands Lettre latine, pour souligner qu'il s'agit, d'une manière générale, de matrices et non de nombres, et (comme les éléments numériques ordinaires) nous fournissons deux indices, le premier indiquant le numéro de la ligne "bloc", et le second le numéro du "bloc". " colonne. Par exemple, une matrice

    peut être considérée comme une matrice de blocs dont les éléments sont les blocs suivants :

    Il est remarquable que les opérations principales avec des matrices de blocs soient effectuées selon les mêmes règles qu'elles sont effectuées avec des matrices numériques ordinaires, seuls les blocs agissent comme des éléments.
    En fait, il est facile de vérifier que si la matrice A = ║ un ij ║ est au niveau du bloc et comporte des éléments au niveau du bloc Un αβ, puis avec la même partition en blocs la matrice λ A = ║λ un ij ║ correspondent aux éléments de bloc λ Un αβ(Dans ce cas, les éléments de bloc λ Un αβ sont eux-mêmes calculés à l'aide de la règle de multiplication matricielle Un αβ par le nombre λ ).
    Il est tout aussi simple de vérifier que si les matrices A et B ont les mêmes ordres et sont divisées en blocs de la même manière, alors la somme des matrices A et B correspond à une matrice bloc avec des éléments Un αβ = Un αβ + B αβ(Ici Un αβ Et B αβ- éléments de bloc des matrices A et B).
    Enfin, soit A et B deux matrices de blocs telles que le nombre de colonnes de chaque bloc Un αβégal au nombre de lignes du bloc B β γ (Donc
    pour tout α, β et γ le produit des matrices est défini Un αβ DANS β γ ). Alors le produit C = A B est une matrice à éléments C α γ , défini par la formule

    Pour prouver cette formule, il suffit d'écrire ses parties gauche et droite en termes d'éléments ordinaires (numériques) des matrices A et B (laissons cela au lecteur).
    A titre d'exemple d'utilisation de matrices de blocs, attardons-nous sur le concept de ce qu'on appelle la somme directe des matrices carrées. Montant direct deux matrices carrées A et B d'ordres m et n, respectivement, sont appelées une matrice de blocs carrés C d'ordre m + n, égale à . Pour désigner la somme directe des matrices A et B, la notation C = A est utilisée



    Avez-vous aimé l'article? Partagez avec vos amis !