Matriz inversa y sus propiedades. matriz inversa

Similar a lo inverso en muchas propiedades.

Propiedades de una matriz inversa

  • det A − 1 = 1 det A (\displaystyle \det A^(-1)=(\frac (1)(\det A))), Dónde det (\displaystyle \\det) denota el determinante.
  • (A B) − 1 = B − 1 A − 1 (\displaystyle \ (AB)^(-1)=B^(-1)A^(-1)) para dos matrices cuadradas invertibles A (\displaystyle A) Y B (\displaystyle B).
  • (A T) − 1 = (A − 1) T (\displaystyle \ (A^(T))^(-1)=(A^(-1))^(T)), Dónde (. . .) T (\displaystyle (...)^(T)) denota una matriz transpuesta.
  • (k A) − 1 = k − 1 A − 1 (\displaystyle \ (kA)^(-1)=k^(-1)A^(-1)) para cualquier coeficiente k ≠ 0 (\displaystyle k\not =0).
  • mi − 1 = mi (\displaystyle \E^(-1)=E).
  • Si es necesario resolver un sistema de ecuaciones lineales, (b es un vector distinto de cero) donde x (\displaystyle x) es el vector deseado, y si A − 1 (\displaystyle A^(-1)) existe, entonces x = A − 1 segundo (\displaystyle x=A^(-1)b). De lo contrario, la dimensión del espacio de soluciones es mayor que cero o no hay ninguna solución.

Vídeo sobre el tema.

Métodos para encontrar la matriz inversa.

Si la matriz es invertible, entonces para encontrar la matriz inversa puede utilizar uno de los siguientes métodos:

Métodos exactos (directos)

Método Jordan-Gauss

Tomemos dos matrices: la A y soltero mi. Presentemos la matriz. A a la matriz identidad usando el método de Gauss-Jordan, aplicando transformaciones a lo largo de las filas (también puedes aplicar transformaciones a lo largo de las columnas). Después de aplicar cada operación a la primera matriz, aplique la misma operación a la segunda. Cuando se complete la reducción de la primera matriz a forma unitaria, la segunda matriz será igual a A-1.

Cuando se utiliza el método gaussiano, la primera matriz de la izquierda se multiplicará por una de las matrices elementales. Λ yo (\displaystyle \Lambda _(i))(transvección o matriz diagonal con unos en la diagonal principal, excepto una posición):

Λ 1 ⋅ ⋯ ⋅ Λ n ⋅ A = Λ A = E ⇒ Λ = A − 1 (\displaystyle \Lambda _(1)\cdot \dots \cdot \Lambda _(n)\cdot A=\Lambda A=E \Flecha derecha \Lambda =A^(-1)). Λ m = [ 1 … 0 − a 1 m / a m m 0 … 0 … 0 … 1 − a m − 1 m / a m m 0 … 0 0 … 0 1 / a m m 0 … 0 0 … 0 − a m + 1 m / a m m 1 … 0 … 0 … 0 − a n m / a m m 0 … 1 ] (\displaystyle \Lambda _(m)=(\begin(bmatrix)1&\dots &0&-a_(1m)/a_(mm)&0&\dots &0\\ &&&\puntos &&&\\0&\puntos &1&-a_(m-1m)/a_(mm)&0&\puntos &0\\0&\puntos &0&1/a_(mm)&0&\puntos &0\\0&\puntos &0&-a_( m+1m)/a_(mm)&1&\dots &0\\&&&\dots &&&\\0&\dots &0&-a_(nm)/a_(mm)&0&\dots &1\end(bmatrix))).

La segunda matriz después de aplicar todas las operaciones será igual a Λ (\displaystyle \Lambda), es decir, será el deseado. Complejidad del algoritmo - O (n 3) (\displaystyle O(n^(3))).

Usando la matriz de complemento algebraico

Matriz inversa de matriz A (\displaystyle A), se puede representar en la forma

A − 1 = adj (A) det (A) (\displaystyle (A)^(-1)=(((\mbox(adj))(A)) \over (\det(A))))

Dónde adj (A) (\displaystyle (\mbox(adj))(A))- matriz adjunta (una matriz compuesta de sumas algebraicas para los elementos correspondientes de la matriz transpuesta).

La complejidad del algoritmo depende de la complejidad del algoritmo para calcular el determinante O det y es igual a O(n²)·O det.

Usando la descomposición LU/LUP

Ecuación matricial A X = I n (\displaystyle AX=I_(n)) para la matriz inversa X (\displaystyle X) puede considerarse como una colección norte (\ Displaystyle n) sistemas de la forma A x = b (\displaystyle Ax=b). denotemos yo (\displaystyle yo)ésima columna de la matriz X (\displaystyle X) a través de X yo (\displaystyle X_(i)); Entonces A X i = e i (\displaystyle AX_(i)=e_(i)), yo = 1 , … , norte (\displaystyle i=1,\ldots ,n),porque el yo (\displaystyle yo)ésima columna de la matriz En (\displaystyle I_(n)) es el vector unitario mi yo (\displaystyle e_(i)). en otras palabras, encontrar la matriz inversa se reduce a resolver n ecuaciones con la misma matriz y lados derechos diferentes. Después de realizar la descomposición LUP (tiempo O(n³)), resolver cada una de las n ecuaciones lleva tiempo O(n²), por lo que esta parte del trabajo también requiere tiempo O(n³).

Si la matriz A no es singular, entonces se puede calcular la descomposición LUP para ella. P A = L U (\displaystyle PA=LU). Dejar P A = B (\displaystyle PA=B), segundo − 1 = re (\displaystyle B^(-1)=D). Luego de las propiedades de la matriz inversa podemos escribir: D = U − 1 L − 1 (\displaystyle D=U^(-1)L^(-1)). Si multiplicas esta igualdad por U y L, puedes obtener dos igualdades de la forma UD = L − 1 (\displaystyle UD=L^(-1)) Y D L = U − 1 (\displaystyle DL=U^(-1)). La primera de estas igualdades es un sistema de n² ecuaciones lineales para norte (n + 1) 2 (\displaystyle (\frac (n(n+1))(2))) de donde se conocen los lados derechos (de las propiedades de las matrices triangulares). El segundo también representa un sistema de n² ecuaciones lineales para norte (n − 1) 2 (\displaystyle (\frac (n(n-1))(2))) de donde se conocen los lados derechos (también de las propiedades de las matrices triangulares). Juntos representan un sistema de n² igualdades. Usando estas igualdades, podemos determinar recursivamente todos los n² elementos de la matriz D. Luego de la igualdad (PA) −1 = A −1 P −1 = B −1 = D. obtenemos la igualdad A − 1 = D P (\displaystyle A^(-1)=DP).

En el caso de utilizar la descomposición LU, no se requiere ninguna permutación de las columnas de la matriz D, pero la solución puede divergir incluso si la matriz A no es singular.

La complejidad del algoritmo es O(n³).

Métodos iterativos

Métodos Schultz

( Ψ k = E − A U k , U k + 1 = U k ∑ i = 0 norte Ψ k i (\displaystyle (\begin(cases)\Psi _(k)=E-AU_(k),\\U_( k+1)=U_(k)\sum _(i=0)^(n)\Psi _(k)^(i)\end(casos)))

Estimación de errores

Seleccionar una aproximación inicial

El problema de elegir la aproximación inicial en los procesos iterativos de inversión de matrices considerados aquí no nos permite tratarlos como métodos universales independientes que compitan con los métodos de inversión directa basados, por ejemplo, en la descomposición LU de matrices. Hay algunas recomendaciones para elegir. U 0 (\displaystyle U_(0)), asegurando el cumplimiento de la condición ρ (Ψ 0) < 1 {\displaystyle \rho (\Psi _{0})<1} (el radio espectral de la matriz es menor que la unidad), lo cual es necesario y suficiente para la convergencia del proceso. Sin embargo, en este caso, en primer lugar, es necesario conocer desde arriba la estimación del espectro de la matriz invertible A o la matriz A A T (\ Displaystyle AA ^ (T))(es decir, si A es una matriz definida positiva simétrica y ρ (A) ≤ β (\displaystyle \rho (A)\leq \beta ), entonces puedes tomar U 0 = α mi (\displaystyle U_(0)=(\alpha )E), Dónde ; si A es una matriz arbitraria no singular y ρ (A A T) ≤ β (\displaystyle \rho (AA^(T))\leq \beta ), entonces creen U 0 = α A T (\displaystyle U_(0)=(\alpha )A^(T)), donde también α ∈ (0 , 2 β) (\displaystyle \alpha \in \left(0,(\frac (2)(\beta ))\right)); Por supuesto, puedes simplificar la situación y aprovechar el hecho de que ρ (A A T) ≤ k A A T k (\displaystyle \rho (AA^(T))\leq (\mathcal (k))AA^(T)(\mathcal (k))), poner U 0 = A T ‖ A A T ‖ (\displaystyle U_(0)=(\frac (A^(T))(\|AA^(T)\|)))). En segundo lugar, al especificar la matriz inicial de esta manera, no hay garantía de que ‖ Ψ 0 ‖ (\displaystyle \|\Psi _(0)\|) será pequeño (tal vez incluso resulte ser ‖ Ψ 0 ‖ > 1 (\displaystyle \|\Psi _(0)\|>1)), y no se revelará de inmediato una tasa de convergencia de alto orden.

Una matriz es un objeto matemático escrito en forma de tabla rectangular de números y que permite operaciones algebraicas (suma, resta, multiplicación, etc.) entre ella y otros objetos similares. Las reglas para realizar operaciones con matrices son las siguientes:

para que sea conveniente escribir sistemas de ecuaciones lineales. Por lo general, la matriz se indica con una letra mayúscula del alfabeto latino y se separa por paréntesis “(...)” (también se encuentra

resaltado con corchetes “[…]”, líneas rectas dobles “||…||”) Y los números que componen la matriz (elementos de la matriz) se denotan con la misma letra que la propia matriz, pero pequeña. cada elemento de la matriz tiene 2 subíndices (a ij): la primera "i" denota

el número de la fila en la que se encuentra el elemento, y la segunda "j" es el número de la columna.

Operaciones sobre matrices

Multiplicar la matriz A por un número

B, cuyos elementos se obtienen multiplicando cada elemento de la matriz A por este número, es decir, cada elemento de la matriz B es igual a

bij= λaij

Suma de matriz A

elemento de la matriz C es igual a

c ij= a ij+ b ij

Resta de matrices A

c ij = a ij - b ij

A + Θ =A

Multiplicación de matrices(designación: AB, con menos frecuencia con un signo de multiplicación) - es la operación de calcular la matriz C, cuyos elementos son iguales a la suma de los productos de los elementos en la fila correspondiente del primer factor y la columna del segundo.

c ij= ∑ a ikb kj

El primer factor debe tener el mismo número de columnas que el número de filas del segundo.. Si la matriz A tiene dimensión B -, entonces la dimensión de su producto es AB = C

Hay . La multiplicación de matrices no es conmutativa. Esto se puede ver en el hecho de que si las matrices no son cuadradas, entonces solo se puede multiplicar una por la otra, pero no al revés. Para

de matrices cuadradas, el resultado de la multiplicación depende del orden de los factores.

Sólo las matrices cuadradas pueden elevarse a potencias.

Matriz de identidad

Para matrices cuadradas hay matriz de identidad E tal que cualquier multiplicación

la matriz en él no afecta el resultado, es decir

EA = EA = A

Para una matriz identidad, las unidades solo son iguales a

diagonales, otros elementos son cero

Para algunas matrices cuadradas se puede encontrar la llamadamatriz inversa.

La matriz inversa A - 1 es tal que si multiplicas la matriz por ella, obtienes la matriz identidad

AA-1 = mi

La matriz inversa no siempre existe. Las matrices para las que existe la inversa se llaman

no degenerados, y para aquellos que no, degenerados. Una matriz es no singular si todas sus filas (columnas) son linealmente independientes como vectores. Número máximo de filas linealmente independientes

(columnas) se llama rango de la matriz. El determinante de una matriz es un funcional lineal asimétrico normalizado en las filas de la matriz. Matriz

es degenerado si y sólo si su determinante es cero.

Propiedades de las matrices

1. A + (B +C) = (A +B) +C

2. A+B= B+A

3. A (BC) = (AB)C

4. A (B+ C) = AB+ CA

5. (B+ C) A= BA+ CA

9. matriz simétrica A es definida positiva (A > 0) si todos sus menores angulares principales tienen valores A k > 0

10. matriz simétrica A es definida negativa (A< 0), если матрица (−A )

es definida positiva, es decir, si para cualquier k el menor principal de k-ésimo orden A k tiene signo (− 1)k

Sistemas de ecuaciones lineales.

Un sistema de m ecuaciones con n incógnitas.

a11 x1 +a12 x2 +…+a1n xn =b1 a21 x1 +a22 x2 +…+a2n xn =b2

soy x1 + soy x2 +…+soy xn =bm

se puede representar en forma matricial

y entonces todo el sistema se puede escribir así: AX = B

Operaciones sobre matrices

Sean a ij elementos de la matriz A y b ij elementos de la matriz B.

Multiplicar la matriz A por un númeroλ (símbolo: λA) consiste en construir una matriz

B, cuyos elementos se obtienen multiplicando cada elemento de la matriz A por este número, es decir, cada elemento de la matriz B es igual a b ij = λa ij

Escribamos la matriz A.

Multiplica el primer elemento de la matriz A por 2

Suma de matriz A+ B es la operación de encontrar una matriz C, cuyos elementos son iguales a la suma por pares de todos los elementos correspondientes de la matriz A y B, es decir, cada uno

elemento de la matriz C es igual a

c ij= a ij+ b ij

A+B Escribamos las matrices A y B.

Realicemos la suma de los primeros elementos de las matrices.

Estiremos los valores, primero horizontalmente y luego verticalmente (o viceversa)

Resta de matrices A− B se define de manera similar a la suma, esta es la operación de encontrar una matriz C cuyos elementos

c ij = a ij - b ij

La suma y la resta solo están permitidas para matrices del mismo tamaño.

Existe una matriz cero Θ tal que sumarla a otra matriz A no cambia A, es decir

A + Θ =A

Todos los elementos de la matriz cero son iguales a cero.

Entonces, servicios para resolver matrices en línea:

El servicio de trabajo con matrices permite realizar transformaciones elementales de matrices.
Si tiene la tarea de realizar una transformación más compleja, entonces este servicio debe usarse como constructor.

Ejemplo. Matrices dadas A Y B, necesito encontrar C = A -1 * B + B t

  1. Primero deberías encontrar matriz inversaA1 = A-1, utilizando el servicio de búsqueda de la matriz inversa;
  2. A continuación, después de haber encontrado la matriz A1 Vamos a hacerlo multiplicación de matricesA2 = A1 * B utilizando el servicio de multiplicación de matrices;
  3. Vamos a hacerlo transposición de matrizA3 = B T (servicio para encontrar una matriz transpuesta);
  4. Y por último, encontremos la suma de las matrices. CON = A2 + A3(servicio para calcular la suma de matrices) - ¡y obtenemos la respuesta con la solución más detallada!;

Producto de matrices

Este es un servicio en línea en dos pasos:

  • Ingrese la primera matriz de factores A
  • Ingrese la matriz del segundo factor o el vector de columna B

Multiplicar una matriz por un vector

La multiplicación de una matriz por un vector se puede encontrar utilizando el servicio. Multiplicación de matrices
(El primer factor será esta matriz, el segundo factor será la columna formada por los elementos de este vector)

Este es un servicio en línea en dos pasos:

  • Introducir matriz A, para lo cual necesitamos encontrar la matriz inversa
  • Obtenga una respuesta con una solución detallada para encontrar la matriz inversa

Determinante de matriz

Este es un servicio en línea en Un paso:

  • Introducir matriz A, para lo cual necesitamos encontrar el determinante de la matriz.

Transposición de matriz

Aquí puede seguir el algoritmo de transposición de matrices y aprender a resolver problemas similares usted mismo.
Este es un servicio en línea en Un paso:

  • Introducir matriz A, que debe transponerse

rango de matriz

Este es un servicio en línea en Un paso:

  • Introducir matriz A, para lo cual necesitas encontrar el rango

Valores propios matriciales y vectores propios matriciales

Este es un servicio en línea en Un paso:

  • Introducir matriz A, para lo cual necesita encontrar vectores propios y valores propios (valores propios)

Exponenciación matricial

Este es un servicio en línea en dos pasos:

  • Introducir matriz A, que elevarás al poder
  • Introduzca un número entero q- grado
Objeto del servicio. La calculadora matricial está diseñada para resolver sistemas de ecuaciones lineales utilizando un método matricial (ver ejemplo de resolución de problemas similares).

Instrucciones. Para resolver en línea, debes seleccionar el tipo de ecuación y establecer la dimensión de las matrices correspondientes.

Tipo de ecuación: A·X = B X A = B A·X·B = C
Dimensión de la matriz A
Dimensión de la matriz B 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

Dimensión de la matriz C 1 2 3 4 5 6 7 8 9 10 x 1 2 3 4 5 6 7 8 9 10

donde A, B, C son las matrices especificadas, X es la matriz deseada. Las ecuaciones matriciales de la forma (1), (2) y (3) se resuelven mediante la matriz inversa A -1. Si se da la expresión A·X - B = C, entonces es necesario primero sumar las matrices C + B y encontrar una solución para la expresión A·X = D, donde D = C + B(). Si se da la expresión A*X = B 2, entonces primero se debe elevar al cuadrado la matriz B. También se recomienda familiarizarse con las operaciones básicas con matrices.

Ejemplo No. 1. Ejercicio. Encuentra la solución a la ecuación matricial.
Solución. Denotemos:
Entonces la ecuación matricial se escribirá en la forma: A·X·B = C.
El determinante de la matriz A es igual a detA=-1
Como A es una matriz no singular, existe una matriz inversa A -1. Multiplica ambos lados de la ecuación de la izquierda por A -1: Multiplica ambos lados de esta ecuación de la izquierda por A -1 y de la derecha por B -1: A -1 ·A·X·B·B -1 = A -1 ·C·B -1 . Dado que A A -1 = B B -1 = E y E X = X E = X, entonces X = A -1 C B -1

Matriz inversa A -1:
Encontremos la matriz inversa B -1.
Matriz transpuesta B T:
Matriz inversa B -1:
Buscamos la matriz X usando la fórmula: X = A -1 ·C·B -1

Respuesta:

Ejemplo No. 2. Ejercicio. Resolver ecuación matricial
Solución. Denotemos:
Entonces la ecuación matricial se escribirá en la forma: A·X = B.
El determinante de la matriz A es detA=0
Dado que A es una matriz singular (el determinante es 0), la ecuación no tiene solución.

Ejemplo No. 3. Ejercicio. Encuentra la solución a la ecuación matricial.
Solución. Denotemos:
Entonces la ecuación matricial se escribirá en la forma: X A = B.
El determinante de la matriz A es detA=-60
Como A es una matriz no singular, existe una matriz inversa A -1. Multipliquemos ambos lados de la ecuación de la derecha por A -1: X A A -1 = B A -1, de donde encontramos que X = B A -1
Encontremos la matriz inversa A -1 .
Matriz transpuesta A T:
Matriz inversa A -1:
Buscamos la matriz X usando la fórmula: X = B A -1


Respuesta: >

matriz inversa- semejante matriz A −1 , cuando se multiplica por cuál, la matriz original A resultados en matriz de identidad mi:

Matriz cuadrada es reversible si y sólo si no es degenerado, es decir, su determinante no igual a cero. Para matrices no cuadradas y matrices singulares no hay matrices inversas. Sin embargo, es posible generalizar este concepto e introducir matrices pseudoinversas, similar a lo inverso en muchas propiedades.

Resolver ecuaciones matriciales

Las ecuaciones matriciales pueden verse así:

AX = B, HA = B, AXB = C,

donde A, B, C son las matrices especificadas, X es la matriz deseada.

Las ecuaciones matriciales se resuelven multiplicando la ecuación por matrices inversas.

Por ejemplo, para encontrar la matriz de la ecuación, debes multiplicar esta ecuación por a la izquierda.

Por lo tanto, para encontrar una solución a la ecuación, necesitas encontrar la matriz inversa y multiplicarla por la matriz del lado derecho de la ecuación.

Otras ecuaciones se resuelven de manera similar.

Ejemplo 2

Resuelve la ecuación AX = B si

Solución: Dado que la matriz inversa es igual a (ver ejemplo 1)

Espacios lineales

Definición de espacio lineal

Dejar V- un conjunto no vacío (llamaremos vectores a sus elementos y denotaremos...), en el que se establecen las reglas:

1) dos elementos cualesquiera corresponden a un tercer elemento llamado suma de elementos (operación interna);

2) todos y cada uno corresponden a un elemento específico (operación externa).

Un montón de V se llama espacio lineal real (vectorial) si se cumplen los axiomas:

I.

III. (elemento cero tal que ).

IV. (elemento opuesto al elemento ), tal que

v.

VIII. Un espacio lineal complejo se define de manera similar (en lugar de R está siendo considerado C).

Subespacio del espacio lineal

Un conjunto se llama subespacio de un espacio lineal. V, Si:

1)

Sistema de vectores espaciales lineales l formas base V l si este sistema de vectores es ordenado, linealmente independiente y cualquier vector de l expresado linealmente en términos de vectores del sistema.

En otras palabras, un sistema ordenado de vectores linealmente independiente. mi 1 , ..., mi norte forma una base en l si hay algún vector X de l se puede presentar en forma

X= C 1 · mi 1+C 2 ·mi 2 + ...+С norte · mi norte .

La base se puede definir de otra manera.

Cualquier sistema ordenado linealmente independiente mi 1 , ..., mi norte vectores norte- espacio lineal dimensional l norte forma la base de este espacio.

Porque el norte, dimensión del espacio l norte es el número máximo de vectores del espacio linealmente independientes, entonces el sistema de vectores X,mi 1 , ..., mi norte linealmente dependiente y, por tanto, el vector X expresado linealmente en términos de vectores mi 1 , ..., mi norte :

X = X 1 · mi 1 + X 2 ·mi 2 + ...+ X norte · mi norte .

Esta descomposición de un vector en términos de base solo.

Teorema 1. (Sobre el número de vectores en sistemas de vectores linealmente independientes y generadores). El número de vectores en cualquier sistema de vectores linealmente independiente no excede el número de vectores en cualquier sistema generador de vectores del mismo vector espacio.

Prueba. Sea un sistema arbitrario de vectores linealmente independiente un sistema generador arbitrario. Supongamos que.

Porque sistema generador, entonces representa cualquier vector del espacio, incluido el vector . Conectémoslo a este sistema. Obtenemos un sistema de vectores linealmente dependiente y generador: . Entonces hay un vector de este sistema que se expresa linealmente a través de los vectores anteriores de este sistema y, en virtud del lema, se puede eliminar del sistema, y ​​el sistema de vectores restante seguirá generándose.

Renumeremos el resto del sistema de vectores: . Porque este sistema es generador, luego representa un vector y, sumándolo a este sistema, obtenemos nuevamente un sistema generador y linealmente dependiente: .

Luego todo se repite. Hay un vector en este sistema que se expresa linealmente en términos de los anteriores, y este no puede ser un vector, porque el sistema original es linealmente independiente y el vector no se expresa linealmente en términos del vector. Esto significa que este sólo puede ser uno de los vectores. Quitándolo del sistema obtenemos, tras renumerar, el sistema, que será el sistema generador. Continuando con este proceso, a través de pasos obtenemos un sistema generador de vectores: , donde , porque según nuestra suposición. Esto significa que este sistema, como generador, también representa el vector, lo que contradice la condición de independencia lineal del sistema.

El teorema 1 está demostrado.

Teorema 2. (Sobre el número de vectores en la base). En cualquier base vectorial. espacio contiene el mismo número de vectores.

Prueba. Sean y dos bases arbitrarias de un espacio vectorial. Cualquier base es un sistema de vectores generativo y linealmente independiente.

Porque el primer sistema es linealmente independiente y el segundo es generador, entonces, según el teorema 1, .

De manera similar, el segundo sistema es linealmente independiente y el primero genera, entonces. Se deduce que, etc.

El teorema 2 está demostrado.

Este teorema le permite ingresar la siguiente definición.

Definición. La dimensión de un espacio vectorial V sobre un campo K es el número de vectores en su base.

Designación: o .

Coordenadas vectoriales— coeficientes de los únicos posibles combinación lineal básico vectores en el seleccionado sistema coordinado, igual a este vector.



¿Te gustó el artículo? ¡Compartir con tus amigos!