Descomposición en valores propios de una matriz

En álgebra lineal, la descomposición en valores propios de una matriz es su factorización en una forma canónica, de manera que se representa mediante sus valores y vectores propios (también denominados autovalores y autovectores). Solo las matrices diagonalizables se pueden factorizar de esta manera. Cuando la matriz que se factoriza es una matriz normal o una matriz simétrica real, la descomposición se denomina descomposición espectral, forma derivada del teorema de descomposición espectral.

Teoría fundamental de vectores propios y valores propios de una matriz

[editar]

Un vector v (distinto de cero) de dimensión N es un vector propio de una matriz cuadrada N × N A si satisface una ecuación lineal de la forma

para algún escalar λ. Entonces λ se llama valor propio correspondiente a v. Hablando geométricamente, los vectores propios de A son los vectores que la transformación representada por la matriz A simplemente alarga o encoge, y la cantidad en la que se alargan/encogen es el valor propio. La ecuación anterior se llama ecuación de valores propios o problema de valores propios.

Esto produce una ecuación para los valores propios

Se denomina polinomio característico de la matriz a p(λ), y la ecuación, llamada ecuación característica, es una ecuación polinómica de orden N en la incógnita λ. Esta ecuación tendrá distintas soluciones para Nλ, donde 1 ≤ NλN. El conjunto de soluciones, es decir, los valores propios, se llama espectro de A.[1][2][3]

Si el cuerpo de escalares es algebraicamente cerrado, entonces se puede factorizar p como

El entero ni se denomina multiplicidad algebraica del valor propio λi. Los números de multiplicidades algebraicas suman N:

Para cada valor propio λi, se tiene una ecuación de valor propio específica

Habrá soluciones 1 ≤ mini linealmente independientes para cada ecuación de valores propios. Las combinaciones lineales de las soluciones mi (excepto las que tienen el vector cero) son los vectores propios asociados al valor propio λi. El entero mi se denomina multiplicidad geométrica de λi. Es importante tener en cuenta que la multiplicidad algebraica ni y la multiplicidad geométrica mi pueden o no ser iguales, pero siempre se tiene que mini. El caso más simple es, por supuesto, cuando mi= ni= 1. El número total de vectores propios linealmente independientes, Nv, se puede calcular sumando las multiplicidades geométricas

Los vectores propios se pueden indexar por valores propios, usando un índice doble, siendo vij el vector propio j-ésimo para el valor propio i-ésimo. Los vectores propios también se pueden indexar usando la notación más simple de un solo índice vk, con k= 1, 2, ..., Nv.

Descomposición propia de una matriz

[editar]

Sea A una matriz cuadrada de orden n × n con n vectores propios linealmente independientes qi (donde i= 1, ..., n). Entonces A puede ser factorizada como

donde Q es la matriz cuadrada de orden n × n cuya columna i-ésima es el vector propio qi de A, y Λ es la matriz diagonal cuyos elementos diagonales son los valores propios correspondientes, Λii= λi. Téngase en cuenta que solo las matrices diagonalizables se pueden factorizar de esta manera. Por ejemplo, la matriz defectiva (que es un matriz de cizallamiento) no se puede diagonalizar.

Los vectores propios n qi suelen estar normalizados, pero no es necesario que lo estén. Un conjunto no normalizado de vectores propios n, vi también se puede utilizar como las columnas de Q. Eso se puede entender observando que la magnitud de los vectores propios en Q se cancela en la descomposición por la presencia de Q−1. Si uno de los valores propios λi tiene más de un vector propio linealmente independiente (es decir, la multiplicidad geométrica de λi es mayor que 1), entonces estos vectores propios para este valor propio λi pueden elegirse para que sean mutuamente ortogonales; Sin embargo, si dos vectores propios pertenecen a dos valores propios diferentes, puede ser imposible que sean ortogonales entre sí (véase el ejemplo que fugura a continuación). Un caso especial es que si A es una matriz normal, entonces por el teorema espectral, siempre es posible diagonalizar A en una base ortonormal {qi}.

La descomposición se puede derivar de la propiedad fundamental de los vectores propios:

Los vectores propios linealmente independientes qi con valores propios distintos de cero forman una base (no necesariamente ortonormal) para todos los posibles productos Ax, para xCn, que es lo mismo que la imagen (o rango) de la correspondiente matriz de transformación, y también el espacio columna de la matriz A. El número de vectores propios linealmente independientes qi con valores propios distintos de cero es igual al rango de la matriz A, y también la dimensión de la imagen (o rango) de la transformación matricial correspondiente, así como su espacio de columnas.

Los vectores propios linealmente independientes qi con un valor propio de cero forman una base (que se puede elegir para que sea ortonormal) para el núcleo (también conocido como kernel) de la transformación matricial A.

Ejemplo

[editar]

La matriz real 2 × 2 A

puede descomponerse en una matriz diagonal mediante la multiplicación de una matriz no singular B

En consecuencia

para alguna matriz diagonal real .

Multiplicando ambos lados de la ecuación de la izquierda por B:

La ecuación anterior se puede descomponer en dos ecuaciones simultáneas:

Factorizando los valores propios x y y:

de donde se obtiene que

lo que produce dos ecuaciones vectoriales:

Y se puede representar mediante una sola ecuación vectorial que involucra dos soluciones como valores propios:

donde λ representa los dos autovalores x y y, y u representa los vectores a y b.

Desplazando λu al lado izquierdo y factorizando u

Dado que B no es singular, es esencial que u no sea cero. Por lo tanto,

De este modo

y se obtienen las soluciones de los valores propios para la matriz A como λ= 1 o λ= 3, y la matriz diagonal resultante de la descomposición propia de A es .

Poniendo las soluciones de nuevo en las ecuaciones simultáneas anteriores

Resolviendo las ecuaciones, se obtiene

Por lo tanto, la matriz B requerida para la descomposición propia de A es

y por lo tanto:

Matriz inversa mediante descomposición en valores propios

[editar]

Si una matriz A puede autodescomponerse y ninguno de sus autovalores es cero, entonces A es invertible y su inversa viene dada por

Si es una matriz simétrica, dado que se forma a partir de los vectores propios de , se garantiza que es una matriz ortogonal, por lo tanto, . Además, como Λ es una matriz diagonal, su inversa es fácil de calcular:

Implicaciones prácticas

[editar]

Cuando se usa la descomposición propia en una matriz de datos reales obtenidos de una medición, el resultado inverso puede ser menos válido cuando todos los valores propios se usan sin modificar en la forma anterior. Esto se debe a que, a medida que los valores propios se vuelven relativamente pequeños, su contribución a la inversión es grande. Aquellos cerca de cero o del umbral del ruido del sistema de medición tendrán una influencia indebida y podrían dificultar la obtención de las soluciones (detección) usando la matriz inversa.[4]

Se han propuesto dos mitigaciones: truncar valores propios pequeños o cero, y extender el valor propio fiable más bajo a los que están debajo de él.

El primer método de mitigación es similar a una muestra dispersa de la matriz original, eliminando los componentes que no se consideran valiosos. Sin embargo, si la solución o el proceso de detección está cerca del nivel de ruido, el truncamiento puede eliminar componentes que influyen en la solución deseada.

La segunda mitigación extiende el valor propio, de modo que los valores más bajos tienen mucha menos influencia sobre la inversión, pero todavía contribuyen, de modo que aún se encontrarán soluciones cercanas al ruido.

El valor propio fiable se puede encontrar asumiendo que los valores propios de valor extremadamente similar y bajo son una buena representación del ruido de medición (que se supone bajo para la mayoría de los sistemas).

Si los valores propios están clasificados por valor, entonces el valor propio fiable se puede encontrar minimizando el laplaciano de los valores propios ordenados:[5]

donde a los valores propios se les añade un subíndice con un s para indicar que se están ordenando. La posición de la minimización es el valor propio fiable más bajo. En los sistemas de medición, la raíz cuadrada de este valor propio fiable es el ruido promedio sobre los componentes del sistema.

Cálculo funcional

[editar]

La descomposición propia permite un cálculo mucho más fácil de series de potencias de matrices. Si f (x) está dado por

entonces se sabe que

Debido a que Λ es una matriz diagonal, las funciones de Λ son muy fáciles de calcular:

Los elementos fuera de la diagonal de f (Λ) son cero; es decir, f (Λ) también es una matriz diagonal. Por lo tanto, calcular f (A) se reduce a simplemente calcular la función en cada uno de los valores propios.

Una técnica similar funciona más generalmente con el cálculo funcional holomórfico, usando

visto anteriormente. Una vez más, encontramos que

Ejemplos

[editar]

que son ejemplos de las funciones . Además, es el exponencial de una matriz.

Descomposición para matrices especiales

[editar]
Subconjuntos de clases importantes de matrices

Cuando A es una matriz simétrica normal o real, la descomposición se denomina descomposición espectral, derivada del teorema espectral.

Matrices normales

[editar]

Una matriz cuadrada de valor complejo A es normal (es decir, A*A= AA*, donde A* es la matriz traspuesta conjugada) si y solo si se puede descomponer como

donde U es una matriz unitaria (que significa que U* = U−1) y Λ = diag(λ1, ..., λn) es una matriz diagonal.[6]​ Las columnas u1, ..., un de U forman un base ortonormal y son vectores propios de A con valores propios correspondientes λ1, ..., λn.

Si A está restringido a ser un matriz hermítica (A= A*), entonces Λ solo tiene entradas con valores reales. Si A está restringida a ser una matriz unitaria, entonces Λ puede tomar todos sus valores en el círculo unitario complejo, es decir, | λi |= 1.

Matrices simétricas reales

[editar]

Como caso especial, para cada matriz simétrica real n × n, los valores propios son reales y los vectores propios pueden elegirse reales y ortonormales. Por lo tanto, una matriz simétrica real A se puede descomponer como

donde Q es una matriz ortogonal cuyas columnas son (los elegidos anteriormente, reales y ortonormales) vectores propios de A, y Λ es una matriz diagonal cuyas entradas son los valores propios de A.[7]

Datos útiles

[editar]

Datos útiles sobre los valores propios

[editar]
  • El producto de los valores propios es igual al determinante de A Debe tenerse en cuenta que cada valor propio se eleva a la potencia ni, su multiplicidad algebraica.
  • La suma de los valores propios es igual a la traza de A Debe tenerse en cuenta que cada valor propio se multiplica por ni, su multiplicidad algebraica.
  • Si los valores propios de A son λi y A es invertible, entonces los valores propios de A−1 son simplemente λ−1
    i
    .
  • Si los valores propios de A son λi, entonces los valores propios de f (A) son simplemente f (λi), para cualquier función holomorfa f.

Datos útiles sobre los vectores propios

[editar]
  • Si A es una matriz hermítica y de rango completo, la base de los vectores propios puede elegirse para que sean mutuamente ortogonales, y los valores propios (o autovalores) son reales.
  • Los vectores propios de A−1 son los mismos que los vectores propios de A.
  • Los vectores propios solo se definen hasta una constante multiplicativa. Es decir, si Av= λv entonces cv es también un vector propio para cualquier escalar c ≠ 0. En particular, v y ev (para cualquier θ) también son vectores propios.
  • En el caso de valores propios degenerados (un valor propio que tiene más de un vector propio), los vectores propios tienen una libertad adicional de transformación lineal, es decir, cualquier combinación lineal (ortonormal) de vectores propios que comparten un valor propio (en el subespacio degenerado) es en sí mismo un vector propio (en el subespacio).

Datos útiles sobre la descomposición mediante valores propios

[editar]
  • A puede descomponerse en forma propia si y solo si el número de vectores propios linealmente independientes Nv, es igual a la dimensión de un vector propio: Nv= N
  • Si el campo de escalares es algebraicamente cerrado y si p(λ) no tiene raíces repetidas, es decir, si entonces A puede descomponerse automáticamente.
  • La afirmación de que "A puede descomponerse automáticamente" "no" implica que A tenga una inversa.
  • La afirmación de que "A tiene un inverso" "no" implica que A pueda descomponerse automáticamente. Un contraejemplo es , que es una matriz defectiva invertible.

Datos útiles sobre la matriz inversa

[editar]
  • A se puede invertir si y solo si todos los valores propios son distintos de cero:
  • Si λi ≠ 0 y Nv= N, la inversa viene dada por

Cálculos numéricos

[editar]

Cálculo numérico de valores propios

[editar]

Supóngase que se quieren calcular los valores propios de una matriz dada. Si la matriz es pequeña, se pueden calcular simbólicamente usando su polinomio característico. Sin embargo, esto es a menudo imposible para matrices más grandes, en cuyo caso debe usarse un método numérico.

En la práctica, los valores propios de matrices grandes no se calculan utilizando el polinomio característico. Calcular el polinomio se vuelve costoso en sí mismo, y las raíces exactas (simbólicas) de un polinomio de alto grado pueden ser difíciles de calcular y expresar: el teorema de Abel-Ruffini implica que las raíces de los polinomios de alto grado (5 o más) en general no pueden expresarse simplemente usando raíces n-ésimas. Por lo tanto, los algoritmos generales para encontrar vectores propios y valores propios son iterativos.

Existen algoritmos numéricos iterativos para aproximar raíces de polinomios, como el método de Newton, pero en general no es práctico calcular el polinomio característico y luego aplicar estos métodos. Una razón es que los errores de redondeo en los coeficientes pequeños del polinomio característico pueden dar lugar a grandes errores en los valores y vectores propios: las raíces son una función extremadamente condicionada por el valor exacto de los coeficientes.[8]

Un método iterativo simple y preciso es el método de las potencias: se elige un vector aleatorio v y se calcula una secuencia de vectores unitarios como

Esta sucesión casi seguramente convergerá a un vector propio correspondiente al valor propio de mayor magnitud, siempre que v tenga un componente distinto de cero de este vector propio en la base del vector propio (y también siempre que haya solo un valor propio de mayor magnitud). Este algoritmo simple es útil en algunas aplicaciones prácticas; por ejemplo, Google lo usa para calcular el clasificación de páginas de los documentos en su motor de búsqueda.[9]​ Además, el método de las potencias es el punto de partida para muchos algoritmos más sofisticados. Por ejemplo, al mantener no solo el último vector en la secuencia, sino observar el sistema generador de "todos" los vectores en la secuencia, se puede obtener una mejor aproximación (convergencia más rápida) para el vector propio, y esta idea es la base de la iteración de Arnoldi.[8]​ Alternativamente, el importante algoritmo QR también se basa en una transformación sutil de un método de potencias.[8]

Cálculo numérico de vectores propios

[editar]

Una vez que se calculan los valores propios, los vectores propios se pueden calcular resolviendo la ecuación

utilizando la eliminación de Gauss-Jordan o cualquier otro método para resolver la ecuación matricial.

Sin embargo, en los métodos prácticos de valor propio a gran escala, los vectores propios generalmente se calculan de otras maneras, como un subproducto del cálculo del valor propio. En el método de las potencias, por ejemplo, el vector propio se calcula antes que el valor propio (que normalmente se calcula mediante el cociente de Rayleigh del vector propio).[8]​ En el algoritmo QR para una matriz hermítica (o cualquier matriz normal), los vectores propios ortonormales se obtienen como un producto de las matrices Q de los pasos del algoritmo.[8]​ Para matrices más generales, el algoritmo QR genera primero la factorización de Schur, a partir de la que se pueden obtener los vectores propios mediante un procedimiento basado en una matriz triangular.[10]​ Para las matrices hermíticas, el algoritmo eigenvalue divide y vencerás es más eficiente que el algoritmo QR si se desean tanto los vectores propios como los valores propios.[8]

Temas adicionales

[editar]

Espacios propios generalizados

[editar]

Debe recordarse que la multiplicidad geométrica de un valor propio puede ser descrito como la dimensión del espacio propio asociado, el espacio nulo de λIA. La multiplicidad algebraica también se puede considerar como una dimensión: es la dimensión del espacio de valores propios generalizado asociado (en su primer sentido), que es el espacio nulo de la matriz (λIA)k para cualquier k suficientemente grande. Es decir, es el espacio de valores propios generalizado (en su primer sentido), donde un vector propio generalizado es cualquier vector que eventualmente se convierte en 0 si se le aplica λIA suficientes veces sucesivas. Cualquier vector propio es un vector propio generalizado, por lo que cada espacio propio está contenido en el espacio propio generalizado asociado. Esto proporciona una prueba fácil de que la multiplicidad geométrica siempre es menor o igual que la multiplicidad algebraica.

Este uso no debe confundirse con el problema de valor propio generalizado que se describe a continuación.

Vector propio conjugado

[editar]

Un vector propio conjugado o vector propio es un vector que después de la transformación matricial se convierte en un múltiplo escalar de su conjugado, donde el escalar se denomina valor propio conjugado o valor propio de la transformación lineal. Los vectores propios y los valores propios representan esencialmente la misma información y significado que los vectores propios y los valores propios normales, pero surgen cuando se utiliza un sistema de coordenadas alternativo. La ecuación correspondiente es

Por ejemplo, en la teoría de la dispersión electromagnética coherente, la transformación lineal A representa la acción realizada por el objeto de dispersión, y los vectores propios representan estados de polarización de la onda electromagnética. En óptica, el sistema de coordenadas se define desde el punto de vista de la onda, conocido como alineación de dispersión hacia adelante (FSA), y da lugar a una ecuación regular de valores propios, mientras que en la teoría de los radares, el sistema de coordenadas se define desde el punto de vista del radar, conocido como alineación de dispersión hacia atrás (BSA), y dan lugar a una ecuación de valores propios.

Problema de valores propios generalizado

[editar]

Un problema de valores propios generalizado (segundo sentido) es el problema de encontrar un vector v (distinto de cero) que satisfaga la ecuación

donde A y B son matrices. Si v obedece a esta ecuación, con algún λ, entonces se denomina a v el vector propio generalizado de A y B (en el segundo sentido), y λ se llama el valor propio generalizado de A y B (en el segundo sentido) que corresponde al vector propio generalizado v. Los posibles valores de λ deben obedecer a la siguiente ecuación

Si se pueden encontrar n vectores linealmente independientes {v1, …, vn}, tales que para cada i ∈ {1, …, n}, Avi= λiBvi, entonces se definen las matrices P y D tales que

Entonces se cumple la siguiente igualdad

Y la prueba es que

Y como P es invertible, se multiplica la ecuación de la derecha por su inversa, terminando la demostración.

El conjunto de matrices de la forma AλB, donde λ es un número complejo, se denomina lápiz; el término lápiz matricial también puede referirse al par (A, B) de matrices.[11]

Si B es invertible, entonces el problema original se puede escribir en la forma

que es un problema estándar de valores propios. Sin embargo, en la mayoría de las situaciones es preferible no realizar la inversión, sino resolver el problema de valor propio generalizado como se planteó originalmente. Esto es especialmente importante si A y B son matrices hermíticas, ya que en este caso B−1A generalmente no es hermítica y las propiedades importantes de la solución ya no son evidentes.

Si A y B son simétricas o hermíticas, y B también es una matriz definida positiva, los valores propios λi son reales y los vectores propios v1 y v2 con valores propios distintos son B-ortogonales (v1*Bv2= 0).[12]​ En este caso, los vectores propios se pueden elegir de modo que la matriz P definida anteriormente satisfaga

o ,

y existe una base de vectores propios generalizados (no es un problema defectivo).[11]​ Este caso a veces se denomina lápiz definido hermítico o lápiz definido.[11]

Véase también

[editar]

Referencias

[editar]
  1. Golub y Van Loan (1996, p. 310)
  2. Kreyszig (1972, p. 273)
  3. Nering (1970, p. 270)
  4. Hayde, A. F.; Twede, D. R. (2002). «Observations on relationship between eigenvalues, instrument noise and detection performance». En Shen, Sylvia S., ed. Imaging Spectrometry VIII. Proceedings of SPIE 4816: 355. Bibcode:2002SPIE.4816..355H. doi:10.1117/12.453777. 
  5. Twede, D. R.; Hayden, A. F. (2004). «Refinement and generalization of the extension method of covariance matrix inversion by regularization». En Shen, Sylvia S; Lewis, Paul E, eds. Imaging Spectrometry IX. Proceedings of SPIE 5159: 299. Bibcode:2004SPIE.5159..299T. doi:10.1117/12.506993. 
  6. Horn y Johnson (1985), p. 133, Theorem 2.5.3
  7. Horn y Johnson (1985), p. 136, Corollary 2.5.11
  8. a b c d e f Trefethen, Lloyd N.; Bau, David (1997). Numerical Linear Algebra. SIAM. ISBN 978-0-89871-361-9. 
  9. Ipsen, Ilse, and Rebecca M. Wills, Analysis and Computation of Google's PageRank Archivado el 21 de septiembre de 2018 en Wayback Machine., 7th IMACS International Symposium on Iterative Methods in Scientific Computing, Fields Institute, Toronto, Canada, 5–8 May 2005.
  10. Quarteroni, Alfio; Sacco, Riccardo; Saleri, Fausto (2000). «section 5.8.2». Numerical Mathematics. Springer. p. 15. ISBN 978-0-387-98959-4. 
  11. a b c Bai, Z.; Demmel, J.; Dongarra, J.; Ruhe, A.; Van Der Vorst, H., eds. (2000). «Generalized Hermitian Eigenvalue Problems». Templates for the Solution of Algebraic Eigenvalue Problems: A Practical Guide. Philadelphia: SIAM. ISBN 978-0-89871-471-5. Archivado desde el original el 21 de agosto de 2010. Consultado el 15 de octubre de 2022. 
  12. Parlett, Beresford N. (1998). The symmetric eigenvalue problem (Reprint. edición). Philadelphia: Society for Industrial and Applied Mathematics. p. 345. ISBN 978-0-89871-402-9. doi:10.1137/1.9781611971163. 

Bibliografía

[editar]

Enlaces externos

[editar]