Álgebra > Álgebra lineal > Matrices > Matriz Eigenvalores >
Álgebra > Álgebra lineal > Matrices > Matriz Descomposición >

Explora este tema en el aula de MathWorld

Los vectores propios son un conjunto especial de vectores asociados a un sistema lineal de ecuaciones (i.e., una ecuación matricial) que a veces también se conocen como vectores característicos, vectores propios o vectores latentes (Marcus y Minc 1988, p. 144).

La determinación de los vectores propios y de los valores propios de un sistema es extremadamente importante en física e ingeniería, donde equivale a la diagonalización de matrices y surge en aplicaciones tan comunes como el análisis de estabilidad, la física de los cuerpos en rotación y las pequeñas oscilaciones de los sistemas vibratorios, por nombrar sólo algunas. A cada vector propio le corresponde un valor propio. Matemáticamente, hay que distinguir dos tipos diferentes de vectores propios: vectores propios izquierdos y vectores propios derechos. Sin embargo, para muchos problemas de física e ingeniería, basta con considerar sólo los vectores propios derechos. Por lo tanto, el término «eigenvector» utilizado sin calificación en tales aplicaciones puede entenderse que se refiere a un eigenvector derecho.

La descomposición de una matriz cuadrada A en valores propios y vectores propios se conoce en este trabajo como descomposición de los eigen, y el hecho de que esta descomposición sea siempre posible siempre que la matriz formada por los eigenvectores de A sea cuadrada se conoce como teorema de la descomposición de los eigen.

Define un vector propio derecho como un vector columna X_R que satisface

 AX_R=lambda_RX_R,
(1)

donde A es una matriz, así que

 (A-lambda_RI)X_R=0,
(2)

lo que significa que los valores propios de la derecha deben tener determinante cero, es decire.,

 det(A-lambda_RI)=0.
(3)

De manera similar, defina un vector propio izquierdo como un vector fila X_L que satisface

 X_LA=lambda_LX_L.
(4)

Tomando la transposición de cada lado se obtiene

 (X_LA)^(T)=lambda_LX_L^(T),
(5)

que puede reescribirse como

 A^(T)X_L^(T)=lambda_LX_L^(T).
(6)

Regula de nuevo para obtener

 (A^(T)-lambda_LI)X_L^(T)=0,
(7)

lo que significa

 det(A^(T)-lambda_LI)=0.
(8)

La reescritura da

0=det(A^(T)-lambda_LI) = det(A^(T)-lambda_LI^(T))
(9)
= det(A-lambda_LI)^(T)
(10)
= det(A-lambda_LI),
(11)

donde el último paso se deduce de la identidad

 det(A)=det(A^(T)).
(12)

La equiparación de las ecuaciones (◇) y (11), que son ambas iguales a 0 para A y X arbitrarias, requiere por tanto que lambda_R=lambda_L=lambda, es decir, los valores propios de la izquierda y de la derecha son equivalentes, afirmación que no es cierta para los vectores propios.

Sea X_R una matriz formada por las columnas de los vectores propios de la derecha y X_L una matriz formada por las filas de los vectores propios de la izquierda. Sea

 D=.
(13)

Entonces

AX_R = X_RD
(14)
X_LA = DX_L
(15)

y

X_LAX_R = X_LX_RD
(16)
X_LAX_R = DX_LX_R,
(17)

así

 X_LX_RD=DX_LX_R.
(18)

Pero esta ecuación es de la forma

 CD=DC
(19)

donde D es una matriz diagonal, por lo que debe ser cierto que C=X_LX_R también es diagonal. En particular, si A es una matriz simétrica, entonces los vectores propios izquierdo y derecho son simplemente la transposición de cada uno, y si A es una matriz autoadjunta (es decir, es hermitiana), entonces los vectores propios izquierdo y derecho son matrices adjuntas.

Los vectores propios pueden no ser iguales al vector cero. Un múltiplo escalar no nulo de un vector propio es equivalente al vector propio original. Por lo tanto, sin pérdida de generalidad, los vectores propios se normalizan a menudo a la unidad de longitud.

Mientras que una matriz n×n siempre tiene n valores propios, algunos o todos los cuales pueden ser degenerados, tal matriz puede tener entre 0 y n vectores propios linealmente independientes. Por ejemplo, la matriz sólo tiene el único vector propio (1,0).

Los vectores propios pueden calcularse en Wolfram Language utilizando Eigenvectores. Este comando siempre devuelve una lista de longitud n, por lo que cualquier vector propio que no sea linealmente independiente se devuelve como vector cero. Los vectores propios y los valores propios pueden devolverse juntos utilizando el comando Eigensystem.

Dada una matriz 3×3 A con los vectores propios x_1, x_2, y x_3 y los correspondientes valores propios lambda_1, lambda_2, y lambda_3, entonces un vector arbitrario y puede escribirse

 y=b_1x_1+b_2x_2+b_3x_3.
(20)

Aplicando la matriz A,

Ay = b_1Ax_1+b_2Ax_2+b_3Ax_3
(21)
= lambda_1(b_1x_1+(lambda_2)/(lambda_1)b_2x_2+(lambda_3)/(lambda_1)b_3x_3),
(22)

así

 A^ny=lambda_1^n. ¡
(23)

Si lambda_1lambda_2,lambda_3, y b_1!=0, se deduce por tanto que

lim_(n-infty)A^ny=lambda_1^nb_1x_1,
(24)

por lo que la aplicación repetida de la matriz a un vector arbitrario resulta sorprendentemente en un vector proporcional al vector propio con mayor valor propio.