Algebra > Lineare Algebra > Matrizen > Matrix Eigenwerte >
Algebra > Lineare Algebra > Matrizen > Matrix Zerlegung >

EXPLORE THIS TOPIC IN the MathWorld Classroom

Eigenvektoren sind eine spezielle Menge von Vektoren, die mit einem linearen Gleichungssystem verbunden sind (i.e., einer Matrixgleichung), die manchmal auch als charakteristische Vektoren, Eigenvektoren oder latente Vektoren bezeichnet werden (Marcus und Minc 1988, S. 144).

Die Bestimmung der Eigenvektoren und Eigenwerte eines Systems ist in der Physik und den Ingenieurwissenschaften äußerst wichtig, da sie einer Matrixdiagonalisierung gleichkommt und in so häufigen Anwendungen wie der Stabilitätsanalyse, der Physik rotierender Körper und kleinen Schwingungen vibrierender Systeme vorkommt, um nur einige zu nennen. Jedem Eigenvektor ist ein entsprechender so genannter Eigenwert zugeordnet. Mathematisch gesehen müssen zwei verschiedene Arten von Eigenvektoren unterschieden werden: linke Eigenvektoren und rechte Eigenvektoren. Für viele Probleme in der Physik und im Ingenieurwesen ist es jedoch ausreichend, nur die rechten Eigenvektoren zu betrachten. Der Begriff „Eigenvektor“, der in solchen Anwendungen ohne Einschränkung verwendet wird, kann daher so verstanden werden, dass er sich auf einen rechten Eigenvektor bezieht.

Die Zerlegung einer quadratischen Matrix A in Eigenwerte und Eigenvektoren wird in dieser Arbeit als Eigenwertzerlegung bezeichnet, und die Tatsache, dass diese Zerlegung immer möglich ist, solange die aus den Eigenvektoren von A bestehende Matrix quadratisch ist, ist als Eigenwertzerlegungssatz bekannt.

Definiere einen rechten Eigenvektor als einen Spaltenvektor X_R, der

 AX_R=lambda_RX_R,
(1)

wobei A eine Matrix ist, so

 (A-lambda_RI)X_R=0,
(2)

was bedeutet, dass die rechten Eigenwerte die Determinante Null haben müssen, d. h.e.,

 det(A-lambda_RI)=0.
(3)

In ähnlicher Weise definieren wir einen linken Eigenvektor als einen Zeilenvektor X_L, der

 X_LA=lambda_LX_L erfüllt.
(4)

Die Transponierung jeder Seite ergibt

 (X_LA)^(T)=lambda_LX_L^(T),
(5)

was umgeschrieben werden kann als

 A^(T)X_L^(T)=lambda_LX_L^(T).
(6)

Durch erneute Umordnung erhält man

 (A^(T)-lambda_LI)X_L^(T)=0,
(7)

das bedeutet

 det(A^(T)-lambda_LI)=0.
(8)

Umschreiben ergibt

0=det(A^(T)-lambda_LI) = det(A^(T)-lambda_LI^(T))
(9)
= det(A-lambda_LI)^(T)
(10)
= det(A-lambda_LI),
(11)

wobei der letzte Schritt aus der Identität

det(A)=det(A^(T)) folgt.
(12)

Die Gleichungen (◇) und (11), die beide gleich 0 für beliebige A und X sind, erfordern daher, dass lambda_R=lambda_L=lambda, d.h., linke und rechte Eigenwerte sind äquivalent, eine Aussage, die für Eigenvektoren nicht gilt.

Sei X_R eine Matrix, die durch die Spalten der rechten Eigenvektoren gebildet wird und X_L eine Matrix, die durch die Zeilen der linken Eigenvektoren gebildet wird. Sei

 D=.
(13)

Dann

AX_R = X_RD
(14)
X_LA = DX_L
(15)

und

X_LAX_R = X_LX_RD
(16)
X_LAX_R = DX_LX_R,
(17)

so

 X_LX_RD=DX_LX_R.
(18)

Aber diese Gleichung ist von der Form

 CD=DC
(19)

wobei D eine Diagonalmatrix ist, also muss es wahr sein, dass C=X_LX_R auch diagonal ist. Insbesondere, wenn A eine symmetrische Matrix ist, dann sind der linke und der rechte Eigenvektor einfach die Transponierung des jeweils anderen, und wenn A eine selbstadjungierte Matrix ist (d.h. sie ist hermitisch), dann sind der linke und der rechte Eigenvektor adjungierte Matrizen.

Eigenvektoren dürfen nicht gleich dem Nullvektor sein. Ein skalares Vielfaches eines Eigenvektors, das nicht Null ist, ist äquivalent zum ursprünglichen Eigenvektor. Daher werden Eigenvektoren ohne Verlust der Allgemeingültigkeit oft auf Einheitslänge normiert.

Während eine n×n-Matrix immer n Eigenwerte hat, von denen einige oder alle entartet sein können, kann eine solche Matrix zwischen 0 und n linear unabhängige Eigenvektoren haben. Zum Beispiel hat die Matrix nur den einzigen Eigenvektor (1,0).

Eigenvektoren können in der Wolfram Language mit Eigenvectors berechnet werden. Dieser Befehl gibt immer eine Liste der Länge n zurück, so dass alle Eigenvektoren, die nicht linear unabhängig sind, als Nullvektoren zurückgegeben werden. Eigenvektoren und Eigenwerte können mit dem Befehl Eigensystem zusammen zurückgegeben werden.

Gibt eine 3×3-Matrix A mit den Eigenvektoren x_1, x_2 und x_3 und den entsprechenden Eigenwerten lambda_1, lambda_2, und lambda_3, dann kann ein beliebiger Vektor y geschrieben werden

 y=b_1x_1+b_2x_2+b_3x_3.
(20)

Anwendung der Matrix A,

Ay = b_1Ax_1+b_2Ax_2+b_3Ax_3
(21)
= lambda_1(b_1x_1+(lambda_2)/(lambda_1)b_2x_2+(lambda_3)/(lambda_1)b_3x_3),
(22)

so

 A^ny=lambda_1^n.
(23)

Wenn lambda_1lambda_2,lambda_3, und b_1!=0, so folgt daraus, dass

 lim_(n-infty)A^ny=lambda_1^nb_1x_1,
(24)

so führt die wiederholte Anwendung der Matrix auf einen beliebigen Vektor erstaunlicherweise zu einem Vektor, der proportional zu dem Eigenvektor mit dem größten Eigenwert ist.