Algebra > Linjär algebra > Matriser > Matris Egenvärden >
Algebra > Linjär algebra > Matriser > Matris > Matris Decomposition >

Utforska detta ämne i MathWorlds klassrum

Eigenvektorer är en speciell uppsättning vektorer som är förknippade med ett linjärt system av ekvationer (dvs.e., en matrisekvation) som ibland också kallas karakteristiska vektorer, egentliga vektorer eller latenta vektorer (Marcus och Minc 1988, s. 144).

Bestämningen av ett systems egenvektorer och egenvärden är ytterst viktig inom fysik och teknik, där den är likvärdig med diagonalisering av matriser och förekommer i så vanliga tillämpningar som stabilitetsanalys, fysiken hos roterande kroppar och små svängningar hos vibrerande system, för att nämna bara några. Varje egenvektor är kopplad till ett motsvarande så kallat egenvärde. Matematiskt sett måste man skilja mellan två olika typer av egenvektorer: vänstra egenvektorer och högra egenvektorer. För många problem inom fysik och teknik är det dock tillräckligt att endast beakta högra egenvektorer. Termen ”egenvektor” som används utan förbehåll i sådana tillämpningar kan därför förstås som en hänvisning till en höger egenvektor.

Den nedbrytning av en kvadratisk matris A i egenvärden och egenvektorer kallas i detta arbete för egendekomposition, och det faktum att denna nedbrytning alltid är möjlig så länge som matrisen som består av egenvektorerna i A är kvadratisk är känd som teoremet om egendekomposition.

Definiera en höger egenvektor som en kolumnvektor X_R som uppfyller

 AX_R=lambda_RX_R,
(1)

där A är en matris, så

 (A-lambda_RI)X_R=0,
(2)

vilket innebär att de högra egenvärdena måste ha noll determinant, dvs.e.,

 det(A-lambda_RI)=0.
(3)

Samma sak gäller för att definiera en vänster egenvektor som en radvektor X_L som uppfyller

 X_LA=lambda_LX_L.
(4)

Tar man transponeringen av varje sida får man

 (X_LA)^(T)=lambda_LX_L^(T),
(5)

som kan skrivas om till

 A^(T)X_L^(T)=lambda_LX_L^(T).
(6)

Rör om igen för att få

 (A^(T)-lambda_LI)X_L^(T)=0,
(7)

vilket innebär

 det(A^(T)-lambda_LI)=0.
(8)

Omskrivning ger

0=det(A^(T)-lambda_LI) = det(A^(T)-lambda_LI^(T))
(9)
= det(A-lambda_LI)^(T)
(10)
= det(A-lambda_LI),
(11)

där det sista steget följer av identiteten

 det(A)=det(A^(T)).
(12)

Ekvation av ekvationerna (◇) och (11), som båda är lika med 0 för godtyckliga A och X, kräver därför att lambda_R=lambda_L=lambda, dvs, vänstra och högra egenvärden är ekvivalenta, ett påstående som inte är sant för egenvektorer.

Låt X_R vara en matris som bildas av kolumnerna för de högra egenvektorerna och X_L vara en matris som bildas av raderna för de vänstra egenvektorerna. Låt

 D=.
(13)

.

AX_R = X_RD
(14)
X_LA = DX_L
(15)

och

X_LAX_R = X_LX_RD
(16)
X_LAX_R = DX_LX_R,
(17)

 X_LX_RD=DX_LX_R.
(18)

Men denna ekvation är av formen

.

 CD=DC
(19)

där D är en diagonalmatris, så det måste vara sant att C=X_LX_R också är diagonal. Om A är en symmetrisk matris är vänster och höger egenvektorer helt enkelt varandras transponeringar, och om A är en självadjungerad matris (dvs. den är hermitisk) är vänster och höger egenvektorer adjungerade matriser.

Eigenvektorer får inte vara lika med nollvektorn. En skalär multipel av en egenvektor som inte är noll är likvärdig med den ursprungliga egenvektorn. Därför är egenvektorer ofta normaliserade till enhetslängd.

En n×n matris har alltid n egenvärden, varav några eller alla kan vara degenererade, men en sådan matris kan ha mellan 0 och n linjärt oberoende egenvektorer. Till exempel har matrisen endast den enda egenvektorn (1,0).

Eigenvektorer kan beräknas i Wolfram Language med hjälp av Eigenvectors. Detta kommando returnerar alltid en lista med längden n, så alla egenvektorer som inte är linjärt oberoende returneras som nollvektorer. Egenvektorer och egenvärden kan returneras tillsammans med kommandot Eigensystem.

Givet en 3×3 matris A med egenvektorer x_1, x_2 och x_3 och motsvarande egenvärden lambda_1, lambda_2 och lambda_3, kan en godtycklig vektor y skrivas

 y=b_1x_1+b_2x_2+b_3x_3.
(20)

Användning av matrisen A,

Ay = b_1Ax_1+b_2Ax_2+b_3Ax_3
(21)
= lambda_1(b_1x_1+(lambda_2)/(lambda_1)b_2x_2+(lambda_3)/(lambda_1)b_3x_3),
(22)

 A^ny=lambda_1^n.
(23)

Om lambda_1lambda_2,lambda_3, och b_1!=0 följer därför att

 lim_(n-infty)A^ny=lambda_1^nb_1x_1,
(24)

så upprepad tillämpning av matrisen på en godtycklig vektor resulterar på ett häpnadsväckande sätt i en vektor som är proportionell mot egenvektorn med största egenvärde.