Vectori proprii sunt un set special de vectori asociați cu un sistem liniar de ecuații (i.e., o ecuație matricială) care sunt uneori cunoscuți și sub numele de vectori caracteristici, vectori proprii sau vectori latenți (Marcus și Minc 1988, p. 144).
Determinarea vectorilor proprii și a valorilor proprii ale unui sistem este extrem de importantă în fizică și inginerie, unde este echivalentă cu diagonalizarea matricei și apare în aplicații comune precum analiza stabilității, fizica corpurilor în rotație și oscilațiile mici ale sistemelor vibrante, pentru a numi doar câteva. Fiecare vector propriu este asociat cu o așa-numită valoare proprie corespunzătoare. Din punct de vedere matematic, trebuie să se facă distincția între două tipuri diferite de vectori proprii: vectori proprii de stânga și vectori proprii de dreapta. Cu toate acestea, pentru multe probleme din fizică și inginerie, este suficient să se ia în considerare doar vectorii proprii drepți. Prin urmare, termenul „vector propriu” utilizat fără rezerve în astfel de aplicații poate fi înțeles ca referindu-se la un vector propriu drept.
Descompunerea unei matrice pătrate în valori proprii și vectori proprii este cunoscută în această lucrare ca descompunere proprie, iar faptul că această descompunere este întotdeauna posibilă atâta timp cât matricea formată din vectorii proprii ai este pătrată este cunoscută sub numele de teorema descompunerii proprii.
Definiți un vector propriu drept ca fiind un vector coloană care satisface
(1)
|
unde este o matrice, deci
(2)
|
ceea ce înseamnă că valorile proprii din dreapta trebuie să aibă determinant zero, i.e.e.,
(3)
|
În mod similar, se definește un vector propriu stâng ca fiind un vector de rând care satisface
(4)
|
Făcând transpunerea fiecărei părți rezultă
(5)
|
care poate fi rescrisă sub forma
(6)
|
Se rearanjează din nou pentru a obține
(7)
|
ceea ce înseamnă
(8)
|
Rezcriind rezultă
(9)
|
|||
(10)
|
|||
(11)
|
unde ultimul pas rezultă din identitatea
(12)
|
Încadrarea ecuațiilor (◇) și (11), care sunt ambele egale cu 0 pentru și arbitrare, impune deci că , adică, valorile proprii din stânga și din dreapta sunt echivalente, afirmație care nu este adevărată pentru vectorii proprii.
Să fie matricea formată din coloanele vectorilor proprii din dreapta și matricea formată din rândurile vectorilor proprii din stânga. Fie
(13)
|
Atunci
(14)
|
||||
(15)
|
și
(16)
|
|||
(17)
|
so
(18)
|
Dar această ecuație este de forma
(19)
|
unde este o matrice diagonală, deci trebuie să fie adevărat că este, de asemenea, diagonală. În special, dacă este o matrice simetrică, atunci vectorii proprii din stânga și din dreapta sunt pur și simplu transpuse unul altuia, iar dacă este o matrice autoadjunctă (adică este hermitiană), atunci vectorii proprii din stânga și din dreapta sunt matrici adiacente.
Vectorii proprii pot să nu fie egali cu vectorul zero. Un multiplu scalar diferit de zero al unui vector propriu este echivalent cu vectorul propriu original. Prin urmare, fără a pierde din generalitate, vectorii proprii sunt adesea normalizați la lungimea unitară.
În timp ce o matrice are întotdeauna valori proprii, dintre care unele sau toate pot fi degenerate, o astfel de matrice poate avea între 0 și vectori proprii liniar independenți. De exemplu, matricea are doar un singur vector propriu .
Vectorii proprii pot fi calculați în limbajul Wolfram folosind Eigenvectors. Această comandă returnează întotdeauna o listă de lungime , astfel încât orice vectori proprii care nu sunt liniar independenți sunt returnați ca vectori zero. Vectorii proprii și valorile proprii pot fi returnate împreună folosind comanda Eigensystem.
Dată o matrice cu vectorii proprii , și și valorile proprii corespunzătoare , lambda_2, și , atunci un vector arbitrar poate fi scris
(20)
|
Aplicând matricea ,
(21)
|
|||
(22)
|
asadar
(23)
|
Dacă , și , rezultă deci că
(24)
|
astfel încât aplicarea repetată a matricei la un vector arbitrar în mod uimitor are ca rezultat un vector proporțional cu vectorul propriu cu cea mai mare valoare proprie.
Lasă un răspuns