Vetores próprios são um conjunto especial de vetores associados a um sistema linear de equações (i.e., uma equação matricial) que às vezes também são conhecidos como vetores característicos, vetores próprios ou vetores latentes (Marcus e Minc 1988, p. 144).
A determinação dos vetores próprios e valores próprios de um sistema é extremamente importante em física e engenharia, onde é equivalente à diagonalização matricial e surge em aplicações tão comuns como a análise de estabilidade, a física de corpos rotativos e pequenas oscilações de sistemas vibratórios, para citar apenas algumas. Cada autovector é emparelhado com um valor próprio correspondente. Matematicamente, dois tipos diferentes de autovectores devem ser distinguidos: autovectores esquerdo e autovectores direito. Entretanto, para muitos problemas em física e engenharia, é suficiente considerar apenas os autovetores corretos. O termo “vetor próprio” usado sem qualificação em tais aplicações pode, portanto, ser entendido como referindo-se a um vetor próprio direito.
A decomposição de uma matriz quadrada em valores próprios e vetores próprios é conhecida neste trabalho como decomposição própria, e o fato de que esta decomposição é sempre possível desde que a matriz que consiste nos vetores próprios de
seja quadrada é conhecida como o teorema da decomposição própria.
Definir um vector próprio direito como um vector de coluna satisfazendo
![]() |
(1)
|
>onde é uma matriz, so
![]() |
(2)
|
o que significa que os autovalores certos devem ter valor zero determinante, i.e.,
![]() |
(3)
|
Similiarmente, defina um vector próprio esquerdo como um vector de linha satisfazendo
![]() |
(4)
|
>
Passar a transposição de cada lado dá
![]() |
(5)
|
que pode ser reescrito como
![]() |
(6)
|
Reorganizar novamente para obter
![]() |
(7)
|
o que significa
![]() |
(8)
|
Rewriting gives
![]() |
![]() |
![]() |
(9)
|
![]() |
![]() |
![]() |
(10)
|
![]() |
![]() |
![]() |
(11)
|
onde o último passo segue da identidade
![]() |
(12)
|
Equação de equações (◇) e (11), ambas iguais a 0 para arbitrárias e
, portanto requer que
, ou seja os autovalores esquerdo e direito são equivalentes, uma afirmação que não é verdadeira para os autovectores.
>
Let ser uma matriz formada pelas colunas dos autovectores direito e
ser uma matriz formada pelas filas dos autovectores esquerdo. Let
![]() |
(13)
|
>Então
![]() |
![]() |
![]() |
(14)
|
![]() |
![]() |
![]() |
(15)
|
e
![]() |
![]() |
![]() |
(16)
|
![]() |
![]() |
![]() |
(17)
|
so
![]() |
(18)
|
Mas esta equação é da forma
![]() |
(19)
|
where é uma matriz diagonal, então deve ser verdade que
também é diagonal. Em particular, se
é uma matriz simétrica, então os autovectores esquerdo e direito são simplesmente transpostos um pelo outro, e se
é uma matriz auto-ajusta (isto é, é hermitiano), então os autovectores esquerdo e direito são matrizes adjuntas.
Os autovectores podem não ser iguais ao vector zero. Um múltiplo escalar não zero de um autovetor é equivalente ao autovetor original. Assim, sem perda de generalidade, os autovectores são frequentemente normalizados para o comprimento da unidade.
Embora uma matriz tenha sempre
valores próprios, alguns ou todos eles podem ser degenerados, tal matriz pode ter entre 0 e
autovectores linearmente independentes. Por exemplo, a matriz
tem apenas o único autovetor
.
Eigenvectors podem ser computados na Linguagem Wolfram usando Eigenvectors. Este comando sempre retorna uma lista de comprimento , então quaisquer autovectores que não são linearmente independentes são retornados como vetores zero. Vetores próprios e valores próprios podem ser retornados juntos usando o comando Eigensystem.
Dado um matriz
com autovectores
,
, e
e autovalores correspondentes
,
, e
, depois um vector arbitrário
pode ser escrito
![]() |
(20)
|
Aplicando a matriz ,
![]() |
![]() |
![]() |
(21)
|
![]() |
![]() |
![]() |
(22)
|
so
![]() |
(23)
|
If , e
, segue-se que
![]() |
(24)
|
aplicação repetida da matriz a um vetor arbitrário surpreendentemente resulta num vetor proporcional ao autovetor com maior valor próprio.
Deixe uma resposta