Vetores próprios são um conjunto especial de vetores associados a um sistema linear de equações (i.e., uma equação matricial) que às vezes também são conhecidos como vetores característicos, vetores próprios ou vetores latentes (Marcus e Minc 1988, p. 144).
A determinação dos vetores próprios e valores próprios de um sistema é extremamente importante em física e engenharia, onde é equivalente à diagonalização matricial e surge em aplicações tão comuns como a análise de estabilidade, a física de corpos rotativos e pequenas oscilações de sistemas vibratórios, para citar apenas algumas. Cada autovector é emparelhado com um valor próprio correspondente. Matematicamente, dois tipos diferentes de autovectores devem ser distinguidos: autovectores esquerdo e autovectores direito. Entretanto, para muitos problemas em física e engenharia, é suficiente considerar apenas os autovetores corretos. O termo “vetor próprio” usado sem qualificação em tais aplicações pode, portanto, ser entendido como referindo-se a um vetor próprio direito.
A decomposição de uma matriz quadrada em valores próprios e vetores próprios é conhecida neste trabalho como decomposição própria, e o fato de que esta decomposição é sempre possível desde que a matriz que consiste nos vetores próprios de seja quadrada é conhecida como o teorema da decomposição própria.
Definir um vector próprio direito como um vector de coluna satisfazendo
(1)
|
>onde é uma matriz, so
(2)
|
o que significa que os autovalores certos devem ter valor zero determinante, i.e.,
(3)
|
Similiarmente, defina um vector próprio esquerdo como um vector de linha satisfazendo
(4)
|
>
Passar a transposição de cada lado dá
(5)
|
que pode ser reescrito como
(6)
|
Reorganizar novamente para obter
(7)
|
o que significa
(8)
|
Rewriting gives
(9)
|
|||
(10)
|
|||
(11)
|
onde o último passo segue da identidade
(12)
|
Equação de equações (◇) e (11), ambas iguais a 0 para arbitrárias e , portanto requer que , ou seja os autovalores esquerdo e direito são equivalentes, uma afirmação que não é verdadeira para os autovectores.
>
Let ser uma matriz formada pelas colunas dos autovectores direito e ser uma matriz formada pelas filas dos autovectores esquerdo. Let
(13)
|
>Então
(14)
|
|||
(15)
|
e
(16)
|
|||
(17)
|
so
(18)
|
Mas esta equação é da forma
(19)
|
where é uma matriz diagonal, então deve ser verdade que também é diagonal. Em particular, se é uma matriz simétrica, então os autovectores esquerdo e direito são simplesmente transpostos um pelo outro, e se é uma matriz auto-ajusta (isto é, é hermitiano), então os autovectores esquerdo e direito são matrizes adjuntas.
Os autovectores podem não ser iguais ao vector zero. Um múltiplo escalar não zero de um autovetor é equivalente ao autovetor original. Assim, sem perda de generalidade, os autovectores são frequentemente normalizados para o comprimento da unidade.
Embora uma matriz tenha sempre valores próprios, alguns ou todos eles podem ser degenerados, tal matriz pode ter entre 0 e autovectores linearmente independentes. Por exemplo, a matriz tem apenas o único autovetor .
Eigenvectors podem ser computados na Linguagem Wolfram usando Eigenvectors. Este comando sempre retorna uma lista de comprimento , então quaisquer autovectores que não são linearmente independentes são retornados como vetores zero. Vetores próprios e valores próprios podem ser retornados juntos usando o comando Eigensystem.
Dado um matriz com autovectores , , e e autovalores correspondentes , , e , depois um vector arbitrário pode ser escrito
(20)
|
Aplicando a matriz ,
(21)
|
|||
(22)
|
so
(23)
|
If , e , segue-se que
(24)
|
aplicação repetida da matriz a um vetor arbitrário surpreendentemente resulta num vetor proporcional ao autovetor com maior valor próprio.
Deixe uma resposta