⌂ Eigenwerte und Eigenvektoren
⌂ Positiv definite und symmetrische Matrizen
Wenn man $y=A x$ berechnet, wobei $A\in \mathbb{R}^{n\times n}$, dann erhält man für manche $x$ Vektoren $y$, die kolinear zu $x$ sind: $$ A x_i = \lambda_i x_i\quad i=1,\ldots,n, $$ nämlich die Eigenvektoren. Um eine der Bedeutungen von Eigenvektoren zu erkennen, betrachtet man, wie $A^2$ die Eigenvektoren von $A$ abbildet $$ A^2 x= A \lambda x = \lambda^2 x, $$ dann erhält man allgemein: $$ A^n x=\lambda^n x, $$ inclusive $$ A^{-1}x = \frac{1}{\lambda} x. $$ Mit wenig Aufwand kann man nun auch zeigen, dass gilt: $$ e^{A t} x= e^{\lambda t} x. $$
Mit $n$ unabhängigen Eigenvektoren hat man eine Basis mit der man jeden beliebigen Vektor $v$ des Bildes konstruieren kann $$ v=c_1\cdot x_1+\cdots+c_n\cdot x_n. $$ In dieser Darstellung des Vektors kann man sich nun fragen, wie sich $v$ unter der Abbildung $A^k$ transformiert: \begin{eqnarray} A^k v & = & c_1 A^k x_1+\cdots+c_n A^k x_n \\ & = & c_1 \lambda_1^k x_1+\cdots+c_n \lambda_n^k x_n. \end{eqnarray}
Als Anwendung bieten sich Differenzgleichungen $$ v_{k+1}=A v_k $$ oder lineare Differenzialgleichungen der Form: $$ \frac{\,d v}{\,d t} = A v, $$ deren Lösung dann $$ v(t)=c_1 e^{\lambda_1 t} x_1+ \cdots +c_n e^{\lambda_n t} x_n $$ sind.
⌂ Eigenwerte ähnlicher Matrizen
Mit dem Ähnlichkeitsargument kann man zeigen, dass $A B$ die gleichen Eigenwerte wie $B A$ hat: $$ M ( A B ) M^{-1} = B A $$ Man erkennt die Behauptung, wenn man $M=B$ setzt.
⌂ Eigenwerte und Eigenvektoren symmetrischer und antisymmetrischer Matrizen
Sei $S$ eine symmetrische Matrix. Welche Eigenschaften haben ihre Eigenwerte und Eigenvektoren?
Betrachte $$ A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right). $$ Wenn man $A$ transponiert, dann erhält man die negative Matrix: $$ A^T=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)^T =\left(\begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array}\right) =-A. $$ Daher ist die Matrix antisymmetrisch.
$A$ entspricht einer Drehung um 90°. Wie man sich leicht vorstellen kann, hat $A$ zunächst einmal keinen vom Nullvektor verschiedenen Eigenvektor, weil $$ A x\perp x \Leftrightarrow (A x)^T x = x^T A^T x=0. $$ Man vollzieht die normale Prozedur zum Auffinden von Eigenwerten und Eigenvektoren: \begin{eqnarray} A x & = & \lambda x \\ (A-\lambda I) x & = & 0 \\ \det(A-\lambda I) & = & 0, \end{eqnarray} wobei $\det(A)$ die Determinante von $A$ berechnet. $$ \det(A-\lambda I) =\left|\left(\begin{array}{cc} -\lambda & 1 \\ -1 & -\lambda \end{array}\right)\right| =\lambda^2+1=0 $$ Daraus folgt: $$ \lambda \pm i. $$
Addiert man die Eigenwerte erhält man die Spur $\text{tr}(A)$ der Matrix $A$. Multipliziert man die Eigenwerte, dann berechnet man die Determinante der Eigenvektormatrix. A hat folgemde Eigenschaften: \begin{eqnarray} \text{tr}(A) & = & 0 \\ \det(A) & = & 1 \end{eqnarray}
⌂ Symmetrische und positiv definite Marizen
Die Eigenwerte sind reell und die Eigenvektoren orthogonal. Sei z.B. $$ S=\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array}\right). $$ Die Eigenwerte von $S$ sind $\pm 1$, $\text{tr}(S)=0$, $\det(S)=-1$. Die Eigenvektoren sind $$ x_1=\left(\begin{array}{c} 1 \\ 1 \end{array}\right) , \enspace x_2=\left(\begin{array}{c} 1 \\ -1 \end{array}\right). $$
Sei $$ \Lambda = \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right). $$ Die Matrizen $S$ und $\Lambda$ sind ähnlich, d.h., dass es ein $M$ gibt mit $$ M^{-1} S M = \Lambda. $$ Wie findet man die Matrix $M$, die $S$ diagonalisiert? Dazu formt man die Ähnlichkeitsbedingung um: \begin{eqnarray} S M & = & M \Lambda \\ S \left(x_1\enspace x_2\right) & = & \left(x_1\enspace x_2\right) \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right)\\ \left(S x_1\enspace S x_2\right) & = & \left(\lambda_1 x_1\enspace \lambda_2 x_2\right) \end{eqnarray} und erkennt, dass das dahinter die Bedingung für die Eigenvektoren „steckt”. Wählt man also $M$ als die Eigenvektormatrix von $S$, dann erhält man die Matrix, mit der die Ähnlichkeitsbedingung zwischen $S$ und $\Lambda$ erfüllt ist.
⌂ Schlussfolgerungen
Hat man eine Matrix $A$ mit Eigenwerten $\lambda_1,\cdots,\lambda_n$ und Eigenvektoren $x_1,\cdots,x_n$, dann gilt: \begin{eqnarray} A \left(x_1\enspace \cdots \enspace x_n\right) & = & \left(x_1\enspace \cdots \enspace x_n\right) \left(\begin{array}{ccc} \lambda_1 & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_n \end{array}\right) \\ A X & = & X \Lambda \end{eqnarray} oder äquivalent: $$ A = X \Lambda X^{-1}. $$ Die Eigenvektormatrizen diagonalisieren also die Matrix $A$.
Wenn z.B. fragt, was die Eigenwerte von $A^2$ sind, dann findet man $$ A^2=X \Lambda X^{-1} X \Lambda X^{-1}= X \Lambda^2 X^{-1}, $$ d.h., dass bei $A^2$ die Eigenwerte quadrieren und die Eigenvektoren identisch sind.
⌂ Spektraltheorem
Angewandt auf symmetrische Matrizen $S$, für die die Eigenvektormatrizen orthogonal sind, $Q$, ergibt sich: $$ S = Q \Lambda Q^{-1} = Q \Lambda Q^T. $$ Dies folgt auch aus der Anwendung des Spektralsatzes der Spektraltheorie.
⌂ Querverweise auf 'Eigenwerte und Eigenvektoren'
Sie kennen vielleicht von anderen Medien sogenannte "Bezahlwände". Sie erhalten die von Ihnen begehrten Informationen nur, wenn Sie den Artikel kaufen oder regelmäßig zahlen. Soweit kann ich es aus berufsethischen Gründen nicht kommen lassen, bitte Sie jedoch trotzdem darum, meine Arbeit mit einer Spende oder einer Schenkung zu unterstützen.
Tim Deutschmann
USt-IdNr.: DE342866832
IBAN: DE49 4306 0967 6023 3551 01
BIC: GENODEM1GLS
Verwendungszweck 'Spende'.
Liste mit SpenderInnen, weitere Informationen zu meiner Finanzierung hier.
Kontakt- und Adressdaten:
E-mail: autor@tim-deutschmann.de
Keltenweg 22
69221 Dossenheim
Impressum