$ \def\tr{\text{tr}} \def\diff{d} \def\medspace{\enspace} \def\mathbi{\mathbf} \def\euro{€} \def\dollar{\$} \def\textnormal{\text} \newcommand\norm[1]{\left\lVert{#1}\right\rVert} $

Eigenwerte und Eigenvektoren

Komplette Wiedergabeliste hier.

Positiv definite und symmetrische Matrizen

Wenn man $y=A x$ berechnet, wobei $A\in \mathbb{R}^{n\times n}$, dann erhält man für manche $x$ Vektoren $y$, die kolinear zu $x$ sind: $$ A x_i = \lambda_i x_i\quad i=1,\ldots,n, $$ nämlich die Eigenvektoren. Um eine der Bedeutungen von Eigenvektoren zu erkennen, betrachtet man, wie $A^2$ die Eigenvektoren von $A$ abbildet $$ A^2 x= A \lambda x = \lambda^2 x, $$ dann erhält man allgemein: $$ A^n x=\lambda^n x, $$ inclusive $$ A^{-1}x = \frac{1}{\lambda} x. $$ Mit wenig Aufwand kann man nun auch zeigen, dass gilt: $$ e^{A t} x= e^{\lambda t} x. $$

Mit $n$ unabhängigen Eigenvektoren hat man eine Basis mit der man jeden beliebigen Vektor $v$ des Bildes konstruieren kann $$ v=c_1\cdot x_1+\cdots+c_n\cdot x_n. $$ In dieser Darstellung des Vektors kann man sich nun fragen, wie sich $v$ unter der Abbildung $A^k$ transformiert: \begin{eqnarray} A^k v & = & c_1 A^k x_1+\cdots+c_n A^k x_n \\ & = & c_1 \lambda_1^k x_1+\cdots+c_n \lambda_n^k x_n. \end{eqnarray}

Als Anwendung bieten sich Differenzgleichungen $$ v_{k+1}=A v_k $$ oder lineare Differenzialgleichungen der Form: $$ \frac{\diff v}{\diff t} = A v, $$ deren Lösung dann $$ v(t)=c_1 e^{\lambda_1 t} x_1+ \cdots +c_n e^{\lambda_n t} x_n $$ sind.

Eigenwerte ähnlicher Matrizen

$B$ ähnlich ist zu $A$, wenn $$ B=M^{-1} A M $$ und $M$ eine invertierbare Matrix ist. In diesem Fall haben $A$ und $B$ die gleichen Eigenwerte.
Zum Beweis dieses Satzes formt man zunächst die Ähnlichkeitsbedingung ein wenig um, um einen Hinweis zu erhalten, worauf es ankommt, denn als Voraussetzung hat man, dass $A x=\lambda x$. Es ist nur bekannt, wie $A$ auf einen Eigenvektor wirkt, während man über $B$ nur weiß, dass sie ähnlich zu $A$ ist: \begin{eqnarray} B & = & M^{-1} A M\\ B M^{-1} & = & M^{-1} A. \end{eqnarray} Nun schaut man, wie die beiden Seiten auf einen Eigenvektor von $A$ einwirken: $$ B M^{-1} x = M^{-1} A x = \lambda M^{-1} x. $$ Nun erkennt man, dass $y=M^{-1} x$ ein Eigenvektor von $B$ mit dem Eigenwert $\lambda$ ist: \begin{eqnarray} B y & = & M^{-1} A M M^{-1} x\\ & = & M^{-1} A x\\ & = & \lambda M^{-1} x\\ & = & \lambda y. \end{eqnarray}

Mit dem Ähnlichkeitsargument kann man zeigen, dass $A B$ die gleichen Eigenwerte wie $B A$ hat: $$ M ( A B ) M^{-1} = B A $$ Man erkennt die Behauptung, wenn man $M=B$ setzt.

Eigenwerte und Eigenvektoren symmetrischer und antisymmetrischer Matrizen

Sei $S$ eine symmetrische Matrix. Welche Eigenschaften haben ihre Eigenwerte und Eigenvektoren?

Die Eigenwerte symmetrischer Matrizen sind reell.

Betrachte $$ A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right). $$ Wenn man $A$ transponiert, dann erhält man die negative Matrix: $$ A^T=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)^T =\left(\begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array}\right) =-A. $$ Daher ist die Matrix antisymmetrisch.

Die Eigenwerte antisymmetrischer Matrizen sind imaginär.

$A$ entspricht einer Drehung um 90°. Wie man sich leicht vorstellen kann, hat $A$ zunächst einmal keinen vom Nullvektor verschiedenen Eigenvektor, weil $$ A x\perp x \Leftrightarrow (A x)^T x = x^T A^T x=0. $$ Man vollzieht die normale Prozedur zum Auffinden von Eigenwerten und Eigenvektoren: \begin{eqnarray} A x & = & \lambda x \\ (A-\lambda I) x & = & 0 \\ \det(A-\lambda I) & = & 0, \end{eqnarray} wobei $\det(A)$ die Determinante von $A$ berechnet. $$ \det(A-\lambda I) =\left|\left(\begin{array}{cc} -\lambda & 1 \\ -1 & -\lambda \end{array}\right)\right| =\lambda^2+1=0 $$ Daraus folgt: $$ \lambda \pm i. $$

Addiert man die Eigenwerte erhält man die Spur $\tr(A)$ der Matrix $A$. Multipliziert man die Eigenwerte, dann berechnet man die Determinante der Eigenvektormatrix. A hat folgemde Eigenschaften: \begin{eqnarray} \tr(A) & = & 0 \\ \det(A) & = & 1 \end{eqnarray}

Symmetrische und positiv definite Marizen

Die Eigenwerte sind reell und die Eigenvektoren orthogonal. Sei z.B. $$ S=\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array}\right). $$ Die Eigenwerte von $S$ sind $\pm 1$, $\tr(S)=0$, $\det(S)=-1$. Die Eigenvektoren sind $$ x_1=\left(\begin{array}{c} 1 \\ 1 \end{array}\right) , \medspace x_2=\left(\begin{array}{c} 1 \\ -1 \end{array}\right). $$

Sei $$ \Lambda = \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right). $$ Die Matrizen $S$ und $\Lambda$ sind ähnlich, d.h., dass es ein $M$ gibt mit $$ M^{-1} S M = \Lambda. $$ Wie findet man die Matrix $M$, die $S$ diagonalisiert? Dazu formt man die Ähnlichkeitsbedingung um: \begin{eqnarray} S M & = & M \Lambda \\ S \left(x_1\medspace x_2\right) & = & \left(x_1\medspace x_2\right) \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right)\\ \left(S x_1\medspace S x_2\right) & = & \left(\lambda_1 x_1\medspace \lambda_2 x_2\right) \end{eqnarray} und erkennt, dass das dahinter die Bedingung für die Eigenvektoren „steckt”. Wählt man also $M$ als die Eigenvektormatrix von $S$, dann erhält man die Matrix, mit der die Ähnlichkeitsbedingung zwischen $S$ und $\Lambda$ erfüllt ist.

Schlussfolgerungen

Hat man eine Matrix $A$ mit Eigenwerten $\lambda_1,\cdots,\lambda_n$ und Eigenvektoren $x_1,\cdots,x_n$, dann gilt: \begin{eqnarray} A \left(x_1\medspace \cdots \medspace x_n\right) & = & \left(x_1\medspace \cdots \medspace x_n\right) \left(\begin{array}{ccc} \lambda_1 & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_n \end{array}\right) \\ A X & = & X \Lambda \end{eqnarray} oder äquivalent: $$ A = X \Lambda X^{-1}. $$ Die Eigenvektormatrizen diagonalisieren also die Matrix $A$.

Wenn z.B. fragt, was die Eigenwerte von $A^2$ sind, dann findet man $$ A^2=X \Lambda X^{-1} X \Lambda X^{-1}= X \Lambda^2 X^{-1}, $$ d.h., dass bei $A^2$ die Eigenwerte quadrieren und die Eigenvektoren identisch sind.

Spektraltheorem

Angewandt auf symmetrische Matrizen $S$, für die die Eigenvektormatrizen orthogonal sind, $Q$, ergibt sich: $$ S = Q \Lambda Q^{-1} = Q \Lambda Q^T. $$ Dies folgt auch aus der Anwendung des Spektralsatzes der Spektraltheorie.

Querverweise auf 'Eigenwerte und Eigenvektoren'