$ \def\tr{\text{tr}} \def\diff{d} \def\medspace{\enspace} \def\mathbi{\mathbf} \def\euro{€} \def\dollar{\$} \def\textnormal{\text} \newcommand\norm[1]{\left\lVert{#1}\right\rVert} $

Eigenwerte und Eigenvektoren

Komplette Wiedergabeliste hier.

Positiv definite und symmetrische Matrizen

Wenn man $y=A x$ berechnet, wobei $A\in \mathbb{R}^{n\times n}$, dann erhält man für manche $x$ Vektoren $y$, die kolinear zu $x$ sind: $$ A x_i = \lambda_i x_i\quad i=1,\ldots,n, $$ nämlich die Eigenvektoren. Um eine der Bedeutungen von Eigenvektoren zu erkennen, betrachtet man, wie $A^2$ die Eigenvektoren von $A$ abbildet $$ A^2 x= A \lambda x = \lambda^2 x, $$ dann erhält man allgemein: $$ A^n x=\lambda^n x, $$ inclusive $$ A^{-1}x = \frac{1}{\lambda} x. $$ Mit wenig Aufwand kann man nun auch zeigen, dass gilt: $$ e^{A t} x= e^{\lambda t} x. $$

Mit $n$ unabhängigen Eigenvektoren hat man eine Basis mit der man jeden beliebigen Vektor $v$ des Bildes konstruieren kann $$ v=c_1\cdot x_1+\cdots+c_n\cdot x_n. $$ In dieser Darstellung des Vektors kann man sich nun fragen, wie sich $v$ unter der Abbildung $A^k$ transformiert: \begin{eqnarray} A^k v & = & c_1 A^k x_1+\cdots+c_n A^k x_n \\ & = & c_1 \lambda_1^k x_1+\cdots+c_n \lambda_n^k x_n. \end{eqnarray}

Als Anwendung bieten sich Differenzgleichungen $$ v_{k+1}=A v_k $$ oder lineare Differenzialgleichungen der Form: $$ \frac{\diff v}{\diff t} = A v, $$ deren Lösung dann $$ v(t)=c_1 e^{\lambda_1 t} x_1+ \cdots +c_n e^{\lambda_n t} x_n $$ sind.

Eigenwerte ähnlicher Matrizen

$B$ ähnlich ist zu $A$, wenn $$ B=M^{-1} A M $$ und $M$ eine invertierbare Matrix ist. In diesem Fall haben $A$ und $B$ die gleichen Eigenwerte.
Zum Beweis dieses Satzes formt man zunächst die Ähnlichkeitsbedingung ein wenig um, um einen Hinweis zu erhalten, worauf es ankommt, denn als Voraussetzung hat man, dass $A x=\lambda x$. Es ist nur bekannt, wie $A$ auf einen Eigenvektor wirkt, während man über $B$ nur weiß, dass sie ähnlich zu $A$ ist: \begin{eqnarray} B & = & M^{-1} A M\\ B M^{-1} & = & M^{-1} A. \end{eqnarray} Nun schaut man, wie die beiden Seiten auf einen Eigenvektor von $A$ einwirken: $$ B M^{-1} x = M^{-1} A x = \lambda M^{-1} x. $$ Nun erkennt man, dass $y=M^{-1} x$ ein Eigenvektor von $B$ mit dem Eigenwert $\lambda$ ist: \begin{eqnarray} B y & = & M^{-1} A M M^{-1} x\\ & = & M^{-1} A x\\ & = & \lambda M^{-1} x\\ & = & \lambda y. \end{eqnarray}

Mit dem Ähnlichkeitsargument kann man zeigen, dass $A B$ die gleichen Eigenwerte wie $B A$ hat: $$ M ( A B ) M^{-1} = B A $$ Man erkennt die Behauptung, wenn man $M=B$ setzt.

Eigenwerte und Eigenvektoren symmetrischer und antisymmetrischer Matrizen

Sei $S$ eine symmetrische Matrix. Welche Eigenschaften haben ihre Eigenwerte und Eigenvektoren?

Die Eigenwerte symmetrischer Matrizen sind reell.

Betrachte $$ A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right). $$ Wenn man $A$ transponiert, dann erhält man die negative Matrix: $$ A^T=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)^T =\left(\begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array}\right) =-A. $$ Daher ist die Matrix antisymmetrisch.

Die Eigenwerte antisymmetrischer Matrizen sind imaginär.

$A$ entspricht einer Drehung um 90°. Wie man sich leicht vorstellen kann, hat $A$ zunächst einmal keinen vom Nullvektor verschiedenen Eigenvektor, weil $$ A x\perp x \Leftrightarrow (A x)^T x = x^T A^T x=0. $$ Man vollzieht die normale Prozedur zum Auffinden von Eigenwerten und Eigenvektoren: \begin{eqnarray} A x & = & \lambda x \\ (A-\lambda I) x & = & 0 \\ \det(A-\lambda I) & = & 0, \end{eqnarray} wobei $\det(A)$ die Determinante von $A$ berechnet. $$ \det(A-\lambda I) =\left|\left(\begin{array}{cc} -\lambda & 1 \\ -1 & -\lambda \end{array}\right)\right| =\lambda^2+1=0 $$ Daraus folgt: $$ \lambda \pm i. $$

Addiert man die Eigenwerte erhält man die Spur $\tr(A)$ der Matrix $A$. Multipliziert man die Eigenwerte, dann berechnet man die Determinante der Eigenvektormatrix. A hat folgemde Eigenschaften: \begin{eqnarray} \tr(A) & = & 0 \\ \det(A) & = & 1 \end{eqnarray}

Symmetrische und positiv definite Marizen

Die Eigenwerte sind reell und die Eigenvektoren orthogonal. Sei z.B. $$ S=\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array}\right). $$ Die Eigenwerte von $S$ sind $\pm 1$, $\tr(S)=0$, $\det(S)=-1$. Die Eigenvektoren sind $$ x_1=\left(\begin{array}{c} 1 \\ 1 \end{array}\right) , \medspace x_2=\left(\begin{array}{c} 1 \\ -1 \end{array}\right). $$

Sei $$ \Lambda = \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right). $$ Die Matrizen $S$ und $\Lambda$ sind ähnlich, d.h., dass es ein $M$ gibt mit $$ M^{-1} S M = \Lambda. $$ Wie findet man die Matrix $M$, die $S$ diagonalisiert? Dazu formt man die Ähnlichkeitsbedingung um: \begin{eqnarray} S M & = & M \Lambda \\ S \left(x_1\medspace x_2\right) & = & \left(x_1\medspace x_2\right) \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right)\\ \left(S x_1\medspace S x_2\right) & = & \left(\lambda_1 x_1\medspace \lambda_2 x_2\right) \end{eqnarray} und erkennt, dass das dahinter die Bedingung für die Eigenvektoren „steckt”. Wählt man also $M$ als die Eigenvektormatrix von $S$, dann erhält man die Matrix, mit der die Ähnlichkeitsbedingung zwischen $S$ und $\Lambda$ erfüllt ist.

Schlussfolgerungen

Hat man eine Matrix $A$ mit Eigenwerten $\lambda_1,\cdots,\lambda_n$ und Eigenvektoren $x_1,\cdots,x_n$, dann gilt: \begin{eqnarray} A \left(x_1\medspace \cdots \medspace x_n\right) & = & \left(x_1\medspace \cdots \medspace x_n\right) \left(\begin{array}{ccc} \lambda_1 & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_n \end{array}\right) \\ A X & = & X \Lambda \end{eqnarray} oder äquivalent: $$ A = X \Lambda X^{-1}. $$ Die Eigenvektormatrizen diagonalisieren also die Matrix $A$.

Wenn z.B. fragt, was die Eigenwerte von $A^2$ sind, dann findet man $$ A^2=X \Lambda X^{-1} X \Lambda X^{-1}= X \Lambda^2 X^{-1}, $$ d.h., dass bei $A^2$ die Eigenwerte quadrieren und die Eigenvektoren identisch sind.

Spektraltheorem

Angewandt auf symmetrische Matrizen $S$, für die die Eigenvektormatrizen orthogonal sind, $Q$, ergibt sich: $$ S = Q \Lambda Q^{-1} = Q \Lambda Q^T. $$ Dies folgt auch aus der Anwendung des Spektralsatzes der Spektraltheorie.

Hat Ihnen der Artikel gefallen?

Sie kennen vielleicht von anderen Medien sogenannte "Bezahlwände". Sie erhalten die von Ihnen begehrten Informationen nur, wenn Sie den Artikel kaufen oder regelmäßig zahlen. Soweit kann ich es aus berufsethischen Gründen nicht kommen lassen, bitte Sie jedoch trotzdem darum, meine Arbeit mit einer Spende oder einer Schenkung zu unterstützen.

Tim Deutschmann

USt-IdNr.: DE342866832

IBAN: DE49 4306 0967 6023 3551 01
BIC: GENODEM1GLS

Verwendungszweck 'Schenkung' oder 'Spende'.

Liste mit Schenkenden und SpenderInnen, weitere Informationen zu meiner Finanzierung hier.

Kontakt- und Adressdaten:

E-mail: autor@tim-deutschmann.de
Keltenweg 22
69221 Dossenheim

Impressum

Querverweise auf 'Eigenwerte und Eigenvektoren'