Einen Moment bitte...

www.tim-deutschmann.de

900 Aufrufe Bewertung

Eigenwerte und Eigenvektoren

Komplette Wiedergabeliste hier.

Positiv definite und symmetrische Matrizen

Wenn man $y=A x$ berechnet, wobei $A\in \mathbb{R}^{n\times n}$, dann erhält man für manche $x$ Vektoren $y$, die kolinear zu $x$ sind: $$ A x_i = \lambda_i x_i\quad i=1,\ldots,n, $$ nämlich die Eigenvektoren. Um eine der Bedeutungen von Eigenvektoren zu erkennen, betrachtet man, wie $A^2$ die Eigenvektoren von $A$ abbildet $$ A^2 x= A \lambda x = \lambda^2 x, $$ dann erhält man allgemein: $$ A^n x=\lambda^n x, $$ inclusive $$ A^{-1}x = \frac{1}{\lambda} x. $$ Mit wenig Aufwand kann man nun auch zeigen, dass gilt: $$ e^{A t} x= e^{\lambda t} x. $$

Mit $n$ unabhängigen Eigenvektoren hat man eine Basis mit der man jeden beliebigen Vektor $v$ des Bildes konstruieren kann $$ v=c_1\cdot x_1+\cdots+c_n\cdot x_n. $$ In dieser Darstellung des Vektors kann man sich nun fragen, wie sich $v$ unter der Abbildung $A^k$ transformiert: \begin{eqnarray} A^k v & = & c_1 A^k x_1+\cdots+c_n A^k x_n \\ & = & c_1 \lambda_1^k x_1+\cdots+c_n \lambda_n^k x_n. \end{eqnarray}

Als Anwendung bieten sich Differenzgleichungen $$ v_{k+1}=A v_k $$ oder lineare Differenzialgleichungen der Form: $$ \frac{\,d v}{\,d t} = A v, $$ deren Lösung dann $$ v(t)=c_1 e^{\lambda_1 t} x_1+ \cdots +c_n e^{\lambda_n t} x_n $$ sind.

Eigenwerte ähnlicher Matrizen

$B$ ähnlich ist zu $A$, wenn $$ B=M^{-1} A M $$ und $M$ eine invertierbare Matrix ist. In diesem Fall haben $A$ und $B$ die gleichen Eigenwerte.
Zum Beweis dieses Satzes formt man zunächst die Ähnlichkeitsbedingung ein wenig um, um einen Hinweis zu erhalten, worauf es ankommt, denn als Voraussetzung hat man, dass $A x=\lambda x$. Es ist nur bekannt, wie $A$ auf einen Eigenvektor wirkt, während man über $B$ nur weiß, dass sie ähnlich zu $A$ ist: \begin{eqnarray} B & = & M^{-1} A M\\ B M^{-1} & = & M^{-1} A. \end{eqnarray} Nun schaut man, wie die beiden Seiten auf einen Eigenvektor von $A$ einwirken: $$ B M^{-1} x = M^{-1} A x = \lambda M^{-1} x. $$ Nun erkennt man, dass $y=M^{-1} x$ ein Eigenvektor von $B$ mit dem Eigenwert $\lambda$ ist: \begin{eqnarray} B y & = & M^{-1} A M M^{-1} x\\ & = & M^{-1} A x\\ & = & \lambda M^{-1} x\\ & = & \lambda y. \end{eqnarray}

Mit dem Ähnlichkeitsargument kann man zeigen, dass $A B$ die gleichen Eigenwerte wie $B A$ hat: $$ M ( A B ) M^{-1} = B A $$ Man erkennt die Behauptung, wenn man $M=B$ setzt.

Eigenwerte und Eigenvektoren symmetrischer und antisymmetrischer Matrizen

Sei $S$ eine symmetrische Matrix. Welche Eigenschaften haben ihre Eigenwerte und Eigenvektoren?

Die Eigenwerte symmetrischer Matrizen sind reell.

Betrachte $$ A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right). $$ Wenn man $A$ transponiert, dann erhält man die negative Matrix: $$ A^T=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)^T =\left(\begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array}\right) =-A. $$ Daher ist die Matrix antisymmetrisch.

Die Eigenwerte antisymmetrischer Matrizen sind imaginär.

$A$ entspricht einer Drehung um 90°. Wie man sich leicht vorstellen kann, hat $A$ zunächst einmal keinen vom Nullvektor verschiedenen Eigenvektor, weil $$ A x\perp x \Leftrightarrow (A x)^T x = x^T A^T x=0. $$ Man vollzieht die normale Prozedur zum Auffinden von Eigenwerten und Eigenvektoren: \begin{eqnarray} A x & = & \lambda x \\ (A-\lambda I) x & = & 0 \\ \det(A-\lambda I) & = & 0, \end{eqnarray} wobei $\det(A)$ die Determinante von $A$ berechnet. $$ \det(A-\lambda I) =\left|\left(\begin{array}{cc} -\lambda & 1 \\ -1 & -\lambda \end{array}\right)\right| =\lambda^2+1=0 $$ Daraus folgt: $$ \lambda \pm i. $$

Addiert man die Eigenwerte erhält man die Spur $\text{tr}(A)$ der Matrix $A$. Multipliziert man die Eigenwerte, dann berechnet man die Determinante der Eigenvektormatrix. A hat folgemde Eigenschaften: \begin{eqnarray} \text{tr}(A) & = & 0 \\ \det(A) & = & 1 \end{eqnarray}

Symmetrische und positiv definite Marizen

Die Eigenwerte sind reell und die Eigenvektoren orthogonal. Sei z.B. $$ S=\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array}\right). $$ Die Eigenwerte von $S$ sind $\pm 1$, $\text{tr}(S)=0$, $\det(S)=-1$. Die Eigenvektoren sind $$ x_1=\left(\begin{array}{c} 1 \\ 1 \end{array}\right) , \enspace x_2=\left(\begin{array}{c} 1 \\ -1 \end{array}\right). $$

Sei $$ \Lambda = \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right). $$ Die Matrizen $S$ und $\Lambda$ sind ähnlich, d.h., dass es ein $M$ gibt mit $$ M^{-1} S M = \Lambda. $$ Wie findet man die Matrix $M$, die $S$ diagonalisiert? Dazu formt man die Ähnlichkeitsbedingung um: \begin{eqnarray} S M & = & M \Lambda \\ S \left(x_1\enspace x_2\right) & = & \left(x_1\enspace x_2\right) \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right)\\ \left(S x_1\enspace S x_2\right) & = & \left(\lambda_1 x_1\enspace \lambda_2 x_2\right) \end{eqnarray} und erkennt, dass das dahinter die Bedingung für die Eigenvektoren „steckt”. Wählt man also $M$ als die Eigenvektormatrix von $S$, dann erhält man die Matrix, mit der die Ähnlichkeitsbedingung zwischen $S$ und $\Lambda$ erfüllt ist.

Schlussfolgerungen

Hat man eine Matrix $A$ mit Eigenwerten $\lambda_1,\cdots,\lambda_n$ und Eigenvektoren $x_1,\cdots,x_n$, dann gilt: \begin{eqnarray} A \left(x_1\enspace \cdots \enspace x_n\right) & = & \left(x_1\enspace \cdots \enspace x_n\right) \left(\begin{array}{ccc} \lambda_1 & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_n \end{array}\right) \\ A X & = & X \Lambda \end{eqnarray} oder äquivalent: $$ A = X \Lambda X^{-1}. $$ Die Eigenvektormatrizen diagonalisieren also die Matrix $A$.

Wenn z.B. fragt, was die Eigenwerte von $A^2$ sind, dann findet man $$ A^2=X \Lambda X^{-1} X \Lambda X^{-1}= X \Lambda^2 X^{-1}, $$ d.h., dass bei $A^2$ die Eigenwerte quadrieren und die Eigenvektoren identisch sind.

Spektraltheorem

Angewandt auf symmetrische Matrizen $S$, für die die Eigenvektormatrizen orthogonal sind, $Q$, ergibt sich: $$ S = Q \Lambda Q^{-1} = Q \Lambda Q^T. $$ Dies folgt auch aus der Anwendung des Spektralsatzes der Spektraltheorie.

Vielen Dank dafür, dass Sie den Artikel bewerten möchten. Es dauert nicht lange.

Beurteilen Sie den Artikel ganz grob, bitte.
Wie ist die Form und Struktur? Ist der Artikel logisch aufgebaut, die Argumente und Begriffe klar und sind die Schlussfolgerungen nachvollziehbar?
Wie ist Ihre emotionale Reaktion auf den Artikel?

Querverweise auf 'Eigenwerte und Eigenvektoren'

Tim Deutschmann

USt-IdNr.: DE342866832

E-mail: autor@tim-deutschmann.de

Kontaktformular

Keltenweg 22
69221 Dossenheim
Deutschland

Impressum