Eigenwerte und Eigenvektoren
Positiv definite und symmetrische Matrizen
Wenn man $y=A x$ berechnet, wobei $A\in \mathbb{R}^{n\times n}$, dann erhält man für manche $x$ Vektoren $y$, die kolinear zu $x$ sind: $$ A x_i = \lambda_i x_i\quad i=1,\ldots,n, $$ nämlich die Eigenvektoren. Um eine der Bedeutungen von Eigenvektoren zu erkennen, betrachtet man, wie $A^2$ die Eigenvektoren von $A$ abbildet $$ A^2 x= A \lambda x = \lambda^2 x, $$ dann erhält man allgemein: $$ A^n x=\lambda^n x, $$ inclusive $$ A^{-1}x = \frac{1}{\lambda} x. $$ Mit wenig Aufwand kann man nun auch zeigen, dass gilt: $$ e^{A t} x= e^{\lambda t} x. $$
Mit $n$ unabhängigen Eigenvektoren hat man eine Basis mit der man jeden beliebigen Vektor $v$ des Bildes konstruieren kann $$ v=c_1\cdot x_1+\cdots+c_n\cdot x_n. $$ In dieser Darstellung des Vektors kann man sich nun fragen, wie sich $v$ unter der Abbildung $A^k$ transformiert: \begin{eqnarray} A^k v & = & c_1 A^k x_1+\cdots+c_n A^k x_n \\ & = & c_1 \lambda_1^k x_1+\cdots+c_n \lambda_n^k x_n. \end{eqnarray}
Als Anwendung bieten sich Differenzgleichungen $$ v_{k+1}=A v_k $$ oder lineare Differenzialgleichungen der Form: $$ \frac{\diff v}{\diff t} = A v, $$ deren Lösung dann $$ v(t)=c_1 e^{\lambda_1 t} x_1+ \cdots +c_n e^{\lambda_n t} x_n $$ sind.
Eigenwerte ähnlicher Matrizen
Mit dem Ähnlichkeitsargument kann man zeigen, dass $A B$ die gleichen Eigenwerte wie $B A$ hat: $$ M ( A B ) M^{-1} = B A $$ Man erkennt die Behauptung, wenn man $M=B$ setzt.
Eigenwerte und Eigenvektoren symmetrischer und antisymmetrischer Matrizen
Sei $S$ eine symmetrische Matrix. Welche Eigenschaften haben ihre Eigenwerte und Eigenvektoren?
Betrachte $$ A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right). $$ Wenn man $A$ transponiert, dann erhält man die negative Matrix: $$ A^T=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)^T =\left(\begin{array}{cc} 0 & -1 \\ 1 & 0 \end{array}\right) =-A. $$ Daher ist die Matrix antisymmetrisch.
$A$ entspricht einer Drehung um 90°. Wie man sich leicht vorstellen kann, hat $A$ zunächst einmal keinen vom Nullvektor verschiedenen Eigenvektor, weil $$ A x\perp x \Leftrightarrow (A x)^T x = x^T A^T x=0. $$ Man vollzieht die normale Prozedur zum Auffinden von Eigenwerten und Eigenvektoren: \begin{eqnarray} A x & = & \lambda x \\ (A-\lambda I) x & = & 0 \\ \det(A-\lambda I) & = & 0, \end{eqnarray} wobei $\det(A)$ die Determinante von $A$ berechnet. $$ \det(A-\lambda I) =\left|\left(\begin{array}{cc} -\lambda & 1 \\ -1 & -\lambda \end{array}\right)\right| =\lambda^2+1=0 $$ Daraus folgt: $$ \lambda \pm i. $$
Addiert man die Eigenwerte erhält man die Spur $\tr(A)$ der Matrix $A$. Multipliziert man die Eigenwerte, dann berechnet man die Determinante der Eigenvektormatrix. A hat folgemde Eigenschaften: \begin{eqnarray} \tr(A) & = & 0 \\ \det(A) & = & 1 \end{eqnarray}
Symmetrische und positiv definite Marizen
Die Eigenwerte sind reell und die Eigenvektoren orthogonal. Sei z.B. $$ S=\left(\begin{array}{cc} 0 & 1 \\ 1 & 0 \end{array}\right). $$ Die Eigenwerte von $S$ sind $\pm 1$, $\tr(S)=0$, $\det(S)=-1$. Die Eigenvektoren sind $$ x_1=\left(\begin{array}{c} 1 \\ 1 \end{array}\right) , \medspace x_2=\left(\begin{array}{c} 1 \\ -1 \end{array}\right). $$
Sei $$ \Lambda = \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right). $$ Die Matrizen $S$ und $\Lambda$ sind ähnlich, d.h., dass es ein $M$ gibt mit $$ M^{-1} S M = \Lambda. $$ Wie findet man die Matrix $M$, die $S$ diagonalisiert? Dazu formt man die Ähnlichkeitsbedingung um: \begin{eqnarray} S M & = & M \Lambda \\ S \left(x_1\medspace x_2\right) & = & \left(x_1\medspace x_2\right) \left(\begin{array}{cc} \lambda_1 & 0 \\ 0 & \lambda_2 \end{array}\right)\\ \left(S x_1\medspace S x_2\right) & = & \left(\lambda_1 x_1\medspace \lambda_2 x_2\right) \end{eqnarray} und erkennt, dass das dahinter die Bedingung für die Eigenvektoren „steckt”. Wählt man also $M$ als die Eigenvektormatrix von $S$, dann erhält man die Matrix, mit der die Ähnlichkeitsbedingung zwischen $S$ und $\Lambda$ erfüllt ist.
Schlussfolgerungen
Hat man eine Matrix $A$ mit Eigenwerten $\lambda_1,\cdots,\lambda_n$ und Eigenvektoren $x_1,\cdots,x_n$, dann gilt: \begin{eqnarray} A \left(x_1\medspace \cdots \medspace x_n\right) & = & \left(x_1\medspace \cdots \medspace x_n\right) \left(\begin{array}{ccc} \lambda_1 & 0 & 0 \\ 0 & \ddots & 0 \\ 0 & 0 & \lambda_n \end{array}\right) \\ A X & = & X \Lambda \end{eqnarray} oder äquivalent: $$ A = X \Lambda X^{-1}. $$ Die Eigenvektormatrizen diagonalisieren also die Matrix $A$.
Wenn z.B. fragt, was die Eigenwerte von $A^2$ sind, dann findet man $$ A^2=X \Lambda X^{-1} X \Lambda X^{-1}= X \Lambda^2 X^{-1}, $$ d.h., dass bei $A^2$ die Eigenwerte quadrieren und die Eigenvektoren identisch sind.
Spektraltheorem
Angewandt auf symmetrische Matrizen $S$, für die die Eigenvektormatrizen orthogonal sind, $Q$, ergibt sich: $$ S = Q \Lambda Q^{-1} = Q \Lambda Q^T. $$ Dies folgt auch aus der Anwendung des Spektralsatzes der Spektraltheorie.