$ \def\tr{\text{tr}} \def\diff{d} \def\medspace{\enspace} \def\mathbi{\mathbf} \def\euro{€} \def\dollar{\$} \def\textnormal{\text} \newcommand\norm[1]{\left\lVert{#1}\right\rVert} $

Multiplikation und Faktorzerlegung von Matrizen

Komplette Wiedergabeliste hier.

Bekannte Faktorzerlegungen von Matrizen

$\Lambda$ und $\Sigma$ sind Diagonalmatrizen.

Einige Eigenschaften der Hauptachsentransformation

In der Hauptachsentransformation $$ S = Q \Lambda Q^T = (q_1\medspace\cdots\medspace q_n) \left(\begin{array}{ccc} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{array}\right) \left(\begin{array}{c} q_1^T\\ \vdots\\ q_n^T \end{array}\right) $$ sind $\lambda_i$ die Eigenwerte und $q_i$ die Eigenvektoren, siehe Eigenwertproblem.

Die Eigenwerte symmetrischer Matrizen $S$ sind reell.

Rechtfertigung der Eigenvektorzerlegung

Durch geschickte Klammerung lassen sich einige Eigenschaften der Ergebnismatrix erkennen: $$ (Q \Lambda)(Q^T), $$ die ja in der vektorweisen Multiplikation als eine Summe von Matrizen mit Rang $1$ darstellbar ist (siehe Vorlesung 1), bei der jeweils eine Spalte aus $Q \Lambda$ mit einer Zeile aus $Q^T$ multipliziert wird, so dass $$ S = \lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T. $$ Diese Darstellung schlägt eine Brücke in die Spektraltheorie. In dieser Zerlegung von $S$ ergibt sich für das Produkt $S q_k$: \begin{eqnarray} S q_k & = & (\lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T)\cdot q_k \\ &=& \lambda_k q_k q_k^T q_k \\ &=& \lambda_k q_k, \end{eqnarray} da alle Eigenvektoren $q_i$ orthonormal sind und daher $$ q_i q_j=\delta_{i j} $$ sowie $$ q_k^T q_k=\norm{q_k}=1. $$

Eliminiationsverfahren in der alternativen Darstellung der Matrixmultiplikation

Als einfaches Beispiel betrachte man eine zu diagonalisierende 2x2 Matrix: $$ A= \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) \rightarrow \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) = U $$ Die Frage ist nun, wie man den Rechenschritt in der „Matrixsprache” ausdrückt. Die den Rechenschritt repräsentierende Matrix ist $$ L=\left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right), $$ so dass $$ A=\left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) = \left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right) \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) =L\cdot U $$ Wie kann man diese Zerlegung in der alternativen Formulierung der Matrixmultiplikation darstellen?

Dazu zerlegt man sich die Matrix $A$ wie folgt in die Summe zweier Matrizen vom Rang 1: \begin{eqnarray} \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) & = & \left(\begin{array}{cc} 2 & 3 \\ 4 & 6 \end{array}\right) + \left(\begin{array}{cc} 0 & 0 \\ 0 & 1 \end{array}\right)\\ & = & \left(\begin{array}{c} l_{1 1}\\ l_{2 1} \end{array}\right) (u_{1 1}\medspace u_{1 2}) + \left(\begin{array}{c} l_{1 2}\\ l_{2 2} \end{array}\right) (u_{2 1}\medspace u_{2 2}) \end{eqnarray} Dabei hat man „im Hinterkopf”, dass im ersten Schritt des Gauß'schen Eliminationsverfahrens die erste Zeile verwendet wird, um in der ersten Spalte aller anderen Zeilen durch Subtraktion eine $0$ zu produzieren: $$ \left(\begin{array}{cccc} * & * & * & *\\ * & & &\\ * & & A_2 &\\ * & & & \end{array}\right). $$ Allgemeiner formuliert zerlegt man $A$ so, dass eine Summe aus dem jeweiligen Produkt von Rang-1-Matrizen entsteht: $$ A=\left(\begin{array}{c} l_{1 1}\\ \vdots\\ l_{n 1} \end{array}\right) (u_{1 1}\medspace \cdots\medspace u_{1 n}) + \left(\begin{array}{c} l_{1 2}\\ \vdots\\ l_{n 2} \end{array}\right) (u_{2 1}\medspace \cdots\medspace u_{2 n}) +\cdots \left(\begin{array}{c} l_{1 n}\\ \vdots\\ l_{n n} \end{array}\right) (u_{n 1}\medspace \cdots\medspace u_{n n}). $$ Das Ergebnis jeder Diagonalisierung ist letztlich eine LU Zerlegung.

Zum Fundamentaltheorem der linearen Algebra

Es gibt für $x\in\mathbb{R}^n$ 4 bedeutsame fundamentale Unterräume einer Matrix $A\in\mathbb{R}^{m\times n}$:

  1. Der Spaltenraum einer Matrix $\textnormal{Col}(A)\subset\mathbb{R}^m$ mit der Dimension $r$.
  2. Der Zeilenraum einer Matrix $\textnormal{Col}(A^T)\subset\mathbb{R}^n$ mit der gleichen Dimension $r$.
  3. Der Nullraum von $A$ $\textnormal{Kern}(A)\subset\mathbb{R}^n$ mit der Dimension $n-r$.
  4. Der Nullraum der transponierten Matrix $\textnormal{Kern}(A^T)\subset\mathbb{R}^m$ mit der Dimension $m-r$.
Der Nullraum, auch Kern von $A$, $\textnormal{Kern}(A)$ ist die Menge aller Vektoren, deren Bild der Nullvektor ist: $$ \textnormal{Kern}(A)=\left\{x|A\cdot x=0\right\}. $$
Die 4 Unterräume des Fundamentaltheorems der linearen Algebra.

Jeder Bildvektor $A\cdot x=y\in \mathbb{R}^m$ hat jeweils einen Anteil im Spaltenraum $\textnormal{Col}(A)$ und den anderen im Nullraum der transponierten Matrix $\textnormal{Kern}(A^T)$ und jeder Vektor $x\in\mathbb{R}^n$ hat jeweils einen Anteil im Zeilenraum $\textnormal{Col}(A^T)$ und den anderen im Nullraum $\textnormal{Kern}(A)$ hat.

Beispiel: $$ A=\left(\begin{array}{ccc} 1 & 2 & 4 \\ 2 & 4 & 8 \\ \end{array}\right) \in\mathbb{R}^{2\times 3} $$ $m=2$, $n=3$ und $r=1$. Gesucht sind zwei Vektoren des Nullraums, z.B. $$ \textnormal{Kern}(A)=\textnormal{Span}\left\{ \left(\begin{array}{c} 0 \\ -2 \\ 1 \end{array}\right), \left(\begin{array}{c} 4\\ 0\\ -1 \end{array}\right) \right\}. $$

Zur relativen Lage der jeweiligen Unterräume ist Folgendes zu sagen. Man erkennt an der Konstruktion des Beispiels, dass gelten muss:

Sei $A\in \mathbb{R}^{m\times n}$. Für alle $y\in \textnormal{Col}(A^T)$ und $x\in \textnormal{Kern}(A)$ muss gelten $$ y^T x=0, $$ denn die Bedingung des Nullraums impliziert, dass dessen Elemente orthogonal zu den Zeilen der Matrix $A$ sind. Deswegen sind $\textnormal{Col}(A^T)$ und $\textnormal{Kern}(A)$ orthogonal.

Querverweise auf 'Multiplikation und Faktorzerlegung von Matrizen'