Multiplikation und Faktorzerlegung von Matrizen
Bekannte Faktorzerlegungen von Matrizen
- $A=L U$: LU-Zerlegung in Eliminationsverfahren, $L$ ist untere, $U$ eine obere Dreiecksmatrix.
- $A=Q R$: QR-Zerlegung in der Methode der kleinsten Quadrate, Gram-Schmidtsches Orthogonalisierungsverfahren.
- $S=Q\Lambda Q^T$: Hauptachsentransformation. $S$ ist eine symmetrische Matrix, $Q$ eine Matrix mit orthonormalen Spalten, die typischerweise Eigenvektoren sind.
- $A=X \Lambda X^{-1}$.
- $A = U \Sigma V^T$: Singulärwertzerlegung (SVD), $U$ und $V$ sind orthogonale Matrizen.
Einige Eigenschaften der Hauptachsentransformation
In der Hauptachsentransformation $$ S = Q \Lambda Q^T = (q_1\medspace\cdots\medspace q_n) \left(\begin{array}{ccc} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{array}\right) \left(\begin{array}{c} q_1^T\\ \vdots\\ q_n^T \end{array}\right) $$ sind $\lambda_i$ die Eigenwerte und $q_i$ die Eigenvektoren, siehe Eigenwertproblem.
Rechtfertigung der Eigenvektorzerlegung
Durch geschickte Klammerung lassen sich einige Eigenschaften der Ergebnismatrix erkennen: $$ (Q \Lambda)(Q^T), $$ die ja in der vektorweisen Multiplikation als eine Summe von Matrizen mit Rang $1$ darstellbar ist (siehe Vorlesung 1), bei der jeweils eine Spalte aus $Q \Lambda$ mit einer Zeile aus $Q^T$ multipliziert wird, so dass $$ S = \lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T. $$ Diese Darstellung schlägt eine Brücke in die Spektraltheorie. In dieser Zerlegung von $S$ ergibt sich für das Produkt $S q_k$: \begin{eqnarray} S q_k & = & (\lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T)\cdot q_k \\ &=& \lambda_k q_k q_k^T q_k \\ &=& \lambda_k q_k, \end{eqnarray} da alle Eigenvektoren $q_i$ orthonormal sind und daher $$ q_i q_j=\delta_{i j} $$ sowie $$ q_k^T q_k=\norm{q_k}=1. $$
Eliminiationsverfahren in der alternativen Darstellung der Matrixmultiplikation
Als einfaches Beispiel betrachte man eine zu diagonalisierende 2x2 Matrix: $$ A= \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) \rightarrow \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) = U $$ Die Frage ist nun, wie man den Rechenschritt in der „Matrixsprache” ausdrückt. Die den Rechenschritt repräsentierende Matrix ist $$ L=\left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right), $$ so dass $$ A=\left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) = \left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right) \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) =L\cdot U $$ Wie kann man diese Zerlegung in der alternativen Formulierung der Matrixmultiplikation darstellen?
Dazu zerlegt man sich die Matrix $A$ wie folgt in die Summe zweier Matrizen vom Rang 1: \begin{eqnarray} \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) & = & \left(\begin{array}{cc} 2 & 3 \\ 4 & 6 \end{array}\right) + \left(\begin{array}{cc} 0 & 0 \\ 0 & 1 \end{array}\right)\\ & = & \left(\begin{array}{c} l_{1 1}\\ l_{2 1} \end{array}\right) (u_{1 1}\medspace u_{1 2}) + \left(\begin{array}{c} l_{1 2}\\ l_{2 2} \end{array}\right) (u_{2 1}\medspace u_{2 2}) \end{eqnarray} Dabei hat man „im Hinterkopf”, dass im ersten Schritt des Gauß'schen Eliminationsverfahrens die erste Zeile verwendet wird, um in der ersten Spalte aller anderen Zeilen durch Subtraktion eine $0$ zu produzieren: $$ \left(\begin{array}{cccc} * & * & * & *\\ * & & &\\ * & & A_2 &\\ * & & & \end{array}\right). $$ Allgemeiner formuliert zerlegt man $A$ so, dass eine Summe aus dem jeweiligen Produkt von Rang-1-Matrizen entsteht: $$ A=\left(\begin{array}{c} l_{1 1}\\ \vdots\\ l_{n 1} \end{array}\right) (u_{1 1}\medspace \cdots\medspace u_{1 n}) + \left(\begin{array}{c} l_{1 2}\\ \vdots\\ l_{n 2} \end{array}\right) (u_{2 1}\medspace \cdots\medspace u_{2 n}) +\cdots \left(\begin{array}{c} l_{1 n}\\ \vdots\\ l_{n n} \end{array}\right) (u_{n 1}\medspace \cdots\medspace u_{n n}). $$ Das Ergebnis jeder Diagonalisierung ist letztlich eine LU Zerlegung.
Zum Fundamentaltheorem der linearen Algebra
Es gibt für $x\in\mathbb{R}^n$ 4 bedeutsame fundamentale Unterräume einer Matrix $A\in\mathbb{R}^{m\times n}$:
- Der Spaltenraum einer Matrix $\textnormal{Col}(A)\subset\mathbb{R}^m$ mit der Dimension $r$.
- Der Zeilenraum einer Matrix $\textnormal{Col}(A^T)\subset\mathbb{R}^n$ mit der gleichen Dimension $r$.
- Der Nullraum von $A$ $\textnormal{Kern}(A)\subset\mathbb{R}^n$ mit der Dimension $n-r$.
- Der Nullraum der transponierten Matrix $\textnormal{Kern}(A^T)\subset\mathbb{R}^m$ mit der Dimension $m-r$.
Jeder Bildvektor $A\cdot x=y\in \mathbb{R}^m$ hat jeweils einen Anteil im Spaltenraum $\textnormal{Col}(A)$ und den anderen im Nullraum der transponierten Matrix $\textnormal{Kern}(A^T)$ und jeder Vektor $x\in\mathbb{R}^n$ hat jeweils einen Anteil im Zeilenraum $\textnormal{Col}(A^T)$ und den anderen im Nullraum $\textnormal{Kern}(A)$ hat.
Beispiel: $$ A=\left(\begin{array}{ccc} 1 & 2 & 4 \\ 2 & 4 & 8 \\ \end{array}\right) \in\mathbb{R}^{2\times 3} $$ $m=2$, $n=3$ und $r=1$. Gesucht sind zwei Vektoren des Nullraums, z.B. $$ \textnormal{Kern}(A)=\textnormal{Span}\left\{ \left(\begin{array}{c} 0 \\ -2 \\ 1 \end{array}\right), \left(\begin{array}{c} 4\\ 0\\ -1 \end{array}\right) \right\}. $$
Zur relativen Lage der jeweiligen Unterräume ist Folgendes zu sagen. Man erkennt an der Konstruktion des Beispiels, dass gelten muss: