Einen Moment bitte...

www.tim-deutschmann.de

969 Aufrufe Bewertung

Multiplikation und Faktorzerlegung von Matrizen

Komplette Wiedergabeliste hier.

Bekannte Faktorzerlegungen von Matrizen

$\Lambda$ und $\Sigma$ sind Diagonalmatrizen.

Einige Eigenschaften der Hauptachsentransformation

In der Hauptachsentransformation $$ S = Q \Lambda Q^T = (q_1\enspace\cdots\enspace q_n) \left(\begin{array}{ccc} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{array}\right) \left(\begin{array}{c} q_1^T\\ \vdots\\ q_n^T \end{array}\right) $$ sind $\lambda_i$ die Eigenwerte und $q_i$ die Eigenvektoren, siehe Eigenwertproblem.

Die Eigenwerte symmetrischer Matrizen $S$ sind reell.

Rechtfertigung der Eigenvektorzerlegung

Durch geschickte Klammerung lassen sich einige Eigenschaften der Ergebnismatrix erkennen: $$ (Q \Lambda)(Q^T), $$ die ja in der vektorweisen Multiplikation als eine Summe von Matrizen mit Rang $1$ darstellbar ist (siehe Vorlesung 1), bei der jeweils eine Spalte aus $Q \Lambda$ mit einer Zeile aus $Q^T$ multipliziert wird, so dass $$ S = \lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T. $$ Diese Darstellung schlägt eine Brücke in die Spektraltheorie. In dieser Zerlegung von $S$ ergibt sich für das Produkt $S q_k$: \begin{eqnarray} S q_k & = & (\lambda_1 q_1 q_1^T+\cdots \lambda_n q_n q_n^T)\cdot q_k \\ &=& \lambda_k q_k q_k^T q_k \\ &=& \lambda_k q_k, \end{eqnarray} da alle Eigenvektoren $q_i$ orthonormal sind und daher $$ q_i q_j=\delta_{i j} $$ sowie $$ q_k^T q_k=\norm{q_k}=1. $$

Eliminiationsverfahren in der alternativen Darstellung der Matrixmultiplikation

Als einfaches Beispiel betrachte man eine zu diagonalisierende 2x2 Matrix: $$ A= \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) \rightarrow \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) = U $$ Die Frage ist nun, wie man den Rechenschritt in der „Matrixsprache” ausdrückt. Die den Rechenschritt repräsentierende Matrix ist $$ L=\left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right), $$ so dass $$ A=\left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) = \left(\begin{array}{cc} 1 & 0\\ 2 & 1 \end{array}\right) \left(\begin{array}{cc} 2 & 3 \\ 0 & 1 \end{array}\right) =L\cdot U $$ Wie kann man diese Zerlegung in der alternativen Formulierung der Matrixmultiplikation darstellen?

Dazu zerlegt man sich die Matrix $A$ wie folgt in die Summe zweier Matrizen vom Rang 1: \begin{eqnarray} \left(\begin{array}{cc} 2 & 3 \\ 4 & 7 \end{array}\right) & = & \left(\begin{array}{cc} 2 & 3 \\ 4 & 6 \end{array}\right) + \left(\begin{array}{cc} 0 & 0 \\ 0 & 1 \end{array}\right)\\ & = & \left(\begin{array}{c} l_{1 1}\\ l_{2 1} \end{array}\right) (u_{1 1}\enspace u_{1 2}) + \left(\begin{array}{c} l_{1 2}\\ l_{2 2} \end{array}\right) (u_{2 1}\enspace u_{2 2}) \end{eqnarray} Dabei hat man „im Hinterkopf”, dass im ersten Schritt des Gauß'schen Eliminationsverfahrens die erste Zeile verwendet wird, um in der ersten Spalte aller anderen Zeilen durch Subtraktion eine $0$ zu produzieren: $$ \left(\begin{array}{cccc} * & * & * & *\\ * & & &\\ * & & A_2 &\\ * & & & \end{array}\right). $$ Allgemeiner formuliert zerlegt man $A$ so, dass eine Summe aus dem jeweiligen Produkt von Rang-1-Matrizen entsteht: $$ A=\left(\begin{array}{c} l_{1 1}\\ \vdots\\ l_{n 1} \end{array}\right) (u_{1 1}\enspace \cdots\enspace u_{1 n}) + \left(\begin{array}{c} l_{1 2}\\ \vdots\\ l_{n 2} \end{array}\right) (u_{2 1}\enspace \cdots\enspace u_{2 n}) +\cdots \left(\begin{array}{c} l_{1 n}\\ \vdots\\ l_{n n} \end{array}\right) (u_{n 1}\enspace \cdots\enspace u_{n n}). $$ Das Ergebnis jeder Diagonalisierung ist letztlich eine LU Zerlegung.

Zum Fundamentaltheorem der linearen Algebra

Es gibt für $x\in\mathbb{R}^n$ 4 bedeutsame fundamentale Unterräume einer Matrix $A\in\mathbb{R}^{m\times n}$:

  1. Der Spaltenraum einer Matrix $\text{Col}(A)\subset\mathbb{R}^m$ mit der Dimension $r$.
  2. Der Zeilenraum einer Matrix $\text{Col}(A^T)\subset\mathbb{R}^n$ mit der gleichen Dimension $r$.
  3. Der Nullraum von $A$ $\text{Kern}(A)\subset\mathbb{R}^n$ mit der Dimension $n-r$.
  4. Der Nullraum der transponierten Matrix $\text{Kern}(A^T)\subset\mathbb{R}^m$ mit der Dimension $m-r$.
Der Nullraum, auch Kern von $A$, $\text{Kern}(A)$ ist die Menge aller Vektoren, deren Bild der Nullvektor ist: $$ \text{Kern}(A)=\left\{x|A\cdot x=0\right\}. $$
Die 4 Unterräume des Fundamentaltheorems der linearen Algebra.

Jeder Bildvektor $A\cdot x=y\in \mathbb{R}^m$ hat jeweils einen Anteil im Spaltenraum $\text{Col}(A)$ und den anderen im Nullraum der transponierten Matrix $\text{Kern}(A^T)$ und jeder Vektor $x\in\mathbb{R}^n$ hat jeweils einen Anteil im Zeilenraum $\text{Col}(A^T)$ und den anderen im Nullraum $\text{Kern}(A)$ hat.

Beispiel: $$ A=\left(\begin{array}{ccc} 1 & 2 & 4 \\ 2 & 4 & 8 \\ \end{array}\right) \in\mathbb{R}^{2\times 3} $$ $m=2$, $n=3$ und $r=1$. Gesucht sind zwei Vektoren des Nullraums, z.B. $$ \text{Kern}(A)=\text{Span}\left\{ \left(\begin{array}{c} 0 \\ -2 \\ 1 \end{array}\right), \left(\begin{array}{c} 4\\ 0\\ -1 \end{array}\right) \right\}. $$

Zur relativen Lage der jeweiligen Unterräume ist Folgendes zu sagen. Man erkennt an der Konstruktion des Beispiels, dass gelten muss:

Sei $A\in \mathbb{R}^{m\times n}$. Für alle $y\in \text{Col}(A^T)$ und $x\in \text{Kern}(A)$ muss gelten $$ y^T x=0, $$ denn die Bedingung des Nullraums impliziert, dass dessen Elemente orthogonal zu den Zeilen der Matrix $A$ sind. Deswegen sind $\text{Col}(A^T)$ und $\text{Kern}(A)$ orthogonal.

Vielen Dank dafür, dass Sie den Artikel bewerten möchten. Es dauert nicht lange.

Beurteilen Sie den Artikel ganz grob, bitte.
Wie ist die Form und Struktur? Ist der Artikel logisch aufgebaut, die Argumente und Begriffe klar und sind die Schlussfolgerungen nachvollziehbar?
Wie ist Ihre emotionale Reaktion auf den Artikel?

Querverweise auf 'Multiplikation und Faktorzerlegung von Matrizen'

Tim Deutschmann

USt-IdNr.: DE342866832

E-mail: autor@tim-deutschmann.de

Kontaktformular

Keltenweg 22
69221 Dossenheim
Deutschland

Impressum