$ \def\tr{\text{tr}} \def\diff{d} \def\medspace{\enspace} \def\mathbi{\mathbf} \def\euro{€} \def\dollar{\$} \def\textnormal{\text} \newcommand\norm[1]{\left\lVert{#1}\right\rVert} $

Orthonormale Spalten in Q ergeben Q'Q=I

Komplette Wiedergabeliste hier.

Orthonormalität und Orthogonalität der Matrizen Q

Werden die Eigenvektoren auf $1$ normiert, erhält man mit ihrer Zusammenstellung in Spalten eine orthonormale Matrix: $$ Q=\left(\begin{array}{ccc} & & \\ q_1 & \cdots & q_n\\ & & \end{array}\right), $$ so dass $$ Q^T Q=I, $$ wobei $I\in\mathop{R}^{n\times n}$ die Einheitsmatrix ist. Dies ist leicht einzusehen: $$ Q^T Q = \left(\begin{array}{c} q_1^T\\ \vdots\\ q_n^T \end{array}\right) \left(\begin{array}{ccc} & & \\ q_1 & \cdots & q_n\\ & & \end{array}\right), $$ da $$ q_i^T q_j=\delta_{i j}. $$ Gilt auch $Q Q^T=I$? Die Antwort lautet: ja, wenn $Q$ quadratisch ist.

Wenn die Eigenvektormatrix einer Abbildung $A$ quadratisch ist, dann heißt sie orthogonal.

Beispiele für symmetrische und orthogonale Matrizen

3D Rotationsmatrix

$$ Q=\left(\begin{array}{cc} \cos\left(\vartheta\right) & -\sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & \cos\left(\vartheta\right) \\ \end{array}\right) $$ Es gilt: $$ Q^T=Q^{-1}, $$ dass also die Inverse von $Q$ gleich der Transponierten von $Q$ ist.

$Q$ ist eine Rotationsmatrix: $$ \left(\begin{array}{cc} \cos\left(\vartheta\right) & -\sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & \cos\left(\vartheta\right) \\ \end{array}\right) \left(\begin{array}{c} 1\\ 0 \end{array}\right) = \left(\begin{array}{c} \cos\left(\vartheta\right)\\ \sin\left(\vartheta\right) \end{array}\right), $$ die die Länge des transformierten Vektors $x$ erhält: $$ \forall x \quad \norm{Q x}=\norm{x} $$ Dies ist wie folgt zu zeigen: \begin{eqnarray} \norm{Q x}^2 & = & (Q x)^T(Q x) \\ & = & x^T Q^T Q x\\ & = & \norm{x}^2 \end{eqnarray}

2D Reflektionsmatrix

Die folgende Matrix $$ Q=\left(\begin{array}{cc} \cos\left(\vartheta\right) & \sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & -\cos\left(\vartheta\right) \\ \end{array}\right) $$ ist symmetrisch und hat die Determinante $-1$. Die Abbildung spiegelt alle Vektoren an der Geraden $$ x_2=x_1\tan\left(\frac{\theta}{2}\right). $$

Householder Reflektionen

Man beginnt mit einem Einheitsvektor $u$ mit $$ u^T u=1. $$ Alston Scott Householder fand die Householder-Transformationen $H$: $$ H = I - 2 u u^T $$

$H$ ist orthogonal $$ H^T = \left(I - 2 u u^T\right)^T = I - 2 u u^T $$ und symmetrisch: \begin{eqnarray} H^T H & = & \left(I - 2 u u^T\right)^T\left(I - 2 u u^T\right) \\ & = & \left(I - 2 u u^T\right)\left(I - 2 u u^T\right) \\ & = & I - 4 u u^T+4 u u^T u u^T \\ & = & I. \end{eqnarray}

Hadamard-Matrizen

Jacques Hadamard fand die Hadamard-Matrizen. $$ H_1=1 $$ $$ H_2=\left(\begin{array}{cc} 1 & 1\\ 1 & -1 \end{array}\right) $$ Damit konstruiert man: $$ H_4=\left(\begin{array}{cc} H_2 & H_2\\ H_2 & - H_2 \end{array}\right) =\left(\begin{array}{cccc} 1 & 1 & 1 & 1 \\ 1 & -1 & 1 & -1 \\ 1 & 1 & -1 & -1 \\ 1 & -1 & -1 & 1 \end{array}\right) $$ und allgemein: $$ H_{2n}=\left(\begin{array}{cc} H_n & H_n\\ H_n & - H_n \end{array}\right). $$ Man erkennt die Orthogonalität unmittelbar am Konstruktionsprinzip: Die Zeilen der Matrix sind orthogonal.

Gibt es $H_{12}$? Ja. Es ist möglich, aus einfacheren $m\times n$-Matrizen größere Hadamard-Matrizen zu erzeugen.

Wavelet-Matrizen

Im Zusammenhang mit Wavelets gibt es die Wavelet-Transformationen, die um 1910 von Alfréd Haar gefunden wurden. 1988 wurden von Ingrid Daubechies ganze Familien von Wavelets gefunden.

Haar-Wavelets.

$$ W_4=\left(\begin{array}{cccc} \frac{1}{2} & \frac{1}{2} & \frac{\sqrt{2}}{2} & 0 \\ \frac{1}{2} & \frac{1}{2} & -\frac{\sqrt{2}}{2} & 0 \\ \frac{1}{2} & -\frac{1}{2} & 0 & \frac{\sqrt{2}}{2} \\ \frac{1}{2} & -\frac{1}{2} & 0 & -\frac{\sqrt{2}}{2} \end{array}\right) $$ $$ W_8=\left(\begin{array}{cccccccc} \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & \frac{1}{2} & 0 & \frac{\sqrt{2}}{2} & 0 & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & \frac{1}{2} & 0 & -\frac{\sqrt{2}}{2} & 0 & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & -\frac{1}{2} & 0 & 0 & \frac{\sqrt{2}}{2} & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & -\frac{1}{2} & 0 & 0 & -\frac{\sqrt{2}}{2} & 0 & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & \frac{1}{2} & 0 & 0 & \frac{\sqrt{2}}{2} & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & \frac{1}{2} & 0 & 0 & -\frac{\sqrt{2}}{2} & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & -\frac{1}{2} & 0 & 0 & 0 & \frac{\sqrt{2}}{2} \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & -\frac{1}{2} & 0 & 0 & 0 & -\frac{\sqrt{2}}{2} \end{array}\right) $$

Eigenwerte von symmetrischen und orthogonalen Matrizen

Symmetrische Matrizen $S$ erfüllen die Bedingung $$ S^T=S. $$ Ihre Eigenvektormatrizen sind orthogonal: $$ Q^T Q=I. $$

Beispiel: $$ Q=\left(\begin{array}{cccc} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \end{array}\right) $$ Was ist die Eigenvektormatrix $F_4$ von $Q$? $Q$ ist eine Permutationmatrix. Ein Eigenvektor muss also ein Vektor sein, dessen Komponenten alle gleich sind, der Fouriervektor mit der Frequent $0$ in der ersten Spalte von $F_4$. $$ F_4=\left(\begin{array}{cccc} i^0 & i^0 & i^0 & i^0 \\ i^0 & i^1 & i^2 & i^3 \\ i^0 & i^2 & i^4 & i^6 \\ i^0 & i^3 & i^6 & i^9 \end{array}\right) =\left(\begin{array}{cccc} 1 & 1 & 1 & 1 \\ 1 & i & -1 & -i \\ 1 & -1 & 1 & -1 \\ 1 & -i & -1 & i \end{array}\right) $$ Um die Orthogonalität der Spalten von $F_4$ zu testen, muss beim Skalarprodukt das Konjugieren berücksichtigt werden: \begin{eqnarray} Q^T Q & = & I \\ Q x & = & \lambda x \\ Q y & = & \mu y \\ & \Rightarrow & \bar{x}^T y=0 \end{eqnarray}

Querverweise auf 'Orthonormale Spalten in Q ergeben Q'Q=I'