$ \def\tr{\text{tr}} \def\diff{d} \def\medspace{\enspace} \def\mathbi{\mathbf} \def\euro{€} \def\dollar{\$} \def\textnormal{\text} \newcommand\norm[1]{\left\lVert{#1}\right\rVert} $

Orthonormale Spalten in Q ergeben Q'Q=I

Komplette Wiedergabeliste hier.

Orthonormalität und Orthogonalität der Matrizen Q

Werden die Eigenvektoren auf $1$ normiert, erhält man mit ihrer Zusammenstellung in Spalten eine orthonormale Matrix: $$ Q=\left(\begin{array}{ccc} & & \\ q_1 & \cdots & q_n\\ & & \end{array}\right), $$ so dass $$ Q^T Q=I, $$ wobei $I\in\mathop{R}^{n\times n}$ die Einheitsmatrix ist. Dies ist leicht einzusehen: $$ Q^T Q = \left(\begin{array}{c} q_1^T\\ \vdots\\ q_n^T \end{array}\right) \left(\begin{array}{ccc} & & \\ q_1 & \cdots & q_n\\ & & \end{array}\right), $$ da $$ q_i^T q_j=\delta_{i j}. $$ Gilt auch $Q Q^T=I$? Die Antwort lautet: ja, wenn $Q$ quadratisch ist.

Wenn die Eigenvektormatrix einer Abbildung $A$ quadratisch ist, dann heißt sie orthogonal.

Beispiele für symmetrische und orthogonale Matrizen

3D Rotationsmatrix

$$ Q=\left(\begin{array}{cc} \cos\left(\vartheta\right) & -\sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & \cos\left(\vartheta\right) \\ \end{array}\right) $$ Es gilt: $$ Q^T=Q^{-1}, $$ dass also die Inverse von $Q$ gleich der Transponierten von $Q$ ist.

$Q$ ist eine Rotationsmatrix: $$ \left(\begin{array}{cc} \cos\left(\vartheta\right) & -\sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & \cos\left(\vartheta\right) \\ \end{array}\right) \left(\begin{array}{c} 1\\ 0 \end{array}\right) = \left(\begin{array}{c} \cos\left(\vartheta\right)\\ \sin\left(\vartheta\right) \end{array}\right), $$ die die Länge des transformierten Vektors $x$ erhält: $$ \forall x \quad \norm{Q x}=\norm{x} $$ Dies ist wie folgt zu zeigen: \begin{eqnarray} \norm{Q x}^2 & = & (Q x)^T(Q x) \\ & = & x^T Q^T Q x\\ & = & \norm{x}^2 \end{eqnarray}

2D Reflektionsmatrix

Die folgende Matrix $$ Q=\left(\begin{array}{cc} \cos\left(\vartheta\right) & \sin\left(\vartheta\right) \\ \sin\left(\vartheta\right) & -\cos\left(\vartheta\right) \\ \end{array}\right) $$ ist symmetrisch und hat die Determinante $-1$. Die Abbildung spiegelt alle Vektoren an der Geraden $$ x_2=x_1\tan\left(\frac{\theta}{2}\right). $$

Householder Reflektionen

Man beginnt mit einem Einheitsvektor $u$ mit $$ u^T u=1. $$ Alston Scott Householder fand die Householder-Transformationen $H$: $$ H = I - 2 u u^T $$

$H$ ist orthogonal $$ H^T = \left(I - 2 u u^T\right)^T = I - 2 u u^T $$ und symmetrisch: \begin{eqnarray} H^T H & = & \left(I - 2 u u^T\right)^T\left(I - 2 u u^T\right) \\ & = & \left(I - 2 u u^T\right)\left(I - 2 u u^T\right) \\ & = & I - 4 u u^T+4 u u^T u u^T \\ & = & I. \end{eqnarray}

Hadamard-Matrizen

Jacques Hadamard fand die Hadamard-Matrizen. $$ H_1=1 $$ $$ H_2=\left(\begin{array}{cc} 1 & 1\\ 1 & -1 \end{array}\right) $$ Damit konstruiert man: $$ H_4=\left(\begin{array}{cc} H_2 & H_2\\ H_2 & - H_2 \end{array}\right) =\left(\begin{array}{cccc} 1 & 1 & 1 & 1 \\ 1 & -1 & 1 & -1 \\ 1 & 1 & -1 & -1 \\ 1 & -1 & -1 & 1 \end{array}\right) $$ und allgemein: $$ H_{2n}=\left(\begin{array}{cc} H_n & H_n\\ H_n & - H_n \end{array}\right). $$ Man erkennt die Orthogonalität unmittelbar am Konstruktionsprinzip: Die Zeilen der Matrix sind orthogonal.

Gibt es $H_{12}$? Ja. Es ist möglich, aus einfacheren $m\times n$-Matrizen größere Hadamard-Matrizen zu erzeugen.

Wavelet-Matrizen

Im Zusammenhang mit Wavelets gibt es die Wavelet-Transformationen, die um 1910 von Alfréd Haar gefunden wurden. 1988 wurden von Ingrid Daubechies ganze Familien von Wavelets gefunden.

Haar-Wavelets.

$$ W_4=\left(\begin{array}{cccc} \frac{1}{2} & \frac{1}{2} & \frac{\sqrt{2}}{2} & 0 \\ \frac{1}{2} & \frac{1}{2} & -\frac{\sqrt{2}}{2} & 0 \\ \frac{1}{2} & -\frac{1}{2} & 0 & \frac{\sqrt{2}}{2} \\ \frac{1}{2} & -\frac{1}{2} & 0 & -\frac{\sqrt{2}}{2} \end{array}\right) $$ $$ W_8=\left(\begin{array}{cccccccc} \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & \frac{1}{2} & 0 & \frac{\sqrt{2}}{2} & 0 & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & \frac{1}{2} & 0 & -\frac{\sqrt{2}}{2} & 0 & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & -\frac{1}{2} & 0 & 0 & \frac{\sqrt{2}}{2} & 0 & 0 \\ \frac{\sqrt{2}}{4} & \frac{\sqrt{2}}{4} & -\frac{1}{2} & 0 & 0 & -\frac{\sqrt{2}}{2} & 0 & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & \frac{1}{2} & 0 & 0 & \frac{\sqrt{2}}{2} & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & \frac{1}{2} & 0 & 0 & -\frac{\sqrt{2}}{2} & 0 \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & -\frac{1}{2} & 0 & 0 & 0 & \frac{\sqrt{2}}{2} \\ \frac{\sqrt{2}}{4} & -\frac{\sqrt{2}}{4} & 0 & -\frac{1}{2} & 0 & 0 & 0 & -\frac{\sqrt{2}}{2} \end{array}\right) $$

Eigenwerte von symmetrischen und orthogonalen Matrizen

Symmetrische Matrizen $S$ erfüllen die Bedingung $$ S^T=S. $$ Ihre Eigenvektormatrizen sind orthogonal: $$ Q^T Q=I. $$

Beispiel: $$ Q=\left(\begin{array}{cccc} 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \end{array}\right) $$ Was ist die Eigenvektormatrix $F_4$ von $Q$? $Q$ ist eine Permutationmatrix. Ein Eigenvektor muss also ein Vektor sein, dessen Komponenten alle gleich sind, der Fouriervektor mit der Frequent $0$ in der ersten Spalte von $F_4$. $$ F_4=\left(\begin{array}{cccc} i^0 & i^0 & i^0 & i^0 \\ i^0 & i^1 & i^2 & i^3 \\ i^0 & i^2 & i^4 & i^6 \\ i^0 & i^3 & i^6 & i^9 \end{array}\right) =\left(\begin{array}{cccc} 1 & 1 & 1 & 1 \\ 1 & i & -1 & -i \\ 1 & -1 & 1 & -1 \\ 1 & -i & -1 & i \end{array}\right) $$ Um die Orthogonalität der Spalten von $F_4$ zu testen, muss beim Skalarprodukt das Konjugieren berücksichtigt werden: \begin{eqnarray} Q^T Q & = & I \\ Q x & = & \lambda x \\ Q y & = & \mu y \\ & \Rightarrow & \bar{x}^T y=0 \end{eqnarray}

Hat Ihnen der Artikel gefallen?

Sie kennen vielleicht von anderen Medien sogenannte "Bezahlwände". Sie erhalten die von Ihnen begehrten Informationen nur, wenn Sie den Artikel kaufen oder regelmäßig zahlen. Soweit kann ich es aus berufsethischen Gründen nicht kommen lassen, bitte Sie jedoch trotzdem darum, meine Arbeit mit einer Spende oder einer Schenkung zu unterstützen.

Tim Deutschmann

USt-IdNr.: DE342866832

IBAN: DE49 4306 0967 6023 3551 01
BIC: GENODEM1GLS

Verwendungszweck 'Schenkung' oder 'Spende'.

Liste mit Schenkenden und SpenderInnen, weitere Informationen zu meiner Finanzierung hier.

Kontakt- und Adressdaten:

E-mail: autor@tim-deutschmann.de
Keltenweg 22
69221 Dossenheim

Impressum

Querverweise auf 'Orthonormale Spalten in Q ergeben Q'Q=I'