Bemerkung: Geometrie hat mit „Messen“ zu tun. Wichtige Hilfsmittel sind Längen- und Winkelmessung. Die Länge eines Vektors kann man mit Hilfe einer Norm definieren.

Norm:  Sei \(V\) ein \(K\)-Vektorraum, wobei \(K = \real \) oder \(K = \complex \). Eine Norm \(\norm {\cdot }\) auf \(V\) ist eine Abbildung \(\norm {\cdot }: V \rightarrow \real \), falls für alle \(v, v_1, v_2 \in V\) und \(\alpha \in K\) gilt:

  • \(\norm {v} \ge 0\)  sowie  \(\norm {v} = 0 \;\Leftrightarrow \; v = 0\)

  • \(\norm {\alpha v} = |\alpha | \norm {v}\)

  • \(\norm {v_1 + v_2} \le \norm {v_1} + \norm {v_2}\)

V zusammen mit einer Norm \(\norm {\cdot }\) heißt normierter Vektorraum. \(V\) wird mit der von der Norm induzierten Metrik \(d(v_1, v_2) = \norm {v_1 - v_2}\) (\(v_1, v_2 \in V\)) zum metrischen Raum.

Skalarprodukte

Bemerkung: Zur Winkelmessung werden innere Produkte bzw. Skalarprodukte benötigt.

Bilinearform:  Sei \(K\) ein Körper und \(V\) ein \(K\)-Vektorraum. Eine Abbildung \(\innerproduct {\cdot , \cdot }: V \times V \rightarrow K\) heißt bilinear, falls für alle \(x, y, z \in V\) und \(\alpha \in K\) gilt:

  • \(\innerproduct {x + y, z} = \innerproduct {x, z} + \innerproduct {y, z}\)

  • \(\innerproduct {x, y + z} = \innerproduct {x, y} + \innerproduct {x, z}\)

  • \(\innerproduct {\alpha x, y} = \innerproduct {x, \alpha y} = \alpha \innerproduct {x, y}\)

Eigenschaften einer reellen Bilinearform:  Sei \(\innerproduct {\cdot , \cdot }\) eine Bilinearform auf dem reellen Vektorraum \(V\). Dann heißt \(\innerproduct {\cdot , \cdot }\) symmetrisch, falls \(\innerproduct {x, y} = \innerproduct {y, x}\) für alle \(x, y \in V\). \(\innerproduct {\cdot , \cdot }\) heißt positiv semidefinit und positiv definit, falls \(\innerproduct {x, y} \ge 0\) und \(\innerproduct {x, x} = 0 \;\Leftrightarrow \; x = 0\) für alle \(x \in V\).

reelles Skalarprodukt:  Eine positiv definite symmetrische Bilinearform auf einem reellen Vektorraum \(V\) heißt (reelles) Skalarprodukt auf \(V\).
\(V\) zusammen mit einem reellen Skalarprodukt heißt euklidischer Vektorraum.

hermitesche Form:  Sei \(V\) ein komplexer Vektorraum. Eine Abbildung \(\innerproduct {\cdot , \cdot }: V \times V \rightarrow \complex \) heißt hermitesche Form, falls für alle \(x, y, z \in V\) und \(\lambda \in \complex \) gilt:

  • \(\innerproduct {x + y, z} = \innerproduct {x, z} + \innerproduct {y, z}\)

  • \(\innerproduct {\lambda x, y} = \lambda \innerproduct {x, y}\)

  • \(\innerproduct {x, y} = \kk {\innerproduct {y, x}}\)

Lemma (Eigenschaften der hermiteschen Form): Für eine hermitesche Form \(\innerproduct {\cdot , \cdot }\) gilt für alle \(x, y, z \in V\) und \(\lambda \in \complex \), dass \(\innerproduct {x, y + z} = \innerproduct {x, y} + \innerproduct {x, z}\), \(\innerproduct {x, \lambda y} = \kk {\lambda } \innerproduct {x, y}\) und \(\innerproduct {x, x} \in \real \).

Eigenschaften einer hermiteschen Form:  Eine hermitesche Form heißt positiv semidefinit, falls \(\innerproduct {x, x} \ge 0\) für alle \(x \in V\), und positiv definit, falls \(\innerproduct {x, x} > 0\) für \(x \in V\), \(x \not = 0\).

komplexes Skalarprodukt:  Eine positiv definite hermitesche Form auf einem komplexen Vektorraum \(V\) heißt (komplexes) Skalarprodukt auf \(V\).
\(V\) zusammen mit einem komplexen Skalarprodukt heißt unitärer Vektorraum.

Bemerkung: Im Folgenden sei \(K = \real \)/\(K= \complex \), \(V\) ein \(K\)-Vektorraum und \(\innerproduct {\cdot , \cdot }\) eine bilineare/hermitesche Form auf \(V\), sodass \(V\) mit dieser Form einen euklidischen/unitären Raum bildet.

vom Skalarprodukt induzierte Norm:  Sei \(x \in V\). Die Norm oder Länge von \(x\) ist die reelle Zahl \(\norm {x} = \sqrt {\innerproduct {x, x}}\). Insbesondere ist \(\norm {x} = 0 \;\Leftrightarrow \; x = 0\).

Einheitsvektoren:  Sei \(x \in V\), \(x \not = 0\). Dann hat \(\frac {x}{\norm {x}}\) die Länge 1.
Vektoren der Länge \(1\) heißen normiert oder Einheitsvektoren.

Satz (Ungleichung von Cauchy-Schwarz): Seien \(V\) ein euklidischer oder unitärer Vektorraum und \(x, y \in V\). Dann ist \(|\innerproduct {x, y}| \le \norm {x} \cdot \norm {y}\).

Folgerung: Seien \(V\) ein euklidischer oder unitärer Vektorraum und \(\norm {\cdot }\) die vom Skalarprodukt induzierte Norm. Dann ist \(V\) zusammen mit \(\norm {\cdot }\) ein normierter Vektorraum im Sinne der Definition der Norm, d. h. insbesondere ist die Dreiecksungleichung \(\norm {x + y} \le \norm {x} + \norm {y}\) für \(x, y \in V\) erfüllt.

Folgerung: Seien \(V\) ein euklidischer Vektorraum und \(\norm {\cdot }\) wie oben. Dann ist der Betrag von \(\cos (x, y) =\) \(\frac {\innerproduct {x, y}}{\norm {x} \cdot \norm {y}}\) eine reelle nicht-negative Zahl \(\le 1\). Insbesondere ist \(\cos (x, y) \in [-1, 1]\).

Winkel:  Seien \(V\) ein euklidischer Vektorraum und \(x, y \in V\). Dann ist der Winkel \(\alpha \) zwischen \(x\) und \(y\) (nicht eindeutig) gegeben durch \(\cos \alpha = \cos (x, y) =\) \(\frac {\innerproduct {x, y}}{\norm {x} \cdot \norm {y}}\).

Bemerkung: Wie herum soll der Winkel orientiert werden, was macht man für unitäre Vektorräume (dort kann \(\cos (x, y)\) auch komplex sein)? Für viele Anwendungen benötigt man keine echten Winkel, sondern nur das Prinzip der Orthogonalität.

Orthogonalität:  Sei \(V\) ein euklidischer/unitärer Vektorraum.
\(x\) und \(y\) sind orthogonal (\(x \orth y\)), falls \(\innerproduct {x, y} = 0\) ist (wobei \(x, y \in V\)).
\(M\) und \(N\) sind orthogonal (\(M \orth N\)), falls \(x \orth y\) für alle \(x \in M\), \(y \in N\) (wobei \(\emptyset \not = M, N \subseteq V\)).
\(M^\bot = \{v \in V \;|\; \forall _{m \in M}\; \innerproduct {v, m} = 0\}\) ist die Menge der zu \(M\) orthogonalen Vektoren.

Lemma (\(M^\bot \) als Unterraum): \(M^\bot \) ist ein Unterraum von \(V\).

orthogonales/orthonormales System:  Sei \(M \subseteq V\) mit \(M \not = \emptyset \). Dann heißt \(M\)
orthogonales System in \(V\), falls \(M\) aus paarweise orthogonalen Elementen \(\not =\) Nullvektor besteht.
\(M\) heißt orthonormales System, falls zusätzlich alle Vektoren normiert sind.

Satz (orthogonales System ist linear unabhängig):
Ein System orthogonaler Vektoren in \(V\) ist linear unabhängig.

Orthonormalbasis (ONB): 
Ein orthonormales Erzeugendensystem von \(V\) heißt Orthonormalbasis (ONB) von \(V\).

Prozedur (Orthonormalisierungsverfahren nach Gram-Schmidt):
Seien \(V\) ein euklidischer/unitärer Vektorraum, \(\basis {B} = (v_1, v_2, \ldots )\) eine endliche oder abzählbar unendliche, linear unabhängige Teilmenge von \(V\). Dann ist \(\basis {E} = (e_1, e_2, \ldots )\) von derselben Mächtigkeit folgendermaßen definiert:
1. \(e_1 =\) \(\frac {v_1}{\norm {v_1}}\)     2. \(e_k =\) \(\frac {x_k}{\norm {x_k}}\) mit \(x_k = v_k - \sum _{i=1}^{k-1} \innerproduct {v_k, e_i}e_i\)

Satz (Gram-Schmidt): Seien \(\basis {E}\) definiert wie oben, \(\basis {B}_k = (v_1, \ldots , v_k)\), \(U_k = \aufspann {\basis {B}_k}\) für ein \(k \le |\basis {B}|\) und \(\basis {B}\) Basis von \(V\). Dann ist \(\basis {E}_k = (e_1, \ldots , e_k)\) eine ONB von \(U_k\) und \(\basis {E}\) ist eine ONB von \(V\).
Die Basiswechselmatrix \(M_k = \matrixm _{\id _V}(\basis {E}_k, \basis {B}_k)\) ist eine obere Dreiecksmatrix mit \(\det (M_k) > 0\).

Satz (Koeffizienten eines Vektors bzgl. ONB):
Seien \(\basis {E} = (e_1, e_2, \ldots )\) eine ONB von \(V\) und \(x \in V\). Dann ist \(x = \innerproduct {x, e_1}e_1 + \innerproduct {x, e_2}e_2 + \cdots \).

Satz (Skalarprodukt zweier Vektoren bzgl. ONB): Seien \(x, y \in V\) mit \(x = \alpha _1 e_1 + \alpha _2 e_2 + \cdots \) und \(y = \beta _1 e_1 + \beta _2 e_2 + \cdots \). Dann ist \(\innerproduct {x, y} = \alpha _1 \kk {\beta _1} + \alpha _2 \kk {\beta _2} + \cdots \).

Satz (Orthogonalisierung):
Seien \(V\) ein euklidischer/unitärer Vektorraum, \(\basis {B} = (v_1, v_2, \ldots )\) eine linear unabhängige Teilmenge von \(V\). Dann ist \(\basis {E} = (x_1, x_2, \ldots )\) ein orthogonales System in \(V\), wobei:
1. \(x_1 = v_1\)     2. \(x_k = v_k - \sum _{i=1}^{k-1}\) \(\frac {\innerproduct {v_k, x_i}}{\norm {x_i}^2}\) \(x_i\)

Fourierkoeffizienten:  Seien \(V\) Vektorraum mit Skalarprodukt, \(\basis {B}\) orthonormales System und \(x \in V\). Dann heißen die Skalare \(\innerproduct {x, b}\) mit \(b \in \basis {B}\) Fourierkoeffizienten von \(x\) bzgl. \(\basis {B}\).

Schauderbasis:  Ein abzählbares orthonormales System mit der Eigenschaft, dass sich jeder Vektor als unendliche Linearkombination schreiben lässt, heißt Schauderbasis.

Satz (\(M^\bot \) als Komplement): Seien \(V\) ein Vektorraum mit Skalarprodukt und \(M, N \ur V\).
Ist \(M \orth N\), dann ist \(M \cap N = (0)\) und daher die Summe \(M + N\) direkt (insbesondere ist \(M + M^\bot \) direkt). Ist \(M\) endlich-dimensional, dann ist \(V = M \oplus M^\bot \).
Der Unterraum \(M^\bot \) ist das eindeutig bestimmte orthogonale Komplement von \(M\) in \(V\).
Jeder zu \(M\) orthogonale Unterraum von \(V\) ist in \(M^\bot \) enthalten.

Bemerkung: Ein Unterraum kann also viele Komplemente haben, aber nur ein orthogonales Komplement.

Folgerung: Seien \(V\) ein euklidischer/unitärer Vektorraum, \(W \ur V\) endlich-dimensional mit ONB \((e_1, ..., e_k)\) und \(y \in V\). Dann gibt es genau ein \(z \in W^\bot \) mit \(y = \sum _{i=1}^k \innerproduct {y, e_i}e_i + z\).
Der Vektor \(y_1 = y - z = \sum _{i=1}^k \innerproduct {y, e_i}e_i\) ist der eindeutig bestimmte Vektor von \(W\), der \(y\) am nächsten ist, d. h. \(\forall _{u \in W}\; \norm {y - y_1} \le \norm {y - u}\).

Folgerung: Seien \(V\) endlich-dimensional und \((e_1, \ldots , e_k)\) ein orthonormales System in \(V\).
Dann kann es zu einer ONB \((e_1, \ldots , e_k, e_{k+1}, \ldots , e_n)\) von \(V\) ergänzt werden und \((e_{k+1}, \ldots , e_n)\) ist ONB vom orthogonalen Komplement zu \(W = \aufspann {e_1, \ldots , e_k}\).

Folgerung: Es gilt \(\dim _K(V) = \dim _K(W) + \dim _K(W^\bot )\) für alle Unterräume \(W\) von \(V\).

Folgerung: Es gilt \((M^\bot )^\bot = M\) für jeden Unterraum \(M\) von \(V\).

Euklidische Vektorräume, orthogonale Abbildungen

orthogonale Abbildung: 
Seien \(V, W\) euklidische Vektorräume und \(f: V \rightarrow W\) eine \(\real \)-lineare Abbildung.
Dann ist \(f\) eine orthogonale Abbildung, falls \(\innerproduct {f(x), f(y)} = \innerproduct {x, y}\) für alle \(x, y \in V\).

Isometrie:  Ein orthogonaler Isomorphismus heißt auch Isometrie.
Euklidische Vektorräume heißen isometrisch, falls es eine Isometrie zwischen ihnen gibt.

Satz (äquivalente Aussagen): Seien \(V\) ein euklidischer Vektorraum endlicher oder abzählbar unendlicher Dimension, \(W\) ein euklidischer Vektorraum und \(f: V \rightarrow W\) ein Homomorphismus. Dann sind folgende Aussagen äquivalent:
1. \(f\) ist orthogonale Abbildung.   2. Für \(x \in V\) gilt \(\norm {x} = 1 \;\Rightarrow \; \norm {f(x)} = 1\).
3. Für \(x \in V\) gilt \(\norm {x} = \norm {f(x)}\).   4. Für jedes orthonormale System \(\basis {E} = (e_1, e_2, \ldots )\) in \(V\) ist \(\basis {E}^f = (f(e_1), f(e_2), \ldots )\) ebenfalls eines in \(W\).
5. Es gibt eine ONB \(\basis {B}\) von \(V\), sodass \(\basis {B}^f\) Orthonormalsystem ist.

Satz (orthogonale Abbildungen injektiv): Eine orthogonale Abbildung ist injektiv.
Ist insbesondere \(\dim _\real (V) = \dim _\real (W)\) und \(f: V \rightarrow W\) orthogonal, so ist \(f\) eine Isometrie.

orthogonale Gruppe:  Die Menge der Isometrien eines euklidischen Vektorraum in sich ist eine Untergruppe der linearen Gruppe \(\GL _\real (V)\) und wird orthogonale Gruppe \(O_\real (V)\) genannt.
Für \(V = \real ^n\) mit dem natürlichen Skalarprodukt ist \(O_n(\real )\) die Menge der reellen, orthogonalen \(n \times n\)-Matrizen.

Satz (Abbildung auf den \(\real ^n\)): Seien \(V\) ein euklidischer Vektorraum, \(\basis {B} = (x_1, \ldots , x_n)\) eine ONB von \(V\) und \(f: V \rightarrow \real ^n\), \(\sum _{i=1}^n \alpha _i x_i \mapsto (\alpha _1, \ldots , \alpha _n)\).
Dann ist \(f\) eine Isometrie sowie \(V\) und \(\real ^n\) isometrisch. \(f(\basis {B})\) ist die natürliche Basis des \(\real ^n\).

orthogonale Matrix:  Eine invertierbare Matrix \(A\) mit \(A^{-1} = A^t\) nennt man orthogonal.

Lemma (Matrizen und ONB von \(\real ^n\)): Die Spalten- bzw. Zeilenvektoren einer reellen Matrix \(A \in M_n(\real )\) bilden genau dann eine ONB von \(\real ^n\), wenn \(A\) orthogonal ist.

Folgerung: Seien \(A \in M_n(\real )\) und \(f_A: \real ^n \rightarrow \real ^n\), \(f_A(x) = Ax\). Dann ist die natürliche Basis von \(\real ^n\) orthonormal und \(f_A\) ist orthogonal genau dann, wenn \(A\) orthogonal ist.
So ist \(O_\real (V) \cong O_n(\real ) = \{A \in \GL _n(\real ) \;|\; A^{-1} = A^t\}\).

Folgerung: Seien \(f\) ein Endomorphismus des euklidischen Vektorraums \(V\), \(\basis {B}\) eine ONB von \(V\) und \(A = \hommatrix {f}{B}{B}\). Dann ist \(f\) orthogonal genau dann, wenn \(A\) orthogonal ist.

Folgerung: Sei \(\basis {E}\) eine endliche ONB des euklidischen Vektorraums \(V\). Dann ist eine Basis \(\basis {B}\) von \(V\) orthonormal genau dann, wenn \(A = \hommatrix {\id _V}{E}{B}\) orthogonal ist.

Folgerung: Die Determinante einer orthogonalen Abbildung \(f_A\) ist \(\pm 1\).

Hauptachsentheorem

symmetrische Matrix:  Eine Matrix \(A\) mit \(A^t = A\) nennt man symmetrisch.

orthogonal-äquivalent:  Zwei Endomorphismen \(f\) und \(g\) eines euklidischen Vektorraums \(V\) heißen orthogonal-äquivalent, falls es einen orthogonalen Automorphismus \(p\) von \(V\) mit \(g = p^{-1} \circ f \circ p\) gibt. Analog sind orthogonal-äquivalente quadratische reelle Matrizen definiert.

Satz (Hauptachsentheorem 1): Symmetrische reelle Matrizen sind diagonalisierbar.

Satz (Hauptachsentheorem 2): Jede reelle symmetrische Matrix ist orthogonal-äquivalent zu einer Diagonalmatrix.

Satz (\(x^t y = 0\) bei symmetrischen Matrizen): Seien \(A \in M_n(K)\) eine symmetrische Matrix und \(\lambda , \mu \in K\) verschiedene Eigenwerte (\(\lambda \not = \mu \)) mit Eigenvektoren \(x =\) \(\begin {pmatrix}x_1 \\ \vdots \\ x_n\end {pmatrix}\) bzw. \(y =\) \(\begin {pmatrix}y_1 \\ \vdots \\ y_n\end {pmatrix}\).
Dann ist \(x^t y = \sum _{i=1}^n x_i y_i = 0\).

Folgerung: Sei \(A \in M_n(\real )\) eine symmetrische reelle Matrix. Dann sind Eigenvektoren von \(A\) zu verschiedenen Eigenwerten orthogonal bzgl. des Standardskalarprodukts des \(\real ^n\).
Eigenräume zu verschiedenen Eigenwerten sind paarweise orthogonal.

Satz (komplexes Konjugat als EV/EW): Seien \(A \in M_n(\real )\) und \(\lambda \in \complex \) ein komplexer Eigenwert mit Eigenvektor \(x \in \complex ^n\) von \(A\). Dann ist \(\kk {x}\) Eigenvektor von \(A\) zum Eigenwert \(\kk {\lambda }\).

Satz (symmetrische, reelle Matrizen haben nur reelle EW):
Die Eigenwerte symmetrischer reeller \(n \times n\)-Matrizen sind alle reell.

Folgerung: Das charakteristische Polynom einer symmetrischen reellen \(n \times n\)-Matrix zerfällt über den reellen Zahlen in Linearfaktoren.

Satz (\(\real ^n\) besitzt eine Basis aus EV): Sei \(A\) eine symmetrische reelle \(n \times n\)-Matrix.
Dann besitzt \(\real ^n\) eine Basis aus Eigenvektoren.

Prozedur (Symmetrische reelle Matrix mit orthogonaler Matrix diagonalisieren):
Sei \(A\) eine symmetrische reelle \(n \times n\)-Matrix.

  • Man berechnet das charakteristische Polynom \(\chi _A(t)\) von \(A\). Es zerfällt in reelle Linearfaktoren \(\chi _A(t) = (t - \lambda _1)^{\nu _1} \cdots (t - \lambda _k)^{\nu _k}\), wobei die \(\lambda _i\) die paarweise verschiedenen Eigenwerte sind.

  • Für jeden Eigenwert \(\lambda _i\) berechnet man eine Basis \(\basis {B}_i\) des zugehörigen Eigenraums \(V_{\lambda _i}\) durch Lösen des LGS \((A - \lambda _i E_n)x = 0\). Für die Dimension gilt dann \(\dim V_{\lambda _i} = \nu _i\) und die \(V_{\lambda _i}\) sind paarweise orthogonal.

  • Jede Basis \(\basis {B}_i\) wird mithilfe des Verfahrens von Gram-Schmidt zu einer ONB \(\basis {C}_i\) von \(V_{\lambda _i}\) orthonormalisiert.

  • \(\basis {C} = \bigcup _{i=1}^k \basis {C}_i\) ist eine ONB von \(\real ^n\), da die \(\basis {C}_i\) paarweise orthogonal sind. Die Basiswechselmatrix \(P = \matrixm _{\id }(\basis {E}_n, \basis {C})\) ist eine orthogonale Matrix, daher ist \(P^{-1} = \matrixm _{\id }(\basis {C}, \basis {E}_n) = P^t\).
    Es gilt \(P^{-1} A P = D\), wobei in \(D = \diag \{\lambda _1, \ldots , \lambda _1, \lambda _2, \ldots , \lambda _2, \ldots , \lambda _k, \ldots , \lambda _k\}\) die \(\lambda _i\) jeweils \(\nu _i\) oft vorkommen.

Unitäre Abb. und Hauptachsentheorem für normale Endom.

unitäre Abbildung: 
Seien \(V, W\) unitäre Vektorräume und \(f: V \rightarrow W\) eine \(\complex \)-lineare Abbildung.
Dann ist \(f\) eine unitäre Abbildung, falls \(\innerproduct {f(x), f(y)} = \innerproduct {x, y}\) für alle \(x, y \in V\).

Satz (äquivalente Aussagen): Folgende Aussagen sind äquivalent:
1. \(f\) ist unitäre Abbildung.   2. Für \(x \in V\) gilt \(\norm {x} = 1 \;\Rightarrow \; \norm {f(x)} = 1\).
3. Für \(x \in V\) gilt \(\norm {x} = \norm {f(x)}\).   4. Für jedes orthonormale System \(\basis {E} = (e_1, e_2, \ldots )\) in \(V\) ist \(\basis {E}^f = (f(e_1), f(e_2), \ldots )\) ebenfalls eines in \(W\).
5. Es gibt eine ONB \(\basis {B}\) von \(V\), sodass \(\basis {B}^f\) Orthonormalsystem ist.

Satz (Aussagen über unitäre Abbildungen): Unitäre Abbildungen sind injektiv.
Jeder \(n\)-dimensionale unitäre Raum ist durch Wahl einer ONB isometrisch zum \(\complex ^n\) mit Standardskalarprodukt. Die Menge der unitären Isometrien von \(V\) in sich bildet eine Untergruppe von \(\Aut _\complex (V)\) und heißt unitäre Gruppe \(U_\complex (V)\).
Die konjugiert komplexe Matrix \(\kk {A}\) einer Matrix \(A = (\alpha _{ij}) \in M_n(\complex )\) ist \(\kk {A} = (\kk {\alpha _{ij}})\).

Adjungierte Matrix:  \(A^\ast = \kk {A}^t\) ist die adjungierte Matrix von \(A\).

Lemma (\(^\ast \) als semilinearer \(\complex \)-Algebraantiautomorphismus): Seien \(A, B \in M_n(\complex )\) und \(\lambda \in \complex \).
Dann gilt \({A^\ast }^\ast = A\),   \((A + B)^\ast = A^\ast + B^\ast \),   \((\lambda A)^\ast = \kk {\lambda } A^\ast \)  sowie  \((AB)^\ast = B^\ast A^\ast \).

unitäre, hermitesche und normale Matrizen:  Sei \(A \in M_n(\complex )\).
\(A\) ist unitär, falls \(A^{-1} = A^\ast \)   (\(\mathrel {\widehat {=}}\) orthogonale Matrix im Reellen).
\(A\) ist hermitesch oder selbstadjungiert, falls \(A = A^\ast \)   (\(\mathrel {\widehat {=}}\) symmetrische Matrix im Reellen).
\(A\) ist normal, falls \(A A^\ast = A^\ast A\).

Lemma (unitäre/hermitesche Matrizen normal): Unitäre und hermitesche Matrizen sind normal.

Satz (Matrizen und ONB von \(\complex ^n\)): Die Spalten- bzw. Zeilenvektoren einer Matrix \(A \in M_n(\complex )\) bilden genau dann eine ONB von \(\complex ^n\), wenn \(A\) unitär ist.

Satz (\(f\) unitär \(\Leftrightarrow \hommatrix {f}{B}{B}\) unitär): Seien \(V\) endlich-dimensional, \(\basis {B}\) eine ONB von \(V\) und
\(f \in \End _\complex (V)\). Dann ist \(f\) unitär genau dann, wenn \(\hommatrix {f}{B}{B}\) unitär ist.

adjungierter Endomorphismus:  Seien \(f \in \End _\complex (V)\), \(\basis {B} = (v_1, \ldots , v_n)\) eine ONB von \(V\) und \(A = (\alpha _{ij}) = \hommatrix {f}{B}{B}\). Dann heißt \(f^\ast : V \rightarrow V\) definiert durch \(f^\ast (v_j) = \sum _{i=1}^n \kk {\alpha _{ji}} v_i\) der zu \(f\) adjungierte Endomorphismus. Es gilt \(\hommatrix {f^\ast }{B}{B} = A^\ast = \left (\hommatrix {f}{B}{B}\right )^\ast \).

Folgerung: Seien \(f \in \End _\complex (V)\) und \(x, y \in V\). Dann ist \(\innerproduct {f(x), y} = \innerproduct {x, f^\ast (y)}\).

hermitesche und normale Endomorphismen:  Sei \(f \in \End _\complex (V)\). Dann ist \(f\) hermitesch, falls \(f = f^\ast \), und normal, falls \(f \circ f^\ast = f^\ast \circ f\). Hermitesche/normale Endomorphismen sind genau die Endomorphismen, deren Matrizen bzgl. einer ONB hermitesch/normal sind.

Folgerung: Seien \(f \in \End _\complex (V)\) hermitesch und \(x, y \in V\). Dann ist \(\innerproduct {f(x), y} = \innerproduct {x, f(y)}\).

Satz (\(f\) normal \(\Leftrightarrow \innerproduct {f(x), f(y)} = \innerproduct {f^\ast (x), f^\ast (y)}\)): Sei \(f \in \End _\complex (V)\).
Dann ist \(f\) normal genau dann, wenn \(\innerproduct {f(x), f(y)} = \innerproduct {f^\ast (x), f^\ast (y)}\) für alle \(x, y \in V\) gilt.

Folgerung: Ist \(f\) normal, dann gilt insbesondere \(\norm {f(x)} = \norm {f^\ast (x)}\) und \(\ker f = \ker f^\ast \) für alle \(x \in V\). Ist \(x \in \ker f\), dann ist \(\innerproduct {f^\ast (x), f^\ast (x)} = \innerproduct {f(x), f(x)} = 0\) und daher \(f^\ast (x) = 0\).

Satz (Eigenvektoren des adjungierten Endomorphismus): Seien \(f \in \End _\complex (V)\) normal und
\(x \in V\) ein EV von \(f\) zum EW \(\lambda \in \complex \). Dann ist \(f^\ast (x) = \kk {\lambda }x\), d. h. \(x\) ist EV von \(f^\ast \) zum EW \(\kk {\lambda }\). Insbesondere ist \(V_\lambda (f) = V_{\kk {\lambda }}(f^\ast )\).

Satz (Hauptachsentheorem für normale Abbildungen): Seien \(V\) ein endlich-dimensionaler unitärer Raum und \(f \in \End _\complex (V)\). Ist \(f\) normal, so besitzt \(V\) eine ONB aus Eigenvektoren von \(f\). Sind \(\basis {B}\) irgendeine ONB von \(V\) und \(A = \hommatrix {f}{B}{B}\), so ist \(A\) unitär-äquivalent zu einer Diagonalmatrix, d. h. es gibt eine unitäre Matrix \(P\), sodass \(P^{-1} A P\) Diagonalmatrix ist.

Satz (Spezialfall hermitesche Endomorphismen): Sei \(f \in \End _\complex (V)\) hermitesch. Dann sind alle Eigenwerte von \(f\) reell und \(V\) hat eine ONB bestehend aus Eigenvektoren von \(f\).
Ist \(A = \hommatrix {f}{B}{B}\) bzgl. einer ONB \(\basis {B}\) von \(V\), so ist \(A\) unitär-äquivalent zu einer reellen Diagonalmatrix.