Grundlagen

Homomorphismus:  Seien \(V, W\) \(K\)-Vektorräume. Eine Abbildung \(f: V \rightarrow W\) heißt
\(K\)-linear/lineare Transformation/Homomorphismus, falls für alle \(x, y \in V\), \(\lambda \in K\) gilt, dass \(f(x + y) = f(x) + f(y)\) und \(f(\lambda x) = \lambda f(x)\).

Mono-/Epi-/Iso-/Endo-/Automorphismus:  Ein Homomorphismus \(f: V \rightarrow W\) heißt Monomorphismus, falls \(f\) injektiv, Epimorphismus, falls \(f\) surjektiv, und Isomorphismus, falls \(f\) bijektiv ist. Ein Homomorphismus \(f: V \rightarrow V\) heißt Endomorphismus von \(V\) und Automorphismus von \(V\), falls \(f\) bijektiv ist.

isomorph:  Gibt es einen Isomorphismus zwischen den \(K\)-Vektorräumen \(V\) und \(W\), so heißen \(V\) und \(W\) isomorph. Man schreibt dann \(V \cong W\).

Satz (Umkehrabbildung als Isomorphismus): Sei \(f: V \rightarrow W\) Isomorphismus.
Dann ist \(f^{-1}: W \rightarrow V\) ebenfalls ein Isomorphismus.

Satz (Komposition von Homomorphismen): Die Komposition von Mono-/Epi-/Iso-/Homomorphismen ist ebenfalls ein Mono-/Epi-/Iso-/Homomorphismus.

Satz (Erzeugendensystem): Ein Homomorphismus \(f: V \rightarrow W\) ist vollständig durch die Werte auf einem Erzeugendensystem bestimmt. Es gilt also: Seien \(f, g: V \rightarrow W\) Homomorphismen und \(T\) Erzeugendensystem von \(V\). Gilt \(f(t) = g(t)\) für alle \(t \in T\), dann ist \(f = g\).

Satz (Basis): Seien \(\basis {B} = (v_1, \ldots , v_n)\) eine Basis von \(V\) und \(w_1, \ldots , w_n\) (nicht notwendig verschiedene) Vektoren aus \(W\). Dann gibt es genau eine lineare Transformation \(T: V \rightarrow W\) mit \(T(v_i) = w_i\) für \(i = 1, \ldots , n\). Es gilt \(T\left (\sum _{i=1}^n \lambda _i v_i\right ) = \sum _{i=1}^n \lambda _i w_i\) für alle \(\lambda _1, \ldots , \lambda _n \in K\).
(erweiterbar auf unendlich-dimensionale Vektorräume)

Satz (\(\im f\) Unterraum): Sei \(f: V \rightarrow W\) Homomorphismus. Dann ist \(\im f\) Unterraum von \(W\).

Satz (\(f(\basis {B})\) erzeugt \(\im f\)): Seien \(f: V \rightarrow W\) Homomorphismus und \(\basis {B}\) Basis von \(V\). Dann ist \(\aufspann {f(\basis {B})} = \im f\), d. h. die Bilder \(f(\basis {B}) = \{f(b) \;|\; b \in \basis {B}\}\) der Elemente einer beliebigen Basis von \(V\) bilden ein Erzeugendensystem von \(\im f\).

Satz (Monomorphismus \(\Leftrightarrow f(\basis {B})\) Basis von \(\im f\)): Sei \(\basis {B}\) eine Basis von \(V\) und \(f: V \rightarrow W\) Homomorphismus. Dann ist \(f\) Monomorphismus genau dann, wenn \(f(\basis {B})\) Basis von \(\im f\) ist.

Folgerung: Sei \(f: V \rightarrow W\) Monomorphismus, dann wird \(f\) durch Einschränkung des Wertevorrats ein Isomorphismus (\(f’: V \rightarrow \im f\)).

Folgerung: Ist \(f: V \rightarrow W\) ein Isomorphismus, so ist \(f(\basis {B})\) eine Basis von \(W\). Insbesondere haben isomorphe Vektorräume dieselbe Dimension.

Lemma (Pigeon-Hole-Principle): Seien \(\mathfrak {M}, \mathfrak {N}\) endliche Mengen derselben Mächtigkeit und
\(f: \mathfrak {M} \rightarrow \mathfrak {N}\) Abbildung. Dann ist \(f\) injektiv genau dann, wenn \(f\) surjektiv ist.

Satz (gleichdimensionale Vektorräume): Seien \(V, W\) endliche Vektorräume derselben Dimension und \(f: V \rightarrow W\) Homomorphismus. Dann ist \(f\) genau dann ein Isomorphismus, wenn \(f\) ein Mono- oder Epimorphismus ist.

Satz (isomorphe Vektorräume):
Zwei \(K\)-Vektorräume sind isomorph genau dann, wenn sie dieselbe Dimension haben.

Satz (Faktorräume): Seien \(U \ur V\) und \(W = V/U\).
Dann ist die Abbildung \(T: V \rightarrow W: v \mapsto \overline {v} = v + U\) ein Epimorphismus.

Satz (Isomorphismus bei Faktorräumen und Komplementen):
Sei \(W\) ein Komplement von \(U \ur V\). Für \(x \in V\) sei \(w_x \in W\) das eindeutig bestimmte Element in \(\overline {x}\). Dann ist \(\varphi : V/U \rightarrow W: \overline {x} \mapsto w_x\) ein Isomorphismus.

Kern:  Sei \(f: V \rightarrow W\) Homomorphismus. Dann ist der Kern von \(f\)
\(\ker f = f^{-1}(0) = \{v \in V \;|\; f(v) = 0_W\}\). Der Kern von \(f\) ist ein Unterraum von \(V\).

Satz (\(f\) injektiv \(\Leftrightarrow \ker f = (0)\)): Sei \(f: V \rightarrow W\) Homomorphismus.
Dann ist \(f\) injektiv genau dann, wenn \(\ker f = (0)\) ist.

Matrizen

Matrix (eines Homomorphismus):  Seien \(f: V \rightarrow W\) \(K\)-linear und \(\basis {B} = (v_1, \ldots , v_n)\),
\(\basis {C} = (w_1, \ldots , w_m)\) Basen von \(V\) bzw. \(W\). Für \(1 \le j \le n\) sei \(f(v_j) = \sum _{i=1}^m \alpha _{ij} w_i\).
Das Rechteckschema \(\hommatrix {f}{C}{B} = (\alpha _{ij})_{ij} =\) \(\begin {pmatrix} \alpha _{11} & \alpha _{12} & \cdots & \alpha _{1n} \\ \alpha _{21} & \alpha _{22} & \cdots & \alpha _{2n} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha _{m1} & \alpha _{m2} & \cdots & \alpha _{mn} \end {pmatrix}\) heißt Matrix der linearen Abbildung \(f\) bzgl. der Basen \(\basis {B}\) und \(\basis {C}\).

Lemma (Umrechnung von Koeffizienten): Seien \(f\) und \(\hommatrix {f}{C}{B}\) wie oben und \(x = \sum _{j=1}^n \lambda _j v_j\). Dann ist \(f(x) = \sum _{i=1}^m \mu _i w_i\) mit \(\mu _i = \sum _{j=1}^n \alpha _{ij} \lambda _j\).

Bemerkung: Man kann den \(i\)-ten Koeffizienten \(\mu _i\) in \(f(x) = \sum _{i=1}^m \mu _i w_i\) berechnen, indem man die \(i\)-te Zeile der Koeffizientenmatrix nimmt, auf \((\lambda _1, \ldots , \lambda _n)\) legt und die Einträge komponentenweise multipliziert und dann addiert. Man schreibt \(\begin {pmatrix} \alpha _{11} & \alpha _{12} & \cdots & \alpha _{1n} \\ \alpha _{21} & \alpha _{22} & \cdots & \alpha _{2n} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha _{m1} & \alpha _{m2} & \cdots & \alpha _{mn} \end {pmatrix} \begin {pmatrix}\lambda _1 \\ \vdots \\ \lambda _n\end {pmatrix} = \begin {pmatrix}\mu _1 \\ \vdots \\ \mu _m\end {pmatrix}\).

Folgerung: Das „Kochrezept“ kann man umschreiben: Für \(v \in K^n\) ist \((\hommatrix {f}{C}{B}v)_\basis {C} = f(v_\basis {B})\).

Folgerung: Für \(v_j\) gilt \(f(v_j) = {s_j}_\basis {C}\) (\(s_j\) ist die \(j\)-te Spalte von \(\hommatrix {f}{C}{B}\)).

Basiswechsel:  Mit \(f = \id _V\) ist ein Basiswechsel möglich. So ist \((\hommatrix {\id _V}{C}{B}v)_\basis {C} = v_\basis {B}\).
\(\hommatrix {\id _V}{C}{B}\) heißt dann Basiswechselmatrix.

Menge der Homomorphismen:  Seien \(V, W\) \(K\)-Vektorräume. Dann wird die Menge aller \(K\)-linearen Abbildungen von \(V\) nach \(W\) mit \(\Hom _K(V, W)\) bezeichnet.
Für \(V = W\) ist \(\Hom _K(V, V) = \End _K(V)\) die Menge aller Endomorphismen.

Matrix (allgemein):  Eine \(m \times n\)-Matrix \(A\) über dem Körper \(K\) ist ein rechteckiges Schema mit \(m \cdot n\) Einträgen \(\alpha _{ij} \in K\) (\(1 \le i \le m\), \(1 \le j \le n\)).
Man schreibt \(A = (\alpha _{ij})_{ij} = (\alpha _{ij}) =\) \(\begin {pmatrix} \alpha _{11} & \alpha _{12} & \cdots & \alpha _{1n} \\ \alpha _{21} & \alpha _{22} & \cdots & \alpha _{2n} \\ \vdots & \vdots & \ddots & \vdots \\ \alpha _{m1} & \alpha _{m2} & \cdots & \alpha _{mn} \end {pmatrix}\). Für \(m = n\) heißt \(A\) quadratisch. \(M_{m \times n}(K)\) ist die Menge aller \(m \times n\)-Matrizen über \(K\).

Satz (Aufspann der Spaltenvektoren): Seien \(f: V \rightarrow W\) Homomorphismus und \(A = \hommatrix {f}{C}{B}\). Sind \(s_1, \ldots , s_n \in K^m\) die Spaltenvektoren von \(A\), dann ist \(\aufspann {{s_1}_\basis {C}, \ldots , {s_n}_\basis {C}} = \im f\).

Satz (Zuordnung Matrix – Homomorphismus): \(\hommatrix {-}{C}{B}: \Hom _K(V, W) \rightarrow M_{m \times n}(K)\),
\(f \mapsto \hommatrix {f}{C}{B}\) ist eine bijektive Abbildung mit Umkehrabbildung
\(f_-(\basis {C}, \basis {B}): M_{m \times n}(K) \rightarrow \Hom _K(V, W)\), \(A \mapsto f_A(\basis {C}, \basis {B})\), wobei \(f_A(\basis {C}, \basis {B})\Bigg (\)\(\begin {pmatrix}\lambda _1 \\ \vdots \\ \lambda _n\end {pmatrix}_\basis {B}\)\(\Bigg ) = \Bigg (A\)\(\begin {pmatrix}\lambda _1 \\ \vdots \\ \lambda _n\end {pmatrix}\)\(\Bigg )_\basis {C}\).

Homomorphismen sind selbst Vektoren!

Addition und skalare Multiplikation von Homomorphismen:  Seien \(V, W\) \(K\)-VR’e, \(f, g \in \Hom _K(V, W)\) und \(\lambda \in K\). Die Summe \(f + g\) ist definiert als \((f + g)(v) = f(v) + g(v)\) und das skalare Vielfache \(\lambda f\) ist definiert als \((\lambda f)(v) = \lambda \cdot f(v)\), wobei \(v \in V\).

Satz (Homomorphismen als Vektorraum): Seien \(f, g \in \Hom _K(V, W)\) und \(\lambda \in K\). Dann sind \(f + g\) und \(\lambda f\) ebenfalls Homomorphismen von \(V\) nach \(W\). Die Menge der Homomorphismen \(\Hom _K(V, W)\) bildet mit diesen Operationen ein \(K\)-Vektorraum. Das Nullelement ist die Nullabbildung \(0_{VW}: V \rightarrow W\), \(v \mapsto 0_W\), für \(f\) ist das additiv Inverse \(-f: V \rightarrow W\), \(v \mapsto -f(v)\).

Addition und skalare Multiplikation von Matrizen:  Seien \(A = (\alpha _{ij})_{ij}\) und \(B = (\beta _{ij})_{ij}\) mit \(A, B \in M_{m \times n}(K)\) sowie \(\lambda \in K\). Die Summe \(A + B\) ist definiert als
\((\alpha _{ij})_{ij} + (\beta _{ij})_{ij} = (\alpha _{ij} + \beta _{ij})_{ij}\) und das skalare Vielfache \(\lambda A\) ist definiert als \(\lambda (\alpha _{ij})_{ij} = (\lambda \alpha _{ij})_{ij}\).

Satz (Matrizen als Vektorraum): Der Menge der \(m \times n\)-Matrizen über \(K\) \(M_{m \times n}(K)\) wird mit diesen beiden Operationen ein \(K\)-Vektorraum. Das Nullelement ist die Nullmatrix \(0 = (0)_{ij}\) und die zu \(A = (\alpha _{ij})_{ij}\) inverse Matrix ist \(-A = (-1) \cdot A = (-\alpha _{ij})_{ij}\).

Satz (Isomorphismus zwischen Homomorphismen und Matrizen):
Sind \(V\) und \(W\) endlich erzeugt mit Basen \(\basis {B} = (v_1, \ldots , v_n)\) und \(\basis {C} = (w_1, \ldots , w_m)\), so ist
\(\hommatrix {-}{C}{B}: \Hom _K(V, W) \rightarrow M_{m \times n}(K)\) ein Isomorphismus von \(K\)-Vektorräumen.

natürliche Basis von Matrizen:  \(\basis {E}(m, n) = \{E_{ij} \in M_{m \times n}(K) \;|\; 1 \le i \le m,\; 1 \le j \le n\}\) ist eine Basis von \(M_{m \times n}(K)\) und wird als natürliche Basis bezeichnet. Dabei ist \(E_{ij} = (\alpha _{kl})_{kl}\) mit \(\alpha _{kl} = 1\) für \((k, l) = (i, j)\) und \(\alpha _{kl} = 0\) sonst (für \(1 \le i \le m\) und \(1 \le j \le n\)).
\(E_{ij}\) ist also die \(m \times n\)-Matrix, die nur Nullen hat, außer beim \((i, j)\)-ten Eintrag, dort ist \(\alpha _{ij} = 1\).

Satz (zugehöriger Homomorphismus): Sei für \(1 \le i \le m\) und \(1 \le j \le n\) mit \(\varepsilon _{ij}: V \rightarrow W\), \(\varepsilon _{ij}(v_k) =\) \(\begin {cases}w_i & \text {für } j = k \\ 0_W & \text {für } j \not = k\end {cases}\) ein Homomorphismus definiert. Dann ist \(\hommatrix {\varepsilon _{ij}}{C}{B} = E_{ij}\).

Folgerung: Für \(\dim V = n\) und \(\dim W = m\) gilt \(\dim M_{m \times n}(K) = \dim \Hom _K(V, W) = m \cdot n\).

transponierte Matrix:  Sei \(A = (\alpha _{ij})_{ij} \in M_{m \times n}(K)\). Die transponierte Matrix
\(A^t \in M_{n \times m}(K)\) ist \(A^t = (\alpha _{ji})_{ij}\), d. h. Zeilen und Spalten von \(A\) werden vertauscht.
Das Transponieren ist \(K\)-linear, d. h. \((A + B)^t = A^t + B^t\) und \((\lambda A)^t = \lambda A^t\).

Komposition linearer Abbildungen

Bemerkung: Seien \(U, V, W\) \(K\)-Vektorräume sowie \(f: U \rightarrow V\) und \(g: V \rightarrow W\) Homomorphismen. Dann ist die Komposition \(g \circ f: U \rightarrow W: u \mapsto g(f(u))\) ebenfalls ein Homomorphismus.
\(\circ \) ist nicht kommutativ (\(f \circ g\) ist nur definiert für \(U = W\)), jedoch distributiv über \(+\).
Wie müssen die Matrizen \(A = \hommatrix {f}{B}{A}\) und \(B = \hommatrix {g}{C}{B}\) verrechnet werden, um die zugehörige Matrix der Komposition \(C = \hommatrix {g \circ f}{C}{A}\) zu bestimmen?

Matrizenmultiplikation:  Seien \(B = (\beta _{rk})_{rk} \in M_{m \times p}(K)\) und \(A = (\alpha _{kl})_{kl} \in M_{p \times n}(K)\) Matrizen. Dann ist mithilfe der Formel \(\gamma _{rl} = \sum _{k=1}^p \beta _{rk} \alpha _{kl}\) eine Matrix \(C = (\gamma _{rl})_{rl} \in M_{m \times n}\) gegeben. \(C = B \cdot A = BA\) ist das Produkt der Matrizen \(B\) und \(A\).

Bemerkung: Man erhält also den \((r, l)\)-ten Eintrag von \(C = BA\), indem man die \(r\)-te Zeile von \(B\) auf die \(l\)-te Spalte von \(A\) legt, paarweise multipliziert und addiert. \(B\) muss gleich viele Spalten wie \(A\) Zeilen haben. Die Multiplikation ist nicht kommutativ, aber assoziativ.

Satz (Komposition/Matrizenmultipl.): Seien \(U, V, W\) \(K\)-Vektorräume mit endlichen Basen \(\basis {A}\), \(\basis {B}\), \(\basis {C}\) und \(f: U \rightarrow V\), \(g: V \rightarrow W\) Homomorphismen. Dann ist \(\hommatrix {g \circ f}{C}{A} = \hommatrix {g}{C}{B} \cdot \hommatrix {f}{B}{A}\).

Endomorphismenringe

Bemerkung: Zwei Endomorphismen von \(V\) in sich können immer hintereinander ausgeführt werden und ergeben wieder einen Endomorphismus von \(V\). Auf der Matrizenseite entspricht dies der Multiplikation von quadratischen Matrizen, das Produkt ist wieder eine quadratische Matrix derselben Größe.

Satz (Komposition als Operation): Die Hintereinanderausführung von Endomorphismen eines Vektorraums \(V\) ist eine binäre Operation auf \(\End _K(V)\). Diese ist assoziativ und distributiv auf beiden Seiten über der Addition. \(\id _V \in \End _K(V)\) ist das neutrale Element bzgl. der Komposition. Es gilt \(\lambda (f \circ g) = (\lambda f) \circ g = f \circ (\lambda g)\) für \(f, g \in \End _K(V)\) und \(\lambda \in K\).

Satz (Matrizenmultiplikation als Operation): Sei \(n \in \natural \). Dann definiert die Matrizenmultiplikation eine binäre Operation auf der Menge \(M_n(K) = M_{n \times n}(K)\) der \(n \times n\)-Matrizen über \(K\). Diese ist assoziativ und distributiv auf beiden Seiten über der Addition von Matrizen.
Die Einheitsmatrix \(E_n =\)\(\begin {pmatrix}1 & \cdots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \cdots & 1\end {pmatrix}\) ist das neutrale Element bzgl. der Addition (Matrix von \(\id _V \in \End _K(V)\)). Sind \(A, B \in M_{n}(K)\) und \(\lambda \in K\), so ist \(\lambda (AB) = (\lambda A) B = A (\lambda B)\).

\(K\)-Algebra:  Eine \(K\)-Algebra ist ein \(K\)-Vektorraum \(A\), der zugleich ein Ring mit Eins ist, sodass für \(a, b \in A\), \(\lambda \in K\) gilt, dass \(\lambda (ab) = (\lambda a) b = a (\lambda b)\).

Satz (Endomorphismenringe): Sei \(V\) ein \(K\)-Vektorraum. Dann ist \(\End _K(V)\) eine \(K\)-Algebra, wobei die Multiplikation zweier Endomorphismen von \(V\) als Komposition definiert ist.

Satz (Ringe von quadratischen Matrizen): Sei \(n \in \natural \). Dann ist die Menge der \(n \times n\)-Matrizen \(M_n(K)\) eine \(K\)-Algebra der Dimension \(n^2\) mit der Matrizenmultiplikation.

Satz (\(\hommatrix {-}{B}{B}\) \(K\)-Algebraisomorphismus): Sei \(V\) ein \(K\)-Vektorraum mit Basis \(\basis {B}\).
Dann ist \(\hommatrix {-}{B}{B}: \End _K(V) \rightarrow M_n(K)\) ein Isomorphismus von \(K\)-Algebren.

Automorphismen und invertierbare Matrizen

invertierbar:  Sei \(A\) eine \(K\)-Algebra (Ring mit Eins) mit einem Einselement. Dann heißt \(a \in A\) invertierbar/Einheit, falls es ein multiplikativ Inverses zu \(a\) gibt, d. h. es gibt ein Element \(b \in A\), sodass \(ab = ba = 1\). Man schreibt \(b = a^{-1}\). Die Menge der invertierbaren Elemente von \(A\) ist multiplikativ abgeschlossen und bildet mit der Multiplikation eine Gruppe, die Gruppe \(U(A)\) der Einheiten oder Einheitengruppe in \(A\).

Einheitengruppe von quadratischen Matrizen:  Die Einheitengruppe \(U(M_{n \times n}(K))\) der \(K\)-Algebra \(M_{n \times n}(K)\) wird mit \(\GL _n(K)\) bezeichnet.

Satz (Homomorphismen und Einheiten): Seien \(A\), \(B\) \(K\)-Algebren (bzw. Ringe) sowie \(f: A \rightarrow B\) ein \(K\)-Algebrahomomorphismus (Ringhomomorphismus), dann ist \(f(U(A)) \subseteq U(B)\) und \(f|_{U(A)}\) von \(A\) auf \(U(A)\) ist ein Gruppenhomomorphismus von \(U(A)\) in die Einheitengruppe \(U(B)\) von \(B\). Ist \(f\) ein Isomorphismus, so auch \(f|_{U(A)}\).

Antihomomorphismus:  Seien \(A\), \(B\) \(K\)-Algebren (bzw. Ringe). Eine \(K\)-lineare Abbildung \(f: A \rightarrow B\) heißt Antihomomorphismus, falls \(f(ab) = f(b)f(a)\) für alle \(a, b \in A\). Analog sind Antimono-/epi-/isomorphismen und Antimorphismen für Gruppen definiert.

Satz (Transponieren): Sei \(n \in \natural \). Dann ist das Transponieren \(\_^t: M_{n \times n}(K) \rightarrow M_{n \times n}(K)\), \(A \mapsto A^t\) ein Antiautomorphismus. Seine Einschränkung auf invertierbare Matrizen ist ein Antiautomorphismus von \(\GL _n(K)\) und es gilt \((A^t)^{-1} = (A^{-1})^t\) für alle \(A \in \GL _n(K)\).

Der Rang einer Matrix

Bemerkung: \(V\) und \(W\) seien endliche \(K\)-Vektorräume mit Basen \(\basis {A}\) und \(\basis {B}\). Oft will man Basen von \(V\) und \(W\) finden, sodass die Matrix eines gegebenen Homomorphismus von \(V\) nach \(W\) bzgl. dieser Basen besonders „schön“ wird. Welche Matrizen erhält man also, wenn man den Homomorphismus \(f: V \rightarrow W\) festhält und die Basen \(\basis {A}, \basis {B}\) variiert?

Menge aller Matrizen mit beliebiger Basis:  Sei \(f: V \rightarrow W\) ein Homomorphismus. Dann ist \(\hommatrix {f}{-}{A}\) die Menge aller \(m \times n\)-Matrizen der Form \(\hommatrix {f}{B}{A}\), wobei \(\basis {B}\) alle Basen von \(W\) durchläuft. Analog sind \(\hommatrix {f}{B}{-}\) und \(\hommatrix {f}{-}{-}\) definiert.

invertierbare Matrizen:  Eine \(n \times n\)-Matrix \(A\) heißt invertierbar, falls es eine \(n \times n\)-Matrix \(B\) gibt, sodass \(AB = BA = E_n\). In diesem Fall ist \(B\) (die inverse Matrix von \(A\)) durch \(A\) eindeutig bestimmt, man schreibt \(B = A^{-1}\).
\(\GL _n(K)\) (generelle lineare Gruppe) ist die Menge aller invertierbaren \(n \times n\)-Matrizen.

Lemma (Basiswechselmatrizen): Basiswechselmatrizen aus \(\hommatrix {\id _V}{-}{-}\) sind invertierbar und invertierbare Matrizen sind Matrizen eines Basiswechsels. Also ist \(\hommatrix {\id _V}{-}{-} = \GL _n(K)\).

Satz (Komposition mittels invertierbaren Matrizen):
Für zwei Teilmengen \(A, B\) eines Rings \(R\) definiert man \(AB = \{ab \;|\; a \in A,\; b \in B\}\) und für \(r \in R\) ist \(rA = \{ra \;|\; a \in A\}\) bzw. \(Ar = \{ar \;|\; a \in A\}\).
Seien \(f \in \Hom _K(V, W)\) und \(\basis {A}, \basis {B}\) beliebige Basen von \(V\) und \(W\).
Dann ist \(\hommatrix {f}{-}{-} = \GL _m(K) \hommatrix {f}{B}{A} \GL _n(K)\).

Satz (äquivalente Matrizen): Seien \(f, g: V \rightarrow W\) Homomorphismen.
Dann ist entweder \(\hommatrix {f}{-}{-} \cap \hommatrix {g}{-}{-} = \emptyset \) oder \(\hommatrix {f}{-}{-} = \hommatrix {g}{-}{-}\). So ist auf \(M_{m \times n}(K)\) eine Äquivalenzrelation \(\approx \) definiert durch \(A \approx B \;\Leftrightarrow \; \exists _{f \in \Hom _K(V, W)}\; A, B \in \hommatrix {f}{-}{-}\).

äquivalente Matrizen:  Seien \(A, B \in M_{m \times n}(K)\). Dann ist \(A \approx B\) genau dann, wenn es \(X \in \GL _m(K)\) und \(Y \in \GL _n(K)\) gibt, sodass \(B = XAY\). \(A\) und \(B\) heißen dann äquivalent.

Spalten-/Zeilenrang:  Sei \(A \in M_{m \times n}(K)\). Dann ist der Spaltenrang von \(A\) die Dimension des von den Spaltenvektoren aufgespannten Unterraums des \(K^m\). Analog ist der Zeilenrang die Dimension des von den Zeilenvektoren aufgespannten Unterraums des \(K^n\).

Lemma (Spaltenrang gleich Dimension des Bildes): Sei \(f: V \rightarrow W\) ein Homomorphismus.
Dann ist der Spaltenrang von \(\hommatrix {f}{B}{A}\) gleich \(\dim _K(\im f)\).

Folgerung: Sei \(f: V \rightarrow W\) ein Homomorphismus.
Dann haben alle Matrizen in \(\hommatrix {f}{-}{-}\) denselben Spaltenrang gegeben durch \(\dim _K(\im f)\).

Satz (schöne Matrizen):

\(E_{m \times n}(k) =\)\(\begin {pmatrix} 1 & \cdots & 0 & 0 & \cdots & 0 \\ \vdots & \ddots & \vdots & \vdots & & \vdots \\ 0 & \cdots & 1 & 0 & \cdots & 0 \\ 0 & \cdots & 0 & 0 & \cdots & 0 \\ \vdots & & \vdots & \vdots & & \vdots \\ 0 & \cdots & 0 & 0 & \cdots & 0 \end {pmatrix}\)

Sei \(f: V \rightarrow W\) Homomorphismus und \(k = \dim (\im f)\). Dann ist \(E_{m \times n}(k) \in \hommatrix {f}{-}{-}\). Diese Matrix hat \(k\) viele Einsen und den Spalten-/Zeilenrang \(k\).

Daher besteht \(\hommatrix {f}{-}{-}\) genau aus allen

\(m \times n\)-Matrizen mit Spaltenrang \(k\).

Folgerung: Sei \(f: V \rightarrow W\) Homom. Dann ist \(\dim _K(\im f) + \dim _K(\ker f) = \dim _K(V)\).

Folgerung: Spalten- und Zeilenrang von Matrizen stimmen überein.

Rang:  Der Spalten-/Zeilenrang \(\rg (A)\) wird als Rang einer Matrix \(A\) bezeichnet.

Bemerkung: \(M_{m \times n}(K)\) hat genau \(k + 1\) Äquivalenzklassen \(\matrixm _i\) bezüglich \(\approx \), nämlich
\(\matrixm _i = \{A \in M_{m \times n}(K) \;|\; \rg (A) = i\}\) (\(i = 0, \ldots , k\), \(k = \min \{n, m\}\)).
Um den Rang einer Matrix auszurechnen, verändert man die Basen \(\basis {A}, \basis {B}\), bis sie die Form \(E_{m \times n}(k)\) hat. Dabei bleibt der Rang konstant und die Matrix hat dann den Rang \(k\).
d. h. man konstruiert Basen \(\basis {A’}, \basis {B’}\), sodass \(\hommatrix {f}{B’}{A’} = E_{m \times n}(k)\).

Lemma (Modifikation von Basen): Seien \(V\) ein \(K\)-Vektorraum und \(\basis {A} = (v_1, \ldots , v_n)\) eine Basis von \(V\). Dann ist \(\basis {A’}\) ebenfalls eine Basis von \(V\), wenn \(\basis {A’}\) durch folgende Modifikationen entsteht:
a) Vertauschen zweier Vektoren,   b) Multiplikation eines \(v_i\) mit einem Skalar \(\lambda \in K\) (\(\lambda \not = 0\)),
c) Ersetzen von \(v_i\) durch \(v_i’ = v_i + \lambda v_j\) mit \(1 \le j \le n\), \(\lambda \in K\).

elementare Operationen:  Sei \(A \in M_{m \times n}(K)\). Dann sind folgende Operationen elementare Zeilenoperationen: a) Vertauschen zweier Zeilen,   b) Multiplikation einer Zeile mit einem Skalar \(\lambda \not = 0\),   c) Addition des Vielfachen einer Zeile zu einer anderen.
Analog werden elementare Spaltenoperationen definiert.
Elementare Operationen sind elementare Zeilen-/Spaltenoperationen.

Elementarmatrizen:  Die Anwendung einer elementaren Operation auf eine Matrix \(A\) entspricht dem Produkt \(AM\) bzw. \(MA\) (für Spalten- bzw. Zeilenoperationen) mit einer geeigneten invertierbaren Matrix \(M\), die als Basiswechselmatrix aufgefasst werden kann. Diese Matrizen heißen Elementarmatrizen.

Satz (Rang bleibt erhalten): Unter elementaren Operationen bleibt der Rang erhalten.

Satz (Rang ausrechnen): Sei \(A \in M_{m \times n}(K)\). Dann gibt es eine Reihe von elementaren Operationen, die auf \(A\) angewendet die Matrix \(E_{m \times n}(k)\) ergeben, sodass \(k = \rg (A)\).

Prozedur (Rang einer Matrix ausrechnen): Der Rang einer Matrix kann ausgerechnet werden, indem man elementare Zeilen-/Spaltenoperationen verwendet, um \(E_{m \times n}(k)\) zu erreichen. Dann ist \(k\) der Rang der Matrix.

Folgerung: Ist \(A \in M_{n \times n}(K)\), so ist \(A\) genau dann invertierbar, wenn \(\rg (A) = n\).
\(E_{n \times n}(n) = E_n\) ist die Einsmatrix. Jede invertierbare Matrix ist Produkt von Elementarmatrizen. Sei \(A \in M_{m \times n}(K)\), dann ist \(\rg (A) = \rg (A^t)\).

augmentierte Matrix: 

\(\left (\begin {array}{ccc|ccc} \alpha _{11} & \cdots & \alpha _{1n} & \beta _{11} & \cdots & \beta _{1p} \\ \vdots & & \vdots & \vdots & & \vdots \\ \alpha _{m1} & \cdots & \alpha _{mn} & \beta _{m1} & \cdots & \beta _{mp} \end {array}\right )\)

Seien \(A = (\alpha _{ij}) \in M_{m \times n}(K)\) und \(B = (\beta _{ij}) \in M_{m \times p}(K)\). Dann entsteht die augmentierte Matrix \((A|B)\) durch Aneinanderfügen der Spalten von \(A\) und \(B\).

Prozedur (Matrix invertieren): Eine invertierbare \(n \times n\)-Matrix \(A\) kann man invertieren, indem man \((A | E_n)\) durch eine Folge elementarer Zeilenoperationen in \((E_n | A^{-1})\) umwandelt.

Zusätzliches: Projekt 5 (Nilpotenz und Homomorphismen)

nilpotent:  Sei \(A\) eine \(K\)-Algebra.
Ein Element \(x \in A\) heißt nilpotent, falls es ein \(n \in \natural \) gibt, sodass \(x^n = 0\).

Satz (nilpotente Elemente als Unterraum): Sei \(A\) eine \(K\)-Algebra. Ist die Multiplikation in \(A\) kommutativ, dann bilden die nilpotenten Elementen einen Unterraum vom \(K\)-Vektorraum \(A\).
Bei nicht-kommutativer Multiplikation stimmt dies i. A. nicht.

Satz (nilpotentes Element zu Einheit): Seien \(A\) eine \(K\)-Algebra und \(x \in A\) nilpotent.
Dann ist \(1 + x\) eine Einheit (d. h. invertierbar).

Homomorphismen bei Gruppen, Ringen und \(K\)-Algebren: 
Gruppe: \(f: G \rightarrow H\) mit \(f(x \circ y) = f(x) \bullet f(y)\) für alle \(x, y \in G\) für Gruppen \((G, \circ )\) und \((H, \bullet )\)
Ring: \(f: R \rightarrow S\) mit \(f(x + y) = f(x) \boxplus f(y)\) und \(f(x \cdot y) = f(x) \boxdot f(y)\) für alle \(x, y \in R\) für Ringe \((R, \boldsymbol{+}, \boldsymbol{\cdot })\) und \((S, \boxplus , \boxdot )\)
Ring mit Eins: wie Ring, aber zusätzlich \(f(1_R) = 1_S\), wobei \(1_R \in R\), \(1_S \in S\) Einselemente sind
\(K\)-Algebra: Vektorraumhomomorphismus \(f: A \rightarrow B\), der gleichzeitig Homomorphismus von Ringen mit Eins ist für \(K\)-Algebren \(A\) und \(B\)
Kerne der Homomorphismen sind die Urbilder der Nullelemente. \(\ker f\) und \(\im f\) sind Unterstrukturen, jedoch ist \(\ker f\) bei \(K\)-Algebren keine \(K\)-Algebra.