Produktmaß, Satz von Fubini

Im Folgenden seien \((X, \mathcal {A}_X, \mu )\) und \((Y, \mathcal {A}_Y, \nu )\) Maßräume, wobei \(\mathcal {A}_X\) bzw. \(\mathcal {A}_Y\) \(\sigma \)-Algebren auf \(X\) bzw. \(Y\) sein sollen. Dabei ist \(a_X\) eine Menge \(a_X \in \mathcal {A}_X\) und \(a_Y\) eine Menge \(a_Y \in \mathcal {A}_Y\).
Man will nun ein Maß \(\mu \otimes \nu \) auf \(X \times Y\) konstruieren. Dabei sollen die Rechtecke \(a_X \times a_Y\) mit \(a_X \in \mathcal {A}_X\) und \(a_Y \in \mathcal {A}_Y\) messbar sein, wobei \((\mu \otimes \nu )(a_X \times a_Y) = \mu (a_X) \cdot \nu (a_Y)\).

Algebra \(\mathcal {A}_{X \times Y}\) auf \(X \times Y\):
Sind \((X, \mathcal {A}_X, \mu )\) und \((Y, \mathcal {A}_Y, \nu )\) Maßräume, so definiert man die \(\sigma \)-Algebra \(\mathcal {A}_{X \times Y}\) auf \(X \times Y\) als die kleinste \(\sigma \)-Algebra, die alle Rechtecke \(a_X \times a_Y\) mit \(a_X \in \mathcal {A}_X\), \(a_Y \in \mathcal {A}_Y\) enthält.

Satz: Sei \(E \in \mathcal {A}_{X \times Y}\) mit \(E_x := \{y \in Y \;|\; (x, y) \in E\}\) für \(x \in X\) und \(E_y := \{x \in X \;|\; (x, y) \in E\}\) für \(y \in Y\). Dann ist \(\forall _{x \in X}\; E_x \in \mathcal {A}_Y\) und \(\forall _{y \in Y}\; E_y \in \mathcal {A}_X\).

Für \(E \in \mathcal {A}_{X \times Y}\) sind also \(f(x) := \nu (E_x) \ge 0\) für \(x \in X\) und \(g(y) := \mu (E_y) \ge 0\) für \(y \in Y\) wohldefiniert, da \(E_x \in \mathcal {A}_Y\) und \(E_y \in \mathcal {A}_X\).

Für alle Rechtecke \(E = a_X \times a_Y\), \(a_X \in \mathcal {A}_X\), \(a_Y \in \mathcal {A}_Y\) gilt \(f(x) = \nu (a_Y)\) für \(x \in a_X\) und \(f(x) = 0\) für \(x \notin a_X\), analog \(g(y) = \mu (a_X)\) für \(y \in a_Y\) und \(g(y) = 0\) für \(y \notin a_Y\).
Daher gilt \(\int _X f(x) d\mu = \int _{a_X} \hspace {-1mm}\nu (a_Y) d\mu = \mu (a_X) \cdot \nu (a_Y) = \int _{a_Y} \mu (a_X) d\nu = \int _Y g(y) d\nu \), also \(\int _X f(x) d\mu = \int _Y g(y) d\nu \). Die Frage ist, ob dies für alle \(E \in \mathcal {A}_{X \times Y}\) gilt.

\(\sigma \)-finit: Ein Maßraum heißt \(\sigma \)-finit, falls die Grundmenge sich durch höchstens abzählbar viele Mengen von endlichem Maß überdecken lässt.

Lemma: Enthält ein monotones Mengensystem \(\mathcal {D}\) (d. h. aus \(E_n \in \mathcal {D}\), \(E_1 \subset E_2 \subset \dotsb \) folgt \(E = \bigcup _{n=1}^\infty E_n \in \mathcal {D}\) und aus \(E_n’ \in \mathcal {D}\), \(E_1’ \supset E_2’ \supset \dotsb \) folgt \(E’ = \bigcap _{n=1}^\infty E_n’ \in \mathcal {D}\)) einen Ring \(\mathcal {F}\), so enthält \(\mathcal {D}\) auch den minimalen \(\sigma \)-Ring \(\mathcal {F}^\ast \), der von \(\mathcal {F}\) erzeugt wird.

Satz: Seien \(\mu \) und \(\nu \) \(\sigma \)-finite Maße. Dann gilt \(\int _X \nu (E_x) d\mu = \int _Y \mu (E_y) d\nu \) für alle \(E \in \mathcal {A}_{X \times Y}\).

Satz: Seien \((X, \mathcal {A}_X, \mu )\) und \((Y, \mathcal {A}_Y, \nu )\) \(\sigma \)-finite Maßräume. Dann ist \(\mu \otimes \nu \colon \mathcal {A}_{X \times Y} \rightarrow [0, +\infty ]\) mit \((\mu \otimes \nu )(E) := \int _X \nu (E_x) d\mu = \int _Y \mu (E_y) d\nu \) ein Maß auf \(\mathcal {A}_{X \times Y}\) (Produktmaß).

Satz: Sei \(h\colon X \times Y \rightarrow \real \) bzgl. \(\mathcal {A}_{X \times Y}\) messbar.
Dann sind auch die Funktionen \(h(x, \cdot )\colon Y \rightarrow \real \) bzgl. \(\mathcal {A}_Y\) und \(h(\cdot , y)\colon X \rightarrow \real \) bzgl. \(\mathcal {A}_X\) messbar.

Für eine messbare Funktion \(h\colon X \times Y \rightarrow \real \) kann man das Doppelintegral \(\int _{X \times Y} h(x, y) d(\mu \otimes \nu )\) und die iterierten Integrale \(\int _Y (\int _X h(x, y) d\mu ) d\nu \) bzw. \(\int _X (\int _Y h(x, y) d\nu ) d\mu \) betrachten.

Satz von Fubini:
Sei \(h\colon X \times Y \rightarrow \real \) messbar mit \(h(x, y) \ge 0\) bzw. \(h \in L^1(X \times Y, \mu \otimes \nu )\).
Dann sind für fast alle \(x \in X\) die Funktion \(h(x, \cdot )\) und für fast alle \(y \in Y\) die Funktion \(h(\cdot , y)\) messbar und nicht-negativ bzw. integrierbar und es gilt
\(\int _X (\int _Y h(x, y) d\nu ) d\mu = \int _{X \times Y} h(x, y) d(\mu \otimes \nu ) = \int _Y (\int _X h(x, y) d\mu ) d\nu \).

Satz von Fubini-Tonelli:
Sei \(h\colon X \times Y \rightarrow \real \) messbar mit \(\int _X (\int _Y |h(x, y)|d\nu ) d\mu < \infty \) oder \(\int _Y (\int _X |h(x, y)|d\mu ) d\nu < \infty \).
Dann gilt \(h \in L^1(X \times Y, \mu \otimes \nu )\) und der Satz von Fubini lässt sich anwenden.

Folgerung: Seien \(h(x, y) \ge 0\) mit \(\int _{X \times Y} h(x, y) d(\mu \otimes \nu ) < \infty \), \(f(x) := \int _Y h(x, y) d\nu \) und
\(g(y) := \int _X h(x, y) d\mu \). Für \(h(x, y) \ge 0\) bzw. \(h \in L^1(X \times Y, \mu \otimes \nu )\) gilt nach dem Satz von Fubini \(f \in L^1(X, \mu )\) und \(g \in L^1(Y, \nu )\), d. h. \(f(x) < \infty \) \(\mu \)-f.-ü. und \(g(y) < \infty \) \(\nu \)-f.-ü. sowie \(\int _Y h(x, y) d\nu < \infty \) \(\mu \)-f.-ü. und \(\int _X h(x, y) d\mu < \infty \) \(\nu \)-f.-ü.

Falsch ist dagegen folgende Aussage: Aus \(|\int _X (\int _Y h(x, y) d\nu ) d\mu | < \infty \) und
\(|\int _Y (\int _X h(x, y) d\mu ) d\nu | < \infty \) folgt, dass die Integrale gleich sind.
Ein Gegenbeispiel ist \(X = Y = [0, 1]\) mit \(\mu = \nu \) dem Lebesgue-Maß und \(h(x, y) = \frac {x^2 - y^2}{(x^2 + y^2)^2}\).
Es gilt \(\int _0^1 \left (\int _0^1 h(x, y) \dx \right ) \dy = \int _0^1 \left (-\frac {1}{1 + y^2}\right ) \dx = -\frac {\pi }{2} \not = \frac {\pi }{2} = \int _0^1 \frac {1}{1 + x^2} \dx = \int _0^1 \left (\int _0^1 h(x, y) \dy \right ) \dx \).

Zur Substitution der Integrationsvariablen

Seien \((X, \mathcal {A}_X, \mu )\) ein Maßraum und \(f\colon D_X \rightarrow \real \) eine messbare Funktion mit \(D_X \subset X\).
Außerdem seien eine Menge \(Y\) und eine bijektive Abbildung \(\varphi \colon D_Y \rightarrow D_X\) mit \(D_Y \subset Y\) gegeben. Gesucht ist nun ein Maßraum \((Y, \mathcal {A}_Y, \nu )\), sodass \(\int _{D_Y} (f \circ \varphi )(y) d\nu = \int _{D_X} f(x) d\mu \) gilt.

Für die Teilmengen \(F \subset Y\) von \(Y\) soll dabei gelten, dass \(F \in \mathcal {A}_Y\) gilt genau dann, wenn \(E := \varphi (F) \in \mathcal {A}_X\) ist.

Da \(f\) nur auf \(D_X\) definiert ist, reduziert man die Maßräume auf \((D_X, \widetilde {\mathcal {A}}_X, \mu )\) und \((D_Y, \widetilde {\mathcal {A}}_Y, \nu )\), wobei für \(\widetilde {E} \subset D_X\) gilt, dass \(\widetilde {E} \in \widetilde {\mathcal {A}}_X\) genau dann, wenn \(\widetilde {E} = E \cap D_X\) für ein \(E \in \mathcal {A}_X\),
d. h. \(\widetilde {\mathcal {A}}_X := \{E \cap D_X \;|\; E \in \mathcal {A}_X\}\).

Daraus leitet man folgende Konstruktion für den Maßraum \((D_Y, \widetilde {\mathcal {A}}_Y, \nu )\) ab:

  • \(\widetilde {\mathcal {A}}_Y := \{F \subset D_Y \;|\; \varphi (F) \in \widetilde {\mathcal {A}}_X\}\)

  • \(\nu (F) := \mu (\varphi (F))\)

Beispiel: Seien \(f\colon [a, b] \rightarrow \real \) eine Funktion und \(\varphi \colon [\alpha , \beta ] \rightarrow [a, b]\) bijektiv mit \(\varphi \in \C ^1\).
Beim Riemann-Integral gilt der Transformationssatz \(\int _\alpha ^\beta (f \circ \varphi )(y) \varphi ’(y) \dy = \int _a^b f(x)\dx \).
Seine Entsprechung für das Lebesgue-Integral lautet \(\int _{[\alpha , \beta ]} (f \circ \varphi )(y) |\varphi ’(y)| \dy = \int _{[a, b]} f(x)\dx \). Dabei ist \(dx = d\mu \) als das „alte Maß“ (Lebesgue-Maß) und \(|\varphi ’(y)| dy = d\nu \) als das „neue“, substituierte Maß zu betrachten.
Der Absolutbetrag beim Lebesgue-Integral kommt daher, dass das Lebesgue-Integral ungerichtet ist und für \(\varphi \) monoton fallend (bijektiv, stetig) ändert sich das Integrationsgebiet nicht (von der Orientierung her).
Beim Riemann-Integral werden bei der Integration mit monoton fallendem \(\varphi \) die Grenzen vertauscht (d. h. aus \(\alpha < \beta \) folgt \(a > b\)), also ist ein zusätzliches Vorzeichen nötig, um die Vertauschung rückgängig zu machen.

Ein wichtiger Spezialfall des Transformationssatzes ist \(\varphi \colon \real ^n \rightarrow \real ^n\) mit \(x = \varphi (y) = Ay\), wobei \(x, y \in \real ^n\) und \(A\) eine lineare Abbildung ist. Gesucht ist ein Maß \(\nu \) auf \(\real ^n\), sodass \(\nu (F) = \mu (E)\) für \(E = \varphi (F)\). Das Volumen von \(E\) ist \(\vol (E) = |\det A| \cdot \vol (F)\). Daraus folgt mit \(d\nu = \left |\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\right | d^n y\) für das Maß von \(F\) \(\nu (F) = \int _F 1 d\nu = \int _F 1 \left |\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\right | d^n y\) bzw. als Transformationssatz \(\int _{D_y} (f \circ \varphi )(y) \left |\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\right | d^n y = \int _{D_x} f(x) d^n x\), wobei \(d^n x = d\mu \) das Lebesgue-Maß und \(\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\) die Jacobi-Matrix von \(\varphi \) ist.

Bei der multiplen Substitution mit \(\psi \colon \real ^n \rightarrow \real ^n\) und \(\varphi \colon \real ^n \rightarrow \real ^n\) bijektiv mit \(\psi , \varphi \in \C ^1\) sowie \(f\colon \real ^n \rightarrow \real \) gilt \(\int _{D_T} (f \circ \varphi \circ \psi )(t) \left |\frac {D(x_1, \dotsc , x_n)}{D(t_1, \dotsc , t_n)}\right | d^n t = \int _{D_Y} (f \circ \varphi )(y) \left |\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\right | d^n y = \int _{D_X} f(x) d^n x\) aufgrund \(\left |\frac {D(x_1, \dotsc , x_n)}{D(t_1, \dotsc , t_n)}\right | = \left |\frac {D(x_1, \dotsc , x_n)}{D(y_1, \dotsc , y_n)}\right | \cdot \left |\frac {D(y_1, \dotsc , y_n)}{D(t_1, \dotsc , t_n)}\right |\).

Transformationssatz für \(\real ^n\): Seien \(U, V \subset \real ^n\) offen und \(\varphi \colon U \rightarrow V\) bijektiv mit \(\varphi \) und \(\varphi ^{-1}\) stetig differenzierbar (d. h. \(\varphi \) ist Diffeomorphismus).
Dann ist eine Funktion \(f\colon V \rightarrow \real \) auf \(V\) integrierbar genau dann, wenn \((f \circ \varphi ) \cdot |\det \varphi ’|\) auf \(U\) integrierbar ist, und es gilt \(\int _U f(\varphi (x)) \cdot |\det \varphi ’(x)| \dx = \int _V f(y) \dy \).

Beispiel: Im \(\real ^2\) sei der Kreisauschnitt \(D_X\) mit Radius \(r\) und Winkel \(\frac {2\pi }{3} = 120^\circ \) gegeben. Wenn z. B. der Schwerpunkt von \(D_X\) berechnet werden soll, müssen Integrale wie \(\int _{D_X} x_1 d^2 x\) berechnet werden. Dies geht einfacher mit Koordinatentransformation in Polarkoordinaten, d. h. mit der Transformation \(\varphi (r, \theta ) = \begin {pmatrix}r \cos \theta \\ r \sin \theta \end {pmatrix} = \begin {pmatrix}x_1 \\ x_2\end {pmatrix}\).
Die Jacobi-Matrix ist \(\frac {D(x_1, x_2)}{D(r, \theta )} = \begin {pmatrix}\cos \theta & -r \sin \theta \\ \sin \theta & r \cos \theta \end {pmatrix}\), ihre Determinate ist \(\left |\frac {D(x_1, x_2)}{D(r, \theta )}\right | = r\).
Das Integrationsgebiet wird dabei auf \(D_Y := \left ]0, 1\right ] \times [0, 2\pi /3]\) transformiert. Die Gerade \(r = 0\) fehlt dabei, weil sonst die Abbildung nicht bijektiv wäre.
Nach dem Transformationssatz gilt \(\int _{D_X} x_1 d^2 x = \int _{D_y} (f \circ \varphi )(r, \theta ) r d(r, \theta )\) mit \(d\nu = r d(r, \theta )\), d. h. \(\int _{D_X} x_1 d^2 x = \int _{[0, 2\pi /3]} \left (\int _{\left ]0, 1\right ]} (f \circ \varphi )(r, \theta ) r\dr \right ) \d \phi = \int _0^{2\pi /3} \left (\int _0^1 (r \cos \theta ) r\dr \right ) d\theta \) (Fubini) usw.

Übersicht über verschiedene Koordinatentransformationen:

Name

Definition

Funktionaldeterminante

Polarkoordinaten

\(\varphi \colon \left [0, +\infty \right [ \times \left [0, 2\pi \right [ \rightarrow \real ^2\),
\(\varphi (r, \theta ) = \begin {pmatrix}r \cos \theta \\ r \sin \theta \end {pmatrix}\)

\(r\)

Zylinderkoordinaten

\(\varphi \colon \left [0, +\infty \right [ \times \left [0, 2\pi \right [ \times \real \rightarrow \real ^3\),
\(\varphi (r, \theta , z) = \begin {pmatrix}r \cos \theta \\ r \sin \theta \\ z\end {pmatrix}\)

\(r\)

Kugelkoordinaten

\(\varphi \colon \left [0, +\infty \right [ \times \left [0, 2\pi \right [ \times [0, \pi ] \rightarrow \real ^3\),
\(\varphi (r, \phi , \theta ) = \begin {pmatrix}r \sin \theta \cos \phi \\ r \sin \theta \sin \phi \\ r \cos \theta \end {pmatrix}\)

\(r^2 \sin \theta \)

Mannigfaltigkeiten im ℝⁿ

Im Folgenden werden Teilmengen \(S \subset \real ^n\) des \(\real ^n\) betrachtet. Für \(x \in S\) und \(\varepsilon > 0\) ist \(U_\varepsilon (x)\) die \(\varepsilon \)-Umgebung um \(x\), dabei soll \(U_\varepsilon ^S(x) := S \cap U_\varepsilon (x)\) der Schnitt der \(\varepsilon \)-Umgebung um \(x\) mit \(S\) sein. Außerdem sei \(V_k := U_1(0) \subset \real ^k\) die offene Einheitskugel im \(\real ^k\).

Mannigfaltigkeit (ohne Rand): \(S \subset \real ^n\) heißt \(k\)-dimensionale Mannigfaltigkeit,
falls es für alle Punkte \(x \in S\) ein \(\varepsilon (x) > 0\) und einen Homöomorphismus \(\varphi _x\colon V_k \rightarrow U_{\varepsilon (x)}^S(x)\) gibt (d. h. \(\varphi _x\) bijektiv mit \(\varphi _x\) und \(\varphi _x^{-1}\) stetig).
Für \(x \in S\) heißt das Paar \((\varphi _x, U_{\varepsilon (x)}^S(x))\) Karte und eine Menge von Karten \(\{(\varphi _x, U_{\varepsilon (x)}^S(x)\}\) heißt Atlas. Es gilt \(S = \bigcup _{x \in S} U_{\varepsilon (x)}^S(x)\), d. h. falls \(S\) kompakt ist, reichen endlich viele Karten zur Beschreibung von \(S\) aus.

Orientierung: Im \(\real ^k\) kann man eine (geordnete) Basis betrachten, z. B. die Einheitsbasis. Mit dem Vorzeichen der Determinante der Matrix, die die Basisvektoren als Spalten enthält, kann eine Art „Orientierung“ der Basis bestimmt werden. Im Spezialfall \(k = 3\) geht dies z. B. mit der Drei-Finger-Regel: Je nachdem, ob die rechte oder die linke Hand zur Darstellung der Basisvektoren benutzt werden kann, wird die Basis Rechts- oder Linkssystem genannt.

Ist nun eine \(k\)-dimensionale Mannigfaltigkeit \(S\) und ein Punkt \(x \in S\) gegeben, so kann man die Basis mittels des Homöomorphismus \(\varphi _x\) in den \(\real ^n\) transformieren. Wird die Orientierung der Basis dabei vertauscht, d. h. ist das Vorzeichen der Determinante der Matrix, die die Basis des \(\real ^k\) auf den \(\real ^n\) abbildet, negativ, so bezeichnet man den Homöomorphismus als orientierungsumkehrend. Ist das Vorzeichen positiv, so heißt er orientierungserhaltend.

Da \(\varphi _x\) stetig ist, kann die Orientierung im Punkt \(x\) auf die ganze Umgebung \(U_{\varepsilon (x)}^S(x)\) ausgedehnt werden. Betrachtet man jedoch einen weiteren Punkt \(\widetilde {x} \in S\), so kann es passieren, dass der Schnitt \(U_{\varepsilon (x)}^S(x) \cap U_{\varepsilon (\widetilde {x})}^S(\widetilde {x})\) der Umgebungen nicht-leer ist. Wenn die Orientierung in beiden Punkten dieselbe ist, so heißen die Karten \((\varphi _x, U_{\varepsilon (x)}^S(x))\) und \((\varphi _{\widetilde {x}}, U_{\varepsilon (\widetilde {x})}^S(\widetilde {x}))\) kompatibel.

Eine orientierbare Mannigfaltigkeit ist eine Mannigfaltigkeit, zu der es einen Atlas gibt, bei dem die Orientierung überall auf der Mannigfaltigkeit erhalten bleibt, d. h. alle Karten sind miteinander kompatibel.

Beispielsweise ist die Kugel eine orientierbare Mannigfaltigkeit, das Möbius-Band ist eine nicht-orientierbare Mannigfaltigkeit.

Mannigfaltigkeiten mit Rand: Eine Mannigfaltigkeit mit Rand ist eine Mannigfaltigkeit, bei der für jeden Punkt \(x \in S\) es nicht einen Homöomorphismus \(\varphi \) auf \(V_k\) geben muss, sondern stattdessen (alternativ) es einen Homöomorphismus \(\varphi _x^+\colon V_k^+ \rightarrow U_{\varepsilon (x)}^S(x)\) mit \(V_k^+ := \{t \in V_k \;|\; t_1 \ge 0\}\) geben kann. Falls es für \(x \in S\) den Homöomorphismus \(\varphi _x\) gibt, so heißt \(x\) innerer Punkt von \(S\) (\(x \in \Int S\)), falls es \(\varphi _x^+\) gibt, heißt \(x\) Randpunkt von \(S\) (\(x \in \partial S\)).

Es gilt \(\Int S \cap \partial S = \emptyset \). Der Rand von \(S\) ist selbst eine \(k - 1\)-dimensionale Mannigfaltigkeit mit leerem Rand, d. h. \(\partial (\partial S) = \emptyset \). Bei der Bestimmung der Orientierung in einem Randpunkt \(x \in \partial S\) wird ein zusätzlicher Basisvektor am Rand eingefügt, der von der Mannigfaltigkeit wegzeigt, sodass die Orientierung mit den inneren Punkten übereinstimmt.

Oberflächeninhalt und Volumen im ℝⁿ

Parallelepiped: Ein \(k\)-dimensionales Parallelepiped \(P\) im \(\real ^n\) ist der Aufspann von \(k\) linear unabhängigen Vektoren \(\xi _1, \dotsc , \xi _k \in \real ^n\), wobei die Koeffizienten zwischen \(0\) und \(1\) liegen müssen, d. h. \(P = \left \{\sum _{i=1}^k \alpha _i \xi _i \;|\; 0 \le \alpha _i \le 1\right \}\).
Für \(k = 2\) bzw. \(k = 3\) nennt man \(P\) auch Parallelogramm bzw. Spat.

Wie groß ist das \(k\)-dimensionale Volumen von \(P\)?

Für \(k = n\) gilt für das Volumen \(\vol _n(P) = |\det J|\) mit \(J := (\xi _1, \dotsc , \xi _n)\) (die Matrix, in der die aufspannenden Vektoren \(\xi _1, \dotsc , \xi _n\) als Spalten stehen).

Für \(k < n\) ist \(J = (\xi _1, \dotsc , \xi _k)\) nicht quadratisch.
Man definiert die Gramsche Matrix \(G := J^t J = (g_{ij})_{i,j=1}^n\) mit \(g_{ij} = \innerproduct {\xi _i, \xi _j}\) und das Volumen beträgt \(\vol _k(P) := \sqrt {\det J^t J} \ge 0\). Im Spezialfall \(k = n\) ist \(\vol _n(P) = |\det J|\) wie oben.

Für \(k\)-dimensionale Mannigfaltigkeiten \(S \subset \real ^n\) und Abbildungen \(\varphi \colon D \rightarrow \varphi (D)\) mit \(D \subset \real ^k\), \(\varphi (D) \subset S\) sowie \(\varphi \in \C ^1\) ergibt sich die Formel \(\vol _k(\varphi (D)) := \int _D \sqrt {\det \left (\innerproduct {\frac {\partial \varphi }{\partial t_i}, \frac {\partial \varphi }{\partial t_j}}\right )_{i,j=1}^k} d^k t\).
Für \(k = n\) entspricht die innere Matrix \(G\) mit \(G = J^t J\) und der Jacobi-Matrix \(J = \left (\frac {\partial \varphi _i}{\partial t_j}\right )_{i,j=1}^n\).
Daher ist \(\sqrt {\det G} = |\det J|\) und die Formel stimmt mit dem Transformationssatz überein.

Beispiel: Für \(k = 1\) sei \(\varphi \colon D \rightarrow \varphi (D)\) mit \(\varphi \in \C ^1\) bijektiv und \(D \subset \real \), \(\varphi (D) \subset \real ^n\). Dann gilt \(G = \left (\frac {d \varphi _1}{dt}\right )^2 + \dotsb + \left (\frac {d \varphi _n}{dt}\right )^2\), d. h. \(\sqrt {G} = \norm {\dot {\varphi }}\) und es ergibt sich die korrekte Formel für den Weg \(\int _D \norm {\dot {\varphi }} \dt \) (\(1\)-dimensionales Volumen im \(\real ^n\)).

Beispiel: Gegeben sei eine Funktion \(f\colon \real ^2 \rightarrow \real \) mit \(f \in \C ^1\). Man betrachte die Fläche, die entsteht, wenn man \(f(x, y) \in \real \) über \((x, y) \in \real ^2\) aufträgt (\(2\)-dim. Mannigfaltigkeit). Gesucht ist für eine Menge \(D \subset \real ^2\) der zweidimensionale Flächeninhalt von \(\varphi (D)\) mit \(\varphi (u, v) = (u, v, f(u, v))^t\). Aufgrund \(\frac {\partial \varphi }{\partial u} = (1, 0, f_u’)^t\) und \(\frac {\partial \varphi }{\partial v} = (0, 1, f_v’)^t\) gilt \(G =\) \(\begin {pmatrix}1 + (f_u’)^2 & f_u’ f_v’ \\ f_u’ f_v’ & 1 + (f_v’)^2\end {pmatrix}\), d. h.
\(\det G = 1 + (f_u’)^2 + (f_v’)^2\) bzw. \(\vol _2(\varphi (D)) = \int _D \sqrt {1 + (f_u’)^2 + (f_v’)^2} \du \dv \).

Differentialformen

Seien \(X\) ein \(\real \)-Vektorraum mit \(\dim X =: n\). \(X^k\) bezeichne das \(k\)-fache kartesische Produkt von \(X\) mit sich selbst. Man definiert den Raum der \(k\)-fachen Multilinearformen
\(\L _k(X, \real ) := \{F\colon X^k \rightarrow \real \;|\; F \text { in jeder Komponente linear}\}\). Zum Beispiel ist \(\L _1(X, \real ) =: X’\) der Dualraum und \(\L _2(X, \real )\) enthält alle bilinearen Abbildungen.

Tensorprodukt: Für \(p\)- bzw. \(q\)-fache Multilinearformen \(F’ \in \L _p(X, \real )\) bzw. \(F’’ \in \L _q(X, \real )\) ist der Tensor \(F’ \otimes F’’ \in \L _{p+q}(X, \real )\) eine \(p + q\)-fache Multilinearform, wobei
\((F’ \otimes F’’)(\xi _1, \dotsc , \xi _p, \xi _{p+1}, \dotsc , \xi _{p+q}) := F’(\xi _1, \dotsc , \xi _p) \cdot F’’(\xi _{p+1}, \dotsc , \xi _{p+q})\).
Die Abbildung \(\otimes \colon \L _p(X, \real ) \times \L _q(X, \real ) \rightarrow \L _{p+q}(X, \real )\) heißt Tensorprodukt.

Das Tensorprodukt erfüllt Assoziativität (\(F’ \otimes (F’’ \otimes F’’’) = (F’ \otimes F’’) \otimes F’’’\)), Distributivität (\((F_1’ + F_2’) \otimes F’’ = (F_1’ \otimes F’’) + (F_2’ \otimes F’’)\) und \(F’ \otimes (F_1’’ + F_2’’) = (F’ \otimes F_1’’) + (F’ \otimes F_2’’)\)) sowie Assoziativität mit der skalaren Multiplikation (\((\lambda F’) \otimes F’’ = F’ \otimes (\lambda F’’) = \lambda (F’ \otimes F’’)\)).

Ist \(e_1, \dotsc , e_n\) eine Basis von \(X\), so kann man Vektoren \(\xi _\ell \in X\), \(\ell = 1, \dotsc , k\) eindeutig als Linearkombination \(\xi _\ell = \sum _{j_\ell =1}^n \xi _\ell ^{j_\ell } e_{j_\ell } =: \xi _\ell ^{j_\ell } e_{j_\ell }\) schreiben. Die letzte Schreibweise entspricht der Einsteinschen Summenkonvention. Sie besagt, dass bei Termen, in denen Indizes doppelt auftauchen, über diese Indizes summiert werden muss. Diese Notation wird im Folgenden exzessiv angewandt.

Koordinatentransformation in \(X\):
Ist \(\widetilde {e}_1, \dotsc , \widetilde {e}_n\) eine zweite Basis von \(X\), so kann die Basis \(e_1, \dotsc , e_n\) in \(\widetilde {e}_1, \dotsc , \widetilde {e}_n\) mittels einer Basiswechselmatrix \(C = (c_j^i)_{i,j=1}^n\) überführt werden, d. h. \(\widetilde {e}_j = c_j^i e_i\). Für \(\xi \in X\) gibt es eindeutige Darstellungen als Linearkombination der Basen \(\xi = \xi ^j e_j = \widetilde {\xi }^j \widetilde {e}_j = \widetilde {\xi }^\ell c_\ell ^j e_j\), d. h. es muss aufgrund der Eindeutigkeit \(\xi ^j = \widetilde {\xi }^\ell c_\ell ^j\) gelten.

Koordinatentransformation in \(\L _1(X, \real ) = X’\):
Für \(F \in X’\) gilt \(F[\xi ] = F[\xi ^j e_j] = \xi ^j F[e_j] = \xi ^j a_j\) mit \(a_j := F[e_j]\). Es gilt \(F = a_j e^j\), wobei \(e^1, \dotsc , e^n \in X’\) mit \(e^j[e_k] := \delta _{kj}\) eine Basis von \(X’\) ist (es gilt \(e^j[\xi ] = e^j[\xi ^k e_k] = \xi ^k \delta _{kj} = \xi ^j\), d. h. \(e^j\) ist die Projektion auf die \(j\)-te Komponente). Für die zweite Basis gilt nun \(F = \widetilde {a}_\ell \widetilde {e}^j\) mit \(\widetilde {a}_\ell := F[\widetilde {e}_\ell ] = F[c_\ell ^j e_j] = c_\ell ^j F[e_j] = c_\ell ^j a_j\), d. h. \(\widetilde {a}_\ell = c_\ell ^j a_j\).

Koordinatentransformation in \(\L _k(X, \real )\):
Wendet man eine \(k\)-fache Multilinearform \(F \in \L _k(X, \real )\) auf \(\xi _1, \dotsc , \xi _k \in X\) an, so erhält man \(F[\xi _1, \dotsc , \xi _k] = F[\xi _1^{i_1} e_{i_1}, \dotsc , \xi _k^{i_k} e_{i_k}] = \xi _1^{i_1} \dotsm \xi _k^{i_k} F[e_{i_1}, \dotsc , e_{i_k}] = \xi _1^{i_1} \dotsm \xi _k^{i_k} a_{i_1, \dotsc , i_k}\)
mit \(a_{i_1, \dotsc , i_k} := F[e_{i_1}, \dotsc , e_{i_k}]\), d. h. \(F = a_{j_1, \dotsc , j_k} (e^{j_1} \otimes \dotsb \otimes e^{j_k})\) mit
\((e^{j_1} \otimes \dotsb \otimes e^{j_k})[\xi _1, \dotsc , \xi _k] = e^{j_1}[\xi _1] \dotsm e^{j_k}[\xi _k] = \xi _1^{j_1} \dotsm \xi _k^{j_k}\).
Für die zweite Basis gilt nun \(F = \widetilde {a}_{j_1, \dotsc , j_k} (\widetilde {e}^{j_1} \otimes \dotsb \otimes \widetilde {e}^{j_k})\) mit
\(\widetilde {a}_{i_1, \dotsc , i_k} := F[\widetilde {e}_{i_1}, \dotsc , \widetilde {e}_{i_k}] = F[c_{i_1}^{j_1} e_{j_1}, \dotsc , c_{i_k}^{j_k} e_{j_k}] = c_{i_1}^{j_1} \dotsm c_{i_k}^{j_k} a_{j_1, \dotsc , j_k}\).

antisymmetrisch: Eine \(k\)-fache Multilinearform \(F \in \L _k(X, \real )\) heißt antisymmetrisch oder alternierend, falls \(F[\xi _1, \dotsc , \xi _i, \dotsc , \xi _j, \dotsc , \xi _k] = -F[\xi _1, \dotsc , \xi _j, \dotsc , \xi _i, \dotsc , \xi _k]\)
für alle \(\xi _1, \dotsc , \xi _k \in X\), \(i \not = j\).
Die Menge \(\Omega _k(X, \real ) := \{F \in \L _k(X, \real ) \;|\; F \text { antisymmetrisch}\} \subset \L _k(X, \real )\) ist ein Vektorraum.

Beispiel: \(F[\xi _1, \dotsc , \xi _n] := \det (\xi _k^\ell )_{k,\ell =1}^n\) ist eine \(n\)-fache antisymmetrische Multilinearform.

Antisymmetrisierungsabbildung: Für \(k \in \natural \) ist die Antisymmetrisierungsabbildung
\(\A \colon \L _k \rightarrow \Omega _k\) definiert durch \((\A F)[\xi _1, \dotsc , \xi _k] := \frac {1}{k!} F[\xi _{i_1}, \dotsc , \xi _{i_k}] \sigma _{1,\dotsc ,k}^{i_1,\dotsc ,i_k}\)
mit dem Levi-Civita-Symbol \(\sigma _{1,\dotsc ,k}^{i_1,\dotsc ,i_k} :=\) \(\begin {cases} 0 & i_1, \dotsc , i_k \text { keine Permutation von } 1, \dotsc , k \\ 1 & \text {gerade Permutation} \\ -1 & \text {ungerade Permutation}. \end {cases}\)
Sie weist jeder \(k\)-fachen Multilinearform \(F \in \L _k(X, \real )\) auf kanonische Weise eine \(k\)-fache antisymmetrische Multilinearform \(\A F \in \Omega _k(X, \real )\) zu.

Man kann auch \((\A F)[\xi _1, \dotsc , \xi _k] = \frac {1}{k!} \sum _{\pi \in \mathfrak {S}_k} \sign (\pi ) \cdot F[\xi _{\pi (1)}, \dotsc , \xi _{\pi (k)}]\) schreiben, wobei \(\mathfrak {S}_k\) die symmetrische Gruppe ist.

\(\A \) ist linear, d. h. \(\A (F’ + F’’) = \A F’ + \A F’’\) und \(\A (\lambda F) = \lambda (\A F)\).
Es gilt \(\A (e^{j_1} \otimes \dotsb \otimes e^{j_k})[\xi _1, \dotsc , \xi _k] = \frac {1}{k!} e^{j_1}[\xi _{i_1}] \dotsm e^{j_k}[\xi _{i_k}] \sigma _{1,\dotsc ,k}^{i_1,\dotsc ,i_k} = \frac {1}{k!} \xi _{i_1}^{j_1} \dotsm \xi _{i_k}^{j_k} \sigma _{1,\dotsc ,k}^{i_1,\dotsc ,i_k}\), d. h.
\(\A (e^{j_1} \otimes \dotsb \otimes e^{j_k})[\xi _1, \dotsc , \xi _k] = \frac {1}{k!} \cdot \det \)\(\begin {pmatrix}\xi _1^{j_1} & \dots & \xi _k^{j_1} \\ \vdots & & \vdots \\ \xi _1^{j_k} & \dots & \xi _k^{j_k}\end {pmatrix}\).

äußeres Produkt: Für \(p\)- bzw. \(q\)-fache antisymmetrische Multilinearformen \(\omega ’ \in \Omega _p\) bzw. \(\omega ’’ \in \Omega _q\) ist das äußere Produkt \(\omega ’ \land \omega ’’ \in \Omega _{p+q}\) eine \(p + q\)-fache antisymmetrische Multilinearform, wobei \(\omega ’ \land \omega ’’ := \frac {(p + q)!}{p! \cdot q!} \A (\omega ’ \otimes \omega ’’)\). Dies definiert eine Abbildung \(\land \colon \Omega _p \times \Omega _q \rightarrow \Omega _{p+q}\).

Man kann auch \((\omega ’ \land \omega ’’)[\xi _1, \dotsc , \xi _p, \xi _{p+1}, \dotsc , \xi _{p+q}]\)
\(= \frac {1}{p! \cdot q!} \sum _{\pi \in \mathfrak {S}_{p+q}} \sign (\pi ) \cdot \omega ’[\xi _{\pi (1)}, \dotsc , \xi _{\pi (p)}] \cdot \omega ’’[\xi _{\pi (p+1)}, \dotsc , \xi _{\pi (p+q)}]\) schreiben.

Das äußere Produkt erfüllt Distributivität (\((\omega _1’ + \omega _2’) \land \omega ’’ = \omega _1’ \land \omega ’’ + \omega _2’ \land \omega ’’\)), Assoziativität, Assoziativität mit der skalaren Multiplikation (\((\lambda \omega ’) \land \omega ’’ = \lambda (\omega ’ \land \omega ’’) = \omega ’ \land (\lambda \omega ’’)\)) und
Antikommutativität (\(\omega ’ \land \omega ’’ = (-1)^{pq} \omega ’’ \land \omega ’\)). Daraus folgt dann für \(\omega \in \Omega _{p}\) und \(p\) ungerade, dass \(\omega \land \omega = 0\) (im Falle von \(p\) gerade ist i. A. \(\omega \land \omega \not = 0\)).

Beispiel: Für \(p = q = 1\) und \(e^{i_1}, e^{i_2} \in \Omega _1 = \L _1 = X’\) ist \((e^{i_1} \land e^{i_2})[\xi _1, \xi _2] = \frac {2!}{1! \cdot 1!} \cdot \frac {1}{2!} \det \)\(\begin {pmatrix}\xi _1^{i_1} & \xi _2^{i_1} \\ \xi _1^{i_2} & \xi _2^{i_2}\end {pmatrix}\)
\(= \det \)\(\begin {pmatrix}\xi _1^{i_1} & \xi _2^{i_1} \\ \xi _1^{i_2} & \xi _2^{i_2}\end {pmatrix}\). Im Allgemeinen ist \((e^{i_1} \land \dotsb \land e^{i_k})[\xi _1, \dotsc , \xi _k] = \det \)\(\begin {pmatrix}\xi _1^{i_1} & \dots & \xi _k^{i_1} \\ \vdots & & \vdots \\ \xi _1^{i_k} & \dots & \xi _k^{i_k}\end {pmatrix}\).

Was ist \(\dim \Omega _k\)?
Durch Überlegung (LAAG 2) kommt man auf \(\dim \L _k = n^k\) und \(\dim \Omega _k = \binom {n}{k}\).
\(\L _k\) hat die Basis \(e^{j_1} \otimes \dotsb \otimes e^{j_k}\) mit \(j_1, \dotsc , j_k = 1, \dotsc , n\), d. h. \(n^k\) Möglichkeiten. Um eine Basis von \(\Omega _k\) zu erhalten, müssen alle Basisvektoren entfernt werden, sodass pro Permutation genau ein Vektor vorkommt. Eine Basis von \(\Omega _k\) ist \(e^{i_1} \land \dotsb \land e^{i_k}\) mit \(1 \le i_1 < \dotsb < i_k \le n\), falls \(k \le n\).
Für \(k = n\) gilt \(\dim \Omega _n = 1\) und für \(k > n\) gilt \(\dim \Omega _k = 0\).
Es gilt \(\Omega _0 = \L _0 = \{F\colon X^0 \rightarrow \real \} \cong \real \), d. h. \(\dim \Omega _0 = 1\).

äußere Algebra: Die äußere Algebra ist definiert als \(\Omega := \bigoplus _{k=0}^n \Omega _k = (\Omega _0, \dotsc , \Omega _n)\).
Es gilt \(\dim \Omega = \sum _{k=0}^n \dim \Omega _k = 2^n\).

Tangentialraum: Seien \(S \subset \real ^n\) eine \(k\)-dimensionale Mannigfaltigkeit und \(x \in S\) mit lokaler Karte \(\varphi \in \C ^1(V_k, U_{\varepsilon (x)}^S(x))\) und \(\varphi (0) = x\). Sei \(\gamma \colon \left ]-\varepsilon , \varepsilon \right [ \rightarrow V_k\) ein Weg mit \(\gamma \in \C ^1\), \(\gamma (0) = 0 \in V_k\). In diesem Fall ist \(\varphi \circ \gamma \in \C ^1\) mit \(\varphi \circ \gamma \colon \left ]-\varepsilon , \varepsilon \right [ \rightarrow U_{\varepsilon (x)}^S(x)\).
\(\overrightarrow {t_\gamma } := \left .\frac {d(\varphi \circ \gamma )}{d\tau }\right |_{\tau =0}\) bezeichnet einen Tangentialvektor.
\(T_x S := \{\overrightarrow {t_\gamma } \;|\; \gamma \colon \left ]-\varepsilon , \varepsilon \right [ \rightarrow V_k,\; \gamma \in \C ^1,\; \gamma (0) = 0 \in V_k\}\) heißt Tangentialraum der Mannigfaltigkeit im Punkt \(x \in S\). Im Falle einer \(2\)-dimensionaler Mannigfaltigkeit spricht man auch von einer Tangentialebene. Anschaulich gesagt berührt diese die Mannigfaltigkeit im Punkt \(x\). Jedoch geht die eigentliche Tangentialebene durch den Ursprung.

Sei nun \(f\colon D \subset \real ^n \rightarrow \real \) Frechet-differenzierbar mit \(D \subset \real ^n\) offen. In diesem Fall gilt für die Ableitung \(\d f|_x = f’(x)\) mit dem Satz von Taylor \(f(x + h) = f(x) + \d f|_x[h] + o(\norm {h})\). Dabei gilt \(\d f[h] = \innerproduct {F, h}\), \(F := \nabla f|_x\), d. h. \(\d f\) wirkt auf \(h \in \real ^n = T_x \real ^n\). \(\d f\) ist eine \(1\)-Form auf \(T_x \real ^n\), also \(\d f \in \Omega _1(T_x \real ^n)\).

Jedoch ändert sich i. A. \(F = F(x) = \nabla f|_x\), falls sich \(x\) ändert. Daher ist es besser, von einer Abbildung \(\d f\colon D \subset \real ^n \rightarrow \Omega _1(T_x \real ^n)\), \(x \mapsto \d f(x)\) zu sprechen.

Da die Projektion \(\pi ^j\) stetig und linear ist, gilt \(\d \pi ^j = \pi ^j = e^j\) (hier ist \(F = e_j\)). Daher ist \(\d f(x)[h] = \frac {\partial f(x)}{\partial x^1} \xi ^1 + \dotsb + \frac {\partial f(x)}{\partial x^n} \xi ^n = \frac {\partial f(x)}{\partial x^1} \d \pi ^1[h] + \dotsb + \frac {\partial f(x)}{\partial x^n} \d \pi ^n[h]\) für \(h = (\xi ^1, \dotsc , \xi ^n)^t\).
Mit der Schreibweise \(\d x^j := \d \pi ^j = e^j\) ergibt sich \(\d f(x) = \frac {\partial f(x)}{\partial x^1} \d x^1 + \dotsb + \frac {\partial f(x)}{\partial x^n} \d x^n\).

Man definiert nun \(1\)-Formen als in der Form \(\d f(x) = a_j(x) \d x^j\) darstellbare Abbildungen.
Analog verfährt man für \(k\)-Formen, d. h. \(\omega (x) = a_{j_1,\dotsc ,j_k}(x) \d x^{j_1} \land \dotsb \land \d x^{j_k}\).

Differentialform: Eine \(k\)-fache Differentialform oder \(k\)-Form auf \(D \subset \real ^n\) offen ist eine Abbildung \(\omega \colon D \rightarrow \Omega _k(T_x D, \real )\), \(x \mapsto \omega (x)\).
Den Raum aller \(k\)-fachen Differentialformen auf \(D \subset \real ^n\) bezeichnet man mit \(\Omega _k(D)\).

Beispiel: \(0\)-Form
Da \(\Omega _0(T_x D, \real ) \cong \real \), definiert man sinnvollerweise als \(0\)-Formen alle Funktionen \(f\colon D \rightarrow \real \).

Beispiel: \(1\)-Form
\(1\)-Formen heißen auch Energieformen, denn sie sind von der Form \(\omega _F(x) = \innerproduct {F(x), \cdot }\) mit \(F\colon D \rightarrow \real ^n\) einer Abbildung, d. h. \(\omega _F(x)[h] = \innerproduct {F(x), h}\). (Interpretiert man \(F\) als Kraft und \(h\) als Strecke, so gibt \(\omega _F\) die Energie an.)

Beispiel: \(n - 1\)-Form
Für eine Abbildung \(v\colon D \subset \real ^n \rightarrow \real ^n\) mit \(D \subset \real ^n\) offen definiert man \(\omega _v^{(n-1)}(x)[\xi _1, \dotsc , \xi _{n-1}] := \det (v(x), \xi _1, \dotsc , \xi _{n-1})\). Es gilt \(\omega _v^{(n-1)}(x) \in \Omega _{n-1}(T_x D)\). Da \(\omega _v^{(n-1)}(x)[\xi _1, \dotsc , \xi _{n-1}]\) das Volumen des durch \(\xi _1, \dotsc , \xi _{n-1}\) und \(v(x)\) aufgespannten Parallelepipeds angibt, lässt sich dies für \(v(x)\) Fließgeschwindigkeit einer Flüssigkeit als pro Zeiteinheit durchfließende Menge an Flüssigkeit durch das Parallelepiped aufgespannt von \(\xi _1, \dotsc , \xi _{n-1} \in \real ^n\) interpretieren. Man spricht daher auch von einer Flussform.

Mithilfe der Schreibweise \(\d x^j\) können Differentialformen in eine Koordinatendarstellung gebracht werden. Für die Energieform \(\omega _F\) gilt bspw. \(\omega _F(x) = F_j(x) \d x^j\), für die Flussform mit \(n = 3\) und \(v(x) = (v^1(x), v^2(x), v^3(x))^t\) gilt \(\omega ^2_v(x)[\xi _1, \xi _2] = \det (v(x), \xi _1, \xi _2)\)
\(= v^1(x) \det \begin {pmatrix}\xi _1^2 & \xi _2^2 \\ \xi _1^3 & \xi _2^3\end {pmatrix} - v^2(x) \det \begin {pmatrix}\xi _1^1 & \xi _2^1 \\ \xi _1^3 & \xi _2^3\end {pmatrix} + v^3(x) \det \begin {pmatrix}\xi _1^1 & \xi _2^1 \\ \xi _1^2 & \xi _2^2\end {pmatrix}\)
\(= v^1(x) (\d x^2 \land \d x^3)[\xi _1, \xi _2] - v^2(x) (\d x^1 \land \d x^3)[\xi _1, \xi _2] + v^3(x) (\d x^1 \land \d x^2)[\xi _1, \xi _2]\).
Allgemein gilt \(\omega _v^{(n-1)}(x) = \sum _{i=1}^n (-1)^{i+1} v^i(x) \d x^1 \land \dotsb \land \d x^{i-1} \land \d x^{i+1} \land \dotsb \land \d x^n\).

Sei \(f\colon D \subset \real ^n \rightarrow \real ^n\) mit \(D \subset \real ^n\) offen und \(f \in \C ^1\). Dies ist eine \(0\)-Form.
\(\d f = \frac {\partial f(x)}{\partial x^1} \d x^1 + \dotsb + \frac {\partial f(x)}{\partial x^n} \d x^n\) ist eine \(1\)-Form. Analog lässt sich jede \(k\)-Form
\(\omega \colon D \subset \real ^n \rightarrow \Omega _k(T_x D)\) schreiben als \(\omega (x) = a_{j_1,\dotsc ,j_k}(x) \cdot \d x^{j_1} \land \dotsb \land \d x^{j_k}\).

äußeres Differential: Das äußere Differential ist eine Abbildung \(\d \), die jeder \(k\)-Form \(\omega \) eine \(k + 1\)-Form \(\d \omega \) zuweist, wobei für \(\omega (x) = a_{j_1,\dotsc ,j_k}(x) \cdot \d x^{j_1} \land \dotsb \land \d x^{j_k}\) gilt, dass
\(\d \omega (x) := (\d a_{j_1,\dotsc ,j_k}(x)) \land \d x^{j_1} \land \dotsb \land \d x^{j_k} = \frac {\partial a_{j_1,\dotsc ,j_k}(x)}{\partial x^\ell } \d x^\ell \land \d x^{j_1} \land \dotsb \land \d x^{j_k}\).

Das äußere Differential ist linear (\(\d (\omega _1 + \omega _2) = \d \omega _1 + \d \omega _2\)), für jede differenzierbare Funktion \(f\colon D \subset \real ^n \rightarrow \real \) ist \(\d f\) wie oben (also \(\d f(x) = \aufspann {F(x), \cdot }\) mit \(F(x) = \nabla f|_x\)), es erfüllt die Produktregel \(\d (\omega _1 \land \omega _2) = \d \omega _1 \land \omega _2 + (-1)^k \omega _1 \land \d \omega _2\) für \(\omega _1 \in \Omega _k\), \(\omega _2 \in \Omega _\ell \) und es gilt \(\d (\d \omega ) = 0\) für \(a_{j_1,\dotsc ,j_k}(x) \in \C ^2\).

Beispiel: Das äußere Differential einer \(0\)-Form \(\omega _f^{(0)} := f\colon D \subset \real ^3 \rightarrow \real \) ist
\(\d f = \frac {\partial f}{\partial x^1} \d x^1 + \frac {\partial f}{\partial x^2} \d x^2 + \frac {\partial f}{\partial x^3} \d x^3 = \innerproduct {\nabla f, \cdot }\),
d. h. \(\d \omega _f^{(0)} = \omega _F^{(1)} \in \Omega _1(D)\) mit \(\omega _F^{(1)}(x) := F_1(x) \d x^1 + F_2(x) \d x^2 + F_3(x) \d x^3\) und dem Gradienten \(F(x) := \nabla f(x)\).

Für eine \(1\)-Form \(\omega _F^{(1)}\) mit \(\omega _F^{(1)}(x) = F_1(x) \d x^1 + F_2(x) \d x^2 + F_3(x) \d x^3\) und \(F\colon D \subset \real ^3 \rightarrow \real ^3\) gilt \(\d \omega _F^{(1)} = \left (\frac {\partial F_1}{\partial x^1} \d x^1 + \frac {\partial F_1}{\partial x^2} \d x^2 + \frac {\partial F_1}{\partial x^3} \d x^3\right ) \land \d x^1 + \left (\frac {\partial F_2}{\partial x^1} \d x^1 + \frac {\partial F_2}{\partial x^2} \d x^2 + \frac {\partial F_2}{\partial x^3} \d x^3\right ) \land \d x^2 \;+\)
\(\left (\frac {\partial F_3}{\partial x^1} \d x^1 + \frac {\partial F_3}{\partial x^2} \d x^2 + \frac {\partial F_3}{\partial x^3} \d x^3\right ) \land \d x^3\)
\(= \frac {\partial F_1}{\partial x^2} \d x^2 \land \d x^1 + \frac {\partial F_1}{\partial x^3} \d x^3 \land \d x^1 + \frac {\partial F_2}{\partial x^1} \d x^1 \land \d x^2 + \frac {\partial F_2}{\partial x^3} \d x^3 \land \d x^2 + \frac {\partial F_3}{\partial x^1} \d x^1 \land \d x^3 + \frac {\partial F_3}{\partial x^2} \d x^2 \land \d x^3\)
\(= \left (\frac {\partial F_2}{\partial x^1} - \frac {\partial F_1}{\partial x^2}\right ) \d x^1 \land \d x^2 + \left (\frac {\partial F_3}{\partial x^1} - \frac {\partial F_1}{\partial x^3}\right ) \d x^1 \land \d x^3 + \left (\frac {\partial F_3}{\partial x^2} - \frac {\partial F_2}{\partial x^3}\right ) \d x^2 \land \d x^3\),
d. h. \(\d \omega _F^{(1)} = \omega _v^{(2)} \in \Omega _2(D)\) mit \(\omega _v^{(2)}(x) = v_1(x) \d x^2 \land \d x^3 - v_2(x) \d x^1 \land \d x^3 + v_3(x) \d x^1 \land \d x^2\) und dem Rotor \(v(x) = \rot F(x) := \nabla \times F(x) = \left (\frac {\partial F_3}{\partial x^2} - \frac {\partial F_2}{\partial x^3}, \frac {\partial F_1}{\partial x^3} - \frac {\partial F_3}{\partial x^1}, \frac {\partial F_2}{\partial x^1} - \frac {\partial F_1}{\partial x^2}\right )^t\).

Für eine durch \(v\) gegebene \(2\)-Form \(\omega _v^{(2)}\) gilt \(\d \omega _v^{(2)} = \left (\frac {\partial v_1}{\partial x^1} + \frac {\partial v_2}{\partial x^2} + \frac {\partial v_3}{\partial x^3}\right ) \d x^1 \land \d x^2 \land \d x^3\), d. h. \(\d \omega _v^{(2)} = \omega _\varrho ^{(3)} \in \Omega _3(D)\) mit \(\omega _\varrho ^{(3)} = \varrho (x) \d x^1 \land \d x^2 \land \d x^3\) und der Divergenz
\(\varrho (x) = \div v(x) := \innerproduct {\nabla , v(x)} = \frac {\partial v_1(x)}{\partial x^1} + \frac {\partial v_2(x)}{\partial x^2} + \frac {\partial v_3(x)}{\partial x^3}\).

\(\nabla \cdot = \grad \) wandelt ein Skalarfeld in ein Vektorfeld, \(\nabla \times \cdot = \rot \) wandelt ein Vektorfeld in ein Vektorfeld und \(\innerproduct {\nabla , \cdot } = \div \) wandelt ein Vektorfeld in ein Skalarfeld um.

Für \(F = \nabla f\), d. h. \(\omega _F^{(1)} = \d \omega _f^{(0)}\), ist \(\omega _v^{(2)} = \d \omega _F^{(1)} = \d (\d \omega _f^{(0)}) = 0\), d. h. \(\rot \grad = 0\).
Für \(F\) bel. und \(v = \rot F\), d. h. \(\omega _v^{(2)} = \d \omega _F^{(1)}\), ist \(\omega _\varrho ^{(3)} = \d \omega _v^{(2)} = \d (\d \omega _F^{(1)}) = 0\), d. h. \(\div \rot = 0\).

Pullback: Für eine differenzierbare Abbildung \(\varphi \colon U \rightarrow V\) mit \(U \subset \real ^n\), \(V \subset \real ^m\) und
\(k \in \natural \) ist das Pullback (die zurückgezogene Abbildung) definiert durch
\(\varphi ^\ast \colon \Omega _k(V) \rightarrow \Omega _k(U)\) mit \((\varphi ^\ast \omega )(t)[\tau _1, \dotsc , \tau _k] := \omega (\varphi (t))\left [\frac {D\varphi }{Dt} \tau _1, \dotsc , \frac {D\varphi }{Dt} \tau _k\right ]\).

Das Pullback ist linear (\(\varphi ^\ast (\omega ’ + \omega ’’) = \varphi ^\ast \omega ’ + \varphi ^\ast \omega ’’\), \(\varphi ^\ast (\lambda \omega ) = \lambda (\varphi ^\ast \omega )\), \(\lambda \in \real \)).
Es gilt \((\psi \circ \varphi )^\ast = \varphi ^\ast \circ \psi ^\ast \) sowie \(\d (\varphi ^\ast \omega ) = \varphi ^\ast (\d \omega )\).
Für \(m < k \le n\) gilt \(\varphi ^\ast \omega = 0\) (da \(k\)-Form auf \(\real ^m\) mit \(m < k\)).
Ist \(\varphi \colon U \rightarrow V\) bijektiv und glatt (d. h. \(m = n\)), so ist \(\varphi ^\ast \) ebenfalls bijektiv und \((\varphi ^\ast )^{-1} = (\varphi ^{-1})^\ast \).
Außerdem gilt \(\varphi ^\ast (\omega ’ \land \omega ’’) = (\varphi ^\ast \omega ’) \land (\varphi ^\ast \omega ’’)\).

Koordinatendarstellung des Pullbacks einer \(2\)-Form: Sei \(\omega = \d x^{j_1} \land \d x^{j_2}\). Dann gilt mit \(\xi _1 = \frac {D\varphi }{Dt} \tau _1\) und \(\xi _2 = \frac {D\varphi }{Dt} \tau _2\), dass \((\varphi ^\ast \omega )(t)[\tau _1, \tau _2] = \omega (x) [\xi _1, \xi _2] = (\d x^{j_1} \land \d x^{j_2}) [\xi _1, \xi _2]\)
\(= \det \)\(\begin {pmatrix}\xi _1^{j_1} & \xi _1^{j_2} \\ \xi _2^{j_1} & \xi _2^{j_2}\end {pmatrix}\) \(= \det \)\(\begin {pmatrix} \frac {\partial x^{j_1}}{\partial t^{\ell _1}} \tau _1^{\ell _1} & \frac {\partial x^{j_2}}{\partial t^{\ell _2}} \tau _1^{\ell _2} \\ \frac {\partial x^{j_1}}{\partial t^{\ell _1}} \tau _2^{\ell _1} & \frac {\partial x^{j_2}}{\partial t^{\ell _2}} \tau _2^{\ell _2}\end {pmatrix}\) \(= \sum _{\ell _1,\ell _2=1}^m \det \)\(\begin {pmatrix}\tau _1^{\ell _1} & \tau _1^{\ell _2} \\ \tau _2^{\ell _1} & \tau _2^{\ell _2}\end {pmatrix}\) \(\frac {\partial x^{j_1}}{\partial t^{\ell _1}} \frac {\partial x^{j_2}}{\partial t^{\ell _2}}\)
\(= \sum _{\ell _1,\ell _2=1}^m (\d t^{\ell _1} \land \d t^{\ell _2})[\tau _1, \tau _2] \frac {\partial x^{j_1}}{\partial t^{\ell _1}} \frac {\partial x^{j_2}}{\partial t^{\ell _2}} = \sum _{1 \le \ell _1 < \ell _2 \le m} \left ( \frac {\partial x^{j_1}}{\partial t^{\ell _1}} \frac {\partial x^{j_2}}{\partial t^{\ell _2}} - \frac {\partial x^{j_2}}{\partial t^{\ell _1}} \frac {\partial x^{j_1}}{\partial t^{\ell _2}}\right ) \d t^{\ell _1} \land \d t^{\ell _2} [\tau _1, \tau _2]\)
\(= \sum _{1 \le \ell _1 < \ell _2 \le m} \det \left (\frac {D(x^{j_1}, x^{j_2})}{D(t^{\ell _1}, t^{\ell _2})}\right ) \d t^{\ell _1} \land \d t^{\ell _2} [\tau _1, \tau _2]\).
Im Allgemeinen gilt \(\varphi ^\ast \left (\sum _{1 \le i_1 < \dotsb < i_p \le n} a_{i_1, \dotsc , i_p}(x) \d x^{i_1} \land \dotsb \d x^{i_p}\right )\)
\(= \sum _{1 \le i_1 < \dotsb < i_p \le n} a_{i_1, \dotsc , i_p}(\varphi (t)) \sum _{1 \le \ell _1 < \dotsb < \ell _p \le m} \det \left (\frac {D(x^{i_1}, \dotsc , x^{i_p})} {D(t^{\ell _1}, \dotsc , t^{\ell _p})}\right ) \d t^{\ell _1} \land \dotsb \land \d t^{\ell _p}\).

Integration auf Mannigfaltigkeiten

Gegeben sei eine Kurve im \(\real ^n\), d. h. \(\varphi \colon I = [a, b] \rightarrow \real ^n\). Die Kurve stellt eine eindimensionale Mannigfaltigkeit \(S = \varphi ([a, b])\) im \(\real ^n\) dar. Für jeden Zeitpunkt \(t \in I\) entspricht ein Tangentialvektor \(\tau \in T_t \real \) einem Tangentialvektor \(\xi = \varphi ’(t) \tau \in T_x S\). Außerdem sei im \(\real ^n\) ein Kraftfeld \(F\colon \real ^n \rightarrow \real ^n\) gegeben. Unterteilt man das Intervall \(I\) in einzelne Zeitpunkte \(t_i\), entsprechend die Kurve in Punkte \(x_i = \varphi (t_i)\) und berechnet man dazu die Tangentialvektoren \(\xi _i = \varphi ’(t_i) \tau _i\), so kann man die entlang des Weges verrichtete Arbeit approximieren durch \(\Delta A_i \approx \innerproduct {F(x_i), \xi _i}\). Dabei geht man von konstanter Kurvenrichtung \(\xi _i\) und auf dieser Richtung von konstanter Kraft Kraft \(F(x_i)\) aus. Mithilfe des Pullbacks kann man dies schreiben als \(\Delta A_i \approx \innerproduct {F(\varphi (t_i)), \varphi ’(\tau )\tau _i} = \omega _F^{(1)}(x_i)[\xi _i] = (\varphi ^\ast \omega _F^{(1)})(t_i)[\tau _i]\).

Für die Gesamtarbeit gilt \(A \approx \sum _i \Delta A_i = \sum _i (\varphi ^\ast \omega )(t_i)[\tau _i] = \sum _i \omega (x_i)[\xi _i]\) mit \(\omega = \omega _F^{(1)}\).
Dies kann als eine Art Riemann-Summe gedeutet werden. Lässt man den Rang der Zerlegung gegen \(0\) laufen, so erhält man den exakten Wert \(A = \int _{I = [a,b]} \varphi ^\ast \omega = \int _{S = \varphi (I)} \omega \). Die letzten beiden Terme sind nur Schreibweise, werden aber weiter unten zur Definition erhoben. \(A\) berechnet sich als Wegintegral \(A = \int _a^b \innerproduct {F(\varphi (t)), \varphi ’(t)} \dt = \int _a^b \left (F_1(\varphi (t)) \frac {d \varphi _1}{\dt } \dt + \dotsb + F_n(\varphi (t)) \frac {d \varphi _n}{\dt } \dt \right ) = \int _{S = \varphi (I)} (F_1(x) \d x^1 + \dotsb + F_n(x) \d x^n)\).

Auf 2-Mannigfaltigkeiten (z. B. im \(\real ^3\)) geschieht dies ähnlich. Dabei fällt auf, dass in beiden Fällen die Ordnung der Differentialform und die Dimension der Mannigfaltigkeit übereinstimmen.

Integral über Mannigfaltigkeiten: Sei \(S\) eine \(m\)-Mannigfaltigkeit, \(V \subset \real ^m\) eine Teilmenge und \(t = (t^1, \dotsc , t^m)\) die Koordinaten bzgl. der kanonischen Basis, die positiv orientiert ist. \(S\) besitze einen Atlas, der nur aus einer Karte besteht, d. h. es gibt eine Kartenabbildung \(\varphi \colon V \rightarrow S\) mit \(S = \varphi (V)\). Außerdem sei \(f\colon V \rightarrow \real \) eine Funktion mit \(f \in L^1\).
Definiere \(\int _V f(t) \dt ^1 \land \dotsb \land \dt ^m := \int _V f(t) d\mu \) (dabei ist die Orientierung von \(dt^1 \land \dotsb \land dt^m\) wichtig). Nun definiere für eine \(m\)-Form \(\omega \) auf der \(m\)-Mannigfaltigkeit \(S\) das Integral
\(\int _S \omega = \int _{\varphi (V)} \omega := \int _V \varphi ^\ast \omega = \int _V f(t) \dt ^1 \land \dotsb \land \dt ^m\).

Beachte: Die Definition ist unabhängig von der konkreten Parametrisierung der Karte.
Besitzt \(S\) nur Atlanten mit mehreren Karten \(\varphi _i\colon V \rightarrow U_i\), so konstruiert man Funktionen \(\chi _i\colon S \rightarrow [0, 1]\) mit \(\varphi _i(x) = 0\) für \(x \notin U_i\) und \(\sum _i \chi _i(x) \equiv 1\) (Zerlegung der Eins).
Eine Frage, die dabei im Vorhinein beantwortet werden muss, ist, ob solche Zerlegungen immer existieren (unter welchen Voraussetzungen).
Dann definiert man \(\int _S \omega := \sum _i \int _{U_i} \chi _i \omega = \sum _i \int _V \varphi ^\ast (\chi _i \omega )\). Dies geht jedoch nur bei orientierten Mannigfaltigkeiten, sonst ist das Integral nicht wohldefiniert.

Volumenform: Sei \(e_1, \dotsc , e_k\) ein orthonomiertes System in \(\real ^n\) und \(S \subset \real ^n\) eine \(k\)-Mannigfaltigkeit, wobei \(e_1, \dotsc , e_k \in T_x S\) positiv orientiert ist. Die Volumenform \(\Omega \) soll eine \(k\)-Form sein, wobei \(\Omega (x)[e_1, \dotsc , e_k] = 1\) sein soll.

Die Integralformeln der Analysis

Formel von Green: Sei \(D \subset \real ^2\) offen mit den kartesischen Koordinaten \((x, y)\) im \(\real ^2\). \(\partial D\) setze sich aus stückweise glatten Kurven zusammen und \(P, Q\colon \overline {D} \rightarrow \real \) seien glatte Funktionen.
Dann gilt \(\iint _{\overline {D}} \left (\frac {\partial Q}{\partial x} - \frac {\partial P}{\partial y}\right ) dxdy = \oint _{\partial D} (P\dx + Q\dy )\).

Beispiel: Für \(P(x, y) = -y\) und \(Q(x, y) = x\) gilt \(\left (\frac {\partial Q}{\partial x} - \frac {\partial P}{\partial y}\right ) = 2\), d. h.
\(\vol (D) = \iint _D dx \land dy = \frac {1}{2} \oint _{\partial D} (-y\dx + x\dy )\).

Beispiel: Für den abgeschlossenen Einheitsball \(D = B = \{(x, y) \in \real ^2 \;|\; x^2 + y^2 \le 1\}\) und \(f\colon B \rightarrow B\) glatt gilt \(f(p) = p\) für ein \(p \in B\) (Fixpunktsatz von Schauder/Brouwer).

Formel von Gauß-Ostrogradskij: Sei \(D \subset \real ^3\) offen mit \(\overline {D}\) kompakt. \(\partial D\) sei eine stückweise glatte \(2\)-Mannigfaltigkeit und \(P, Q, R\colon \overline {D} \rightarrow \real \) seien glatte Funktionen.
Dann gilt \(\iiint _{\overline {D}} \left (\frac {\partial P}{\partial x} + \frac {\partial Q}{\partial y} + \frac {\partial R}{\partial z}\right ) dxdydz = \iint _{\partial D} (Pdy \land dz + Qdz \land dx + Rdx \land dy)\).

verallgemeinerter Satz von Gauß: Sei \(V \subset \real ^n\) kompakt mit abschnittsweise glattem Rand \(S = \partial V\) und \(F\colon \real ^n \rightarrow \real ^n\) ein stetig differenzierbares Vektorfeld.
Dann gilt \(\iiint _V (\nabla \cdot F) dV = \iint _S\!\!\!\!\!\!\!\!\!\!\!\subset \!\supset (F \cdot n) dS\) mit \(n\) dem nach außen gerichteten Einheitsnormalenfeld auf dem Rand \(S\). Man schreibt auch \(\int _V \innerproduct {\nabla , F} d\vec {x} = \int _{\partial V} \innerproduct {F, \vec {n}} \d \sigma \).

Formel von Stokes: Sei \(S \subset \real ^3\) eine stückweise glatte \(2\)-Mannigfaltigkeit mit Rand \(\partial S\) und \(P, Q, R\colon S \rightarrow \real \) seien glatte Funktionen. Dann gilt
\(\iint _S \left (\frac {\partial R}{\partial y} - \frac {\partial Q}{\partial z}\right ) dy \land dz + \Big (\frac {\partial P}{\partial z} - \frac {\partial R}{\partial x}\Big ) dz \land dx + \left (\frac {\partial Q}{\partial x} - \frac {\partial P}{\partial y}\right ) dx \land dy = \int _{\partial S} (P\dx + Q\dy + R\dz )\).

verallgemeinerte Formel von Stokes: Sei \(S\) eine glatte, orientierbare \(k\)-Mannigfaltigkeit mit Rand \(\partial S\). Außerdem sei \(\omega \) eine glatte \(k - 1\)-Form auf \(S\).
Dann gilt \(\int _{\partial S} \omega = \int _S \d \omega \).

Elemente der Vektoranalysis

Im Folgenden seien \(A\colon D \subset \real ^3 \rightarrow \real ^3\) ein Vektorfeld und \(\alpha \colon D \subset \real ^3 \rightarrow \real \) ein Skalarfeld im \(\real ^3\). Zu Vektorfeldern \(A\) und \(B\) gehören die Energieform \(\omega _A^{(1)}\) mit \(\omega _A^{(1)}(x)[\xi ] = \innerproduct {A(x), \xi }_{\real ^3}\) sowie die Flussform \(\omega _B^{(2)}\) mit \(\omega _B^{(2)}(x)[\xi _1, \xi _2] = \det (B(x), \xi _1, \xi _2)\). Außerdem bezeichnen \(\cdot \) bzw. \(\times \) Skalar- bzw. Kreuzprodukt.

Lemma: \(\omega _{A’}^{(1)} \land \omega _{A’’}^{(1)} = \omega _{A’ \times A’’}^{(2)}\), \(\omega _{A’}^{(1)} \land \omega _{A’’}^{(2)} = \omega _{A’ \cdot A’’}^{(3)}\)
(dabei ist \(\omega _\alpha ^{(3)}(x)[\xi _1, \xi _2, \xi _3] = \alpha (x) \det (\xi _1, \xi _2, \xi _3)\))

Für \(f\colon D \subset \real ^3 \rightarrow \real \) gilt für \(\omega _f^{(0)}(x) = f(x)\), dass \(\omega _F^{(1)} = \d \omega _f^{(0)}\) mit \(F = \grad f = \nabla f\).
Für \(A\colon D \subset \real ^3 \rightarrow \real ^3\) gilt für \(\omega _A^{(1)}(x) = \innerproduct {A(x), \cdot }\), dass \(\omega _B^{(2)} = \d \omega _A^{(1)}\) mit \(B = \rot A = \nabla \times A\).
Für \(H\colon D \subset \real ^3 \rightarrow \real ^3\) gilt für \(\omega _H^{(2)}(x) = \det (H(x), \cdot , \cdot )\), dass
\(\omega _\rho ^{(3)} = \d \omega _H^{(2)}\) mit \(\rho = \div H = \innerproduct {\nabla , H}\).

Bekanntermaßen ist \(\rot F = 0\) für \(F = \nabla f\) und \(\div H = 0\) für \(H = \rot A\).

weitere Rechenregeln: \(\rot (f \cdot A) = (\grad f) \times A + f \cdot \rot A\),
\(\div (f \cdot A) = (\grad f) \cdot A + f \cdot \div A\),   \(\div (A \times B) = B \cdot \rot A - A \cdot \rot B\)

Formel von Newton-Leibniz: Seien ein stetig differenzierbarer Weg \(\gamma \colon [a, b] \rightarrow \real ^n\) mit \(\Gamma = \gamma ([a, b])\) und eine Energieform \(\omega _F^{(1)}\) mit \(F = \nabla f\) für eine Funktion \(f\colon \real ^n \rightarrow \real \) gegeben.
Dann gilt \(\int _\Gamma \omega _F^{(1)} = \int _a^b \innerproduct {F \circ \gamma , \dot {\gamma }} \dt = (f \circ \gamma )(b) - (f \circ \gamma )(a)\).
Insbesondere gilt \(\int _{\Gamma _1} \omega _F^{(1)} = \int _{\Gamma _2} \omega _F^{(1)}\), falls \(F = \nabla f\).

Formel von Stokes: Sei \(A\colon \real ^3 \rightarrow \real ^3\) ein glattes Vektorfeld und \(S \subset \real ^3\) eine \(2\)-dimensionale Mannigfaltigkeit. Dann gilt \(\iint _S \rot \vec {A} \cdot d\vec {\sigma } = \oint _{\partial S} \vec {A} d\vec {s}\).

Weitere Varianten sind \(\int _S d\vec {\sigma } (\nabla \times A) = \int _{\partial S} d\vec {s} \cdot \vec {A}\),
\(\int _S d\vec {\sigma } \times (\nabla \times A) = \int _{\partial S} d\vec {s} \times \overline {A}\)  und  \(\int _S d\vec {\sigma } \times \nabla f = \int _{\partial S} d\vec {s} f\).
Die letzten beiden Formeln kann man sich mit der Schreibweise \(\int _S d\vec {\sigma } \times \nabla = \int _{\partial S} d\vec {s}\) merken.

Formel von Gauß-Ostrogradskij: Seien \(B\colon \real ^3 \rightarrow \real ^3\) ein Vektorfeld und \(V \subset \real ^3\) offen mit stückweise glattem Rand \(\partial V\). Dann gilt \(\iiint _V \div \vec {B} dV = \iint _{\partial V} \vec {B} \cdot d\vec {s}\).

Weitere Varianten sind \(\int _V dV \nabla \cdot \vec {B} = \int _{\partial V} d\vec {\sigma } \cdot \vec {B}\),
\(\int _V dV (\nabla \times \vec {B}) = \int _{\partial V} d\vec {\sigma } \cdot \vec {B}\)  und  \(\int _V dV \nabla f = \int _{\partial V} d\vec {\sigma } \cdot f\).
Alle drei Formeln kann man sich mit der Schreibweise \(\int _V dV \nabla = \int _{\partial V} d\vec {\sigma }\) merken.

Formel von Green: Seien \(V \subset \real ^n\) mit stückweise glattem Rand \(\partial V\) und \(f, g\colon \real ^n \rightarrow \real \) Funktionen. Dann gilt \(\int _V (\nabla f) \cdot (\nabla g) dV = \int _{\partial V} g \nabla f d\vec {\sigma } - \int _V g \Delta f dV\) sowie
\(\int _V (g \Delta f - f \Delta g) dV = \int _{\partial V} (g \nabla f - f \nabla g) d\vec {\sigma }\).

Zur Theorie der Potentialfelder

Im Folgenden sei \(D \subset \real ^n\) offen mit stückweise glattem Rand, \(A\colon D \rightarrow \real ^n\) ein Vektorfeld und \(U\colon D \rightarrow \real \) ein Skalarfeld.

Potential: Ein Skalarfeld \(U\) ist das Potential vom Vektorfeld \(A\) in \(D\), falls \(A = \nabla U\).
\(A\) heißt in diesem Fall konservatives Feld oder Gradientenfeld.

Es gibt nicht zu jedem Vektorfeld \(\vec {A}\) ein Potential \(U\). Eine notwendige Bedingung ist
\(\rot \vec {A} = \rot \grad U = 0\). Allerdings ist diese Bedingung nicht hinreichend.

Satz: \(\vec {A}\) ist konservativ genau dann, wenn \(\oint _\Gamma \vec {A} d\vec {s} = 0\) für jeden geschlossenen Pfad \(\Gamma \) gilt.

exakt:
Eine \(k\)-Form \(\omega \in \Omega _k(D)\) heißt exakt, falls es eine \(k - 1\)-Form \(\widetilde {\omega } \in \Omega _{k-1}(D)\) gibt mit \(\omega = \d \widetilde {\omega }\).

abgeschlossen: Eine \(k\)-Form \(\omega \in \Omega _k(D)\) heißt abgeschlossen, falls \(\d \omega = 0\).

Jede exakte Form ist auch abgeschlossen. Die Umkehrung gilt i. A. nicht.

Lemma von Poincaré: Ist \(D\) homotop zur Kugel (d. h. \(D\) hat keine „Löcher“), dann ist jede abgeschlossene Form auch exakt.

Eine notwendige Bedingung, dass es zu \(\vec {B}\colon D \subset \real ^3 \rightarrow \real ^3\) ein Vektorpotential \(\vec {A}\) mit \(\vec {B} = \rot \vec {A}\) gibt, ist, dass \(\div \vec {B} = 0\) erfüllt ist. Enthält \(D\) keine „Löcher“, dann ist diese Bedingung sogar hinreichend.