Motivation

Gewöhnliche Differentialgleichungen (ordinary differential equations, ODEs) beschreiben Probleme, die folgende Eigenschaften besitzen:

  • deterministisch: Ist der Zustand eines Systems zum Zeitpunkt \(t = t_0\) (Gegenwart) bekannt, so kann er für alle Zeitpunkte \(t\) bestimmt werden.

  • endlich-dimensional: Der Zustand des Systems wird durch endlich viele Größen bestimmt.

  • differenzierbar

Die Menge aller möglichen Zustände eines Systems heißt Phasenraum \(M\).

Beispiel: radioaktiver Zerfall
Die Zahl an pro Zeiteinheit zerfallenden Atomen ist proportional zu deren aktueller Anzahl. Mathematisch bedeutet dies \(\dot {g}(t) = -\kappa g(t)\) mit \(\kappa > 0\). Die Lösung dieser DGL ist \(g(t) = g_0 \cdot e^{-\kappa t}\) für \(t \in \real \) mit \(g_0 = g(0) \ge 0\). Der Zustand des Systems wird allein durch \(g(0)\) bestimmt. Der Phasenraum ist hier \(M = \left [0, +\infty \right [\).

Beispiel: Auslenkung einer Feder
Sei eine Feder in horizontaler Lage gegeben. Für die an ihr ziehende Kraft \(F\), die Auslenkung \(q\) und die Masse \(m\) gilt \(F = -k q\) sowie \(F = m \ddot {q}\), also \(m \cdot \ddot {q}(t) = -k q(t)\) (\(k, m > 0\)). Eine Lösung ist \(q(t) = A \cdot \sin (\mu t) + B \cdot \cos (\mu t)\) mit \(\mu = \sqrt {\frac {k}{m}}\). Hier bestimmt nicht \(g(0) = B\) alleine den Zustand des Systems, sondern nur zusammen mit \(\dot {q}(0) = \mu A\). Der aktuelle Zustand des Systems wird durch \(𝕪(t) = \begin {pmatrix}q(t) \\ p(t)\end {pmatrix}\) mit dem Impuls \(p(t) = \dot {q}(t) \cdot m\) respräsentiert. Die Ableitung ist \(\dot {𝕪}(t) = \begin {pmatrix}1/m \cdot p(t) \\ -k \cdot q(t)\end {pmatrix} = A 𝕪(t)\) mit \(A = \begin {pmatrix}0 & 1/m \\ -k & 0\end {pmatrix}\). Damit ist die DGL auf eine Form wie oben gebracht. Der Phasenraum ist hier \(M = \real ^2\).

mathematische Beschreibung von „deterministisch“:
Ist der Startzustand \(x = y(0) \in M\) eines Systems bekannt, so kann \(y(t) \in M\) für alle \(t \in \real \) eindeutig bestimmt werden (Determinismus). \(g^t\colon M \rightarrow M\), \(g^t x = y(t)\) sei die Abbildung, die einem Startzustand \(x\) den Zustand \(g^t x\) zum Zeitpunkt \(t\) zuweist. Die Kurve in \(M\), die entsteht, wenn man für einen fixen Startzustand \(x\) die angenommenen Zustände \(g^t x\), \(t \in \real \) einzeichnet, heißt Trajektorie oder Orbit. Man fordert, dass \(g\) die folgenden Bedingungen erfüllt:
1. \(g^0 = \id \),   2. \(g^{t+s} = g^t g^s = g^{s+t} = g^s g^t\),   3. \(g^{-t} = (g^t)^{-1}\).
Damit wird \(\{g^t\}\) zur abelschen Gruppe. \((M, \{g^t\})\) heißt dann Phasenfluss.

zum Begriff der Differenzierbarkeit:
Für den Fall \(M \subset \real ^n\) kann man \(g\colon \real \times M \rightarrow M\), \(g(t, x) = g^t x\) als Funktion auffassen. Sie sei in \(t\) differenzierbar. Man definiert nun \(v\colon M \rightarrow M\), \(v(x) = \frac {d}{d\tau }\left .(g^\tau x)\right |_{\tau =0}\) als das Geschwindigkeitsfeld. Einsetzen von \(y(t)\) ergibt \(v(y(t)) = \frac {d}{d\tau }\left .(g^\tau y(t))\right |_{\tau =0} = \frac {d}{d\tau }\left .(g^\tau g^t x)\right |_{\tau =0} = \frac {d}{d\tau }\left .(g^{\tau +t} x)\right |_{\tau =0} = \frac {d}{d\tau }\left .(g^s x)\right |_{s=t} = \dot {y}(t)\), d. h. \(\dot {y}(t) = v(y(t))\).

Hier ist \(v = v(x)\) zeitunabhängig, d. h. das Geschwindigkeitsfeld hängt nicht von \(t\) ab.
Solche DGLs nennt man autonom.

Bei nicht-autononomen DGLs ist \(\dot {y}(t) = v(t, y(t))\), d. h. die rechte Seite hängt von \(t\) ab. Ein nicht-autonomes System kann in ein autonomes überführt werden, indem man eine zusätzliche Gleichung einführt:
Ist \(y\) Lösung der nicht-autonomen DGL, so definiert man \(𝕪(t) := \begin {pmatrix}t \\ y(t)\end {pmatrix}\). Die Ableitung ist \(\dot {𝕪}(t) = \begin {pmatrix}1 \\ v(t, y(t))\end {pmatrix} = \begin {pmatrix}1 \\ v(𝕪(t))\end {pmatrix} =: 𝕧(𝕪(t))\). Man erhält also ein autonomes System.

Genauso können nicht-autonome DGLs \(n\)-ter Ordnung auf eine autonome DGL reduziert werden: Für \(y^{(n)}(t) = v(t, y(t), \dotsc , y^{(n-1)}(t))\) und eine Lösung \(y\) setzt man
\(𝕪(t) := \begin {pmatrix}t \\ y(t) \\ \vdots \\ y^{(n-2)}(t) \\ y^{(n-1)}(t)\end {pmatrix}\). Die Ableitung ist \(\dot {𝕪}(t) = \begin {pmatrix}1 \\ \dot {y}(t) \\ \vdots \\ y^{(n-1)}(t) \\ v(t, \dotsc , y^{(n-1)}(t))\end {pmatrix} = \begin {pmatrix}1 \\ \dot {y}(t) \\ \vdots \\ y^{(n-1)}(t) \\ v(𝕪(t))\end {pmatrix} =: 𝕧(𝕪(t))\). Man erhält wieder eine autonome DGL \(\dot {𝕪}(t) = 𝕧(𝕪(t))\).

Der erweiterte Phasenraum ist \(\real \times M\). Man erweitert also \(M\) um eine zusätzliche Zeitachse. Das Analogon zur Trajektorie ist die Integralkurve. Sie ermöglicht nicht nur zu sehen, welche Zustände erreicht werden, sondern auch zu welchem Zeitpunkt. Im Falle des radioaktiven Zerfalls bzw. der Feder ergibt sich eine Kurve im \(\real ^2\) bzw. eine Schraubenlinie im \(\real ^3\).

Die Methode von Euler

Im Folgenden sei der Phasenraum eine Teilmenge \(M \subset \real ^n\). Die betrachteten Zeitpunkte sollen dabei in \(I := [a,b]\) liegen, wobei \(t_0 \in I\) der Anfangszeitpunkt sei. Man kann sich eine Skizze des erweiterten Phasenraums machen, in der man die Zeitachse über den Phasenraum aufträgt. Der erweiterte Phasenraum ist dabei ein Zylinder \(\Omega := I \times M\) über dem Phasenraum, die Integralkurve ist eine Kurve in \(\Omega \), wobei dessen Projektion auf \(M\) genau die Trajektorie ist.

Man geht von einer nicht-autonomen DGL aus, d. h. \(𝕧\colon I \times M \rightarrow \real ^n\) ist das Geschwindigkeitsfeld. \(𝕧\) soll dabei folgende Bedingungen erfüllen:

  • \(𝕧\colon \Omega \rightarrow \real ^n\) ist stetig

  • \(\norm {𝕧(t, 𝕩)} \le C\) für \(t \in I\), \(𝕩 \in M\)
    (\(𝕧\) ist auf \(I \times M\) beschränkt)

  • \(\norm {𝕧(t, 𝕩’) - 𝕧(t, 𝕩’’)} \le L \norm {𝕩’ - \mathbbm {x’’}}\) für \(t \in I\), \(𝕩’, 𝕩’’ \in M\)
    (\(𝕧\) ist im zweiten Argument Lipschitz-stetig)

Gesucht ist eine Funktion \(𝕪\colon I \rightarrow M\) mit \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) und \(𝕪(t_0) = 𝕪_0 \in M\).
Dieses Problem bezeichnet man als Cauchy-/Anfangswertproblem.

Integration von \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) von \(t_0\) bis \(s\) ergibt \(𝕪(s) = 𝕪(t_0) + \int _{t_0}^s 𝕧(t, 𝕪(t))\dt \). Da im Integral allerdings immer noch \(𝕪(t)\) steckt, kann es ohne Weiteres nicht berechnet werden.

Man unterteilt nun das zu untersuchende Intervall \([t_0, b]\) in \(N\) Intervalle \([t_{k-1}, t_k]\), \(k = 1, \dotsc , N\) mit \(t_0 < t_1 < \dotsb < t_N\) (analog kann das mit \([a, t_0]\) durchgeführt werden).

1. Schritt: Für \(s \in [t_0, t_1]\) approximiert man das Integral, indem man \(𝕪(t) \approx 𝕪_0\) für \(t \approx t_0\) verwendet, also \(\widetilde {𝕪}(s) := 𝕪_0 + \int _{t_0}^s 𝕧(t, 𝕪_0)\dt \). Setze nun \(𝕪_1 := \widetilde {𝕪}(t_1)\).

\(k\)-ter Schritt:
Für \(s \in [t_{k-1}, t_k]\) setzt man \(\widetilde {𝕪}(s) := 𝕪_{k-1} + \int _{t_{k-1}}^s 𝕧(t, 𝕪_{k-1})\dt \) und berechnet \(𝕪_k := \widetilde {𝕪}(t_k)\).

weitere Vereinfachung (vereinfachte Eulersche Methode):
Statt \(𝕧(t, 𝕪_{k-1})\) verwendet man \(𝕧(t_{k-1}, 𝕪_{k-1})\), d. h. man benutzt \(t \approx t_{k-1}\) für \(t \in [t_{k-1}, t_k]\).
Dann lässt sich das Integral einfach berechnen: \(\widehat {𝕪}(s) = 𝕪_{k-1} + (s - t_{k-1}) \cdot 𝕧(t_{k-1}, 𝕪_{k-1})\).

Unter welchen Bedingungen bleibt \(\widetilde {𝕪}\) bzw. \(\widehat {𝕪}\) in \(M\)?

Aus der Beschränktheit von \(𝕧\) und obiger Integral-Gleichung folgt \(\norm {𝕪(s) - 𝕪_0} \le |s - t_0| C\). Dies soll kleiner/gleich \(\dist (𝕪_0, \partial M)\) sein.
Dabei ist für einen metrischen Raum \((M, d)\), \(x \in M\) und \(A, B \subset M\)
\(\dist (x, A) := \inf _{y \in A} d(x, y)\) sowie \(\dist (A, B) := \inf _{x \in A,\; y \in B} d(x, y)\).
Also stellt man die zusätzliche Forderung \(|s - t_0| \le \frac {1}{C} \dist (𝕪_0, \partial M)\) an \(I\).
(\(\widetilde {𝕪}\) und \(\widehat {𝕪}\) erfüllen dann die gleiche Abschätzung.)

Wie gut ist diese Approximation?

Im Folgenden werden äquidistante Punkte angenommen, also \(b = t_N\) und \(t_k - t_{k-1} = \frac {b}{N}\)
(d. h. \(t_0 = 0\) und \(|b - 0| \le \frac {1}{C} \dist (y_0, \partial M)\)).

Zunächst schätzt man den Fehler für \(s \in [t_0, t_1]\) ab:
\(\norm {𝕪(s) - \widetilde {𝕪}(s)} = \norm {\int _{t_0}^s (𝕧(t, 𝕪(t)) - 𝕧(t, 𝕪_0)) \dt } \le L \cdot \int _{t_0}^s \norm {𝕪(t) - 𝕪_0} \dt \le L \cdot \int _{t_0}^s (t - t_0) C \dt \)
\(= \frac {LC}{2} (s - t_0)^2\), d. h. insbesondere \(\Delta _1 := \norm {𝕪(t_1) - \widetilde {𝕪}(t_1)} \le \frac {LC}{2} \left (\frac {b}{N}\right )^2\).

Dann schätzt man den Fehler \(\Delta _{k} := \norm {𝕪(t_k) - \widetilde {𝕪}(t_k)}\) im \(k\)-ten Schritt (also für \(s \in [t_{k-1}, t_k]\)) ab: \(\norm {𝕪(s) - \widetilde {𝕪}(s)} = \norm {𝕪(t_{k-1}) - 𝕪_{k-1} + \int _{t_{k-1}}^s \left (𝕧(t, 𝕪(t)) - 𝕧(t, 𝕪_{k-1})\right ) \dt }\)
\(\le \Delta _{k-1} + \int _{t_{k-1}}^s \norm {𝕧(t, 𝕪(t)) - 𝕧(t, 𝕪(t_{k-1}))} \dt + \int _{t_{k-1}}^s \norm {𝕧(t, 𝕪(t_{k-1})) - 𝕧(t, 𝕪_{k-1})} \dt \)
\(\le \Delta _{k-1} + L \cdot \int _{t_{k-1}}^s \norm {𝕪(t) - 𝕪(t_{k-1})} \dt + L \cdot \int _{t_{k-1}}^s \norm {𝕪(t_{k-1}) - 𝕪_{k-1}} \dt \)
\(\le \Delta _{k-1} + \frac {LC}{2} (s - t_{k-1})^2 + L (s - t_{k-1}) \Delta _{k-1}\). Für \(s = t_k\) ergibt sich
\(\Delta _k = \norm {𝕪(t_k) - \widetilde {𝕪}(t_k)} \le \Delta _{k-1} \left (1 + L \frac {b}{N}\right ) + \frac {LC}{2} \left (\frac {b}{N}\right )^2\).

Entwicklung des Fehlers: Es gilt
\(\Delta _1 \le \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot 1\),
\(\Delta _2 \le \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot \left (1 + L \frac {b}{N}\right ) + \frac {LC}{2} \left (\frac {b}{N}\right )^2 \le \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot \left (1 + \left (1 + L \frac {b}{N}\right )\right )\),
\(\Delta _3 \le \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot \left (1 + \left (1 + L \frac {b}{N}\right ) + \left (1 + L \frac {b}{N}\right )^2\right )\) usw.
Daher ist \(\Delta _k \le \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot \sum _{\ell =0}^{k-1} \left (1 + L \frac {b}{N}\right )^\ell = \frac {LC}{2} \left (\frac {b}{N}\right )^2 \cdot \frac {\left (1 + L \frac {b}{N}\right )^k - 1} {\left (1 + L \frac {b}{N}\right ) - 1} = \frac {C}{2} \left (\frac {b}{N}\right ) \left (\left (1 + L \frac {b}{N}\right )^k - 1\right )\).

Setzt man \(k = N\), so gilt
\(\Delta _N = \norm {𝕪(b) - \widetilde {𝕪}(b)} \le \frac {1}{N} \frac {Cb}{2} \left (\left (1 + \frac {Lb}{N}\right )^N - 1\right ) \le \frac {1}{N} \frac {Cb}{2} \left (e^{Lb} - 1\right ) \xrightarrow {N \to \infty } 0\).

Das Euler-Verfahren konvergiert also.

Lokale Existenz und Eindeutigkeit der Lösung des Cauchy-Problems

Wie eben sei das Cauchy-Problem (CP) gegeben mit \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) und \(𝕪(t_0) = 𝕪_0\).
Dabei seien wieder \(I = [a, b]\), \(t_0 \in I\), \(\Omega = I \times M\) und \(M \subset \real ^n\).

Satz von Picard-Lindelöf:
\(𝕧\colon \Omega \rightarrow \real ^n\) erfülle folgende Voraussetzungen:

  • \(𝕧\colon \Omega \rightarrow \real ^n\) ist stetig

  • \(\norm {𝕧(t, 𝕩)} \le C\) für \(t \in I\), \(𝕩 \in M\)

  • \(\norm {𝕧(t, 𝕩’) - 𝕧(t, 𝕩’’)} \le L \norm {𝕩’ - \mathbbm {x’’}}\) für \(t \in I\), \(𝕩’, 𝕩’’ \in M\)

Dann besitzt das Problem (CP) für \(t \in I_\varepsilon (t_0)\) genau eine Lösung mit
\(I_\varepsilon (t_0) := \{t \in I \;|\; |t - t_0| \le (1 - \varepsilon ) \alpha \}\), wobei \(\varepsilon > 0\) und \(\alpha := \min \left \{\frac {1}{C} \dist (𝕪_0, \partial M), \frac {1}{L}\right \}\).

Im Beweis zeigt man: \((F, d_\C )\) ist ein vollständiger metrischer Raum, wobei
\(F := \overline {U_{r_\varepsilon }(𝕪_0)} = \{f \in \C (I_\varepsilon (t_0), \real ^n) \;|\; \forall _{t \in I_\varepsilon (t_0)}\; \norm {f(t) - 𝕪_0} \le r_\varepsilon \}\) mit \(r_\varepsilon > 0\).

Durch wiederholtes Anwenden des Satzes von Picard-Lindelöf kann man die Lösung eindeutig fortsetzen (auch rückwärts), bis man entweder das ganze Zeitintervall gelöst hat oder die Lösung an den Rand des Phasenraums stößt.

Ist \(M = \overline {M}\) abgeschlossen und konvex (d. h. für \(x, y \in M\) ist immer auch \(\overline {xy} \subset M\)), \(𝕧\) auf \(\inneres (M)\) Frechet-differenzierbar und \(𝕧’\) stetig auf \(\overline {M}\) fortsetzbar, so gilt nach dem Hauptsatz der Differentialrechnung \(\norm {𝕧(t, 𝕩) - 𝕧(t, 𝕪)} \le \sup _{\widetilde {𝕩} \in \overline {𝕩𝕪}} \norm {D_𝕩 𝕧(t, \widetilde {𝕩})} \cdot \norm {𝕩 - 𝕪}\).
Als stetige Funktion ist die Ableitung beschränkt, d. h. \(𝕧\) erfüllt obige Lipschitz-Bedingung \(\norm {𝕧(t, 𝕩) - 𝕧(t, 𝕪)} \le L \norm {𝕩 - 𝕪}\) für \(L \ge \sup _{\widetilde {𝕩} \in \overline {𝕩𝕪}} \norm {D_𝕩 𝕧(t, \widetilde {𝕩})}\).

Der Fixpunktsatz von Banach, der zum Beweis des Satzes verwendet wird, gibt auch eine Lösungsmethode: Wähle zunächst \(𝕙_0 \in \C (I_\varepsilon (t_0), \real ^n)\) mit \(𝕙_0(t) \equiv 𝕪_0\) konstant. Dann definiere für \(j \in \natural \) die Funktion \(𝕙_j(t) = (T 𝕙_{j-1})(t) := 𝕪_0 + \int _{t_0}^t 𝕧(\tau , 𝕙_{j-1}(\tau ))\d \tau \).
Nach dem Beweis des Satzes gilt \(𝕙_j \xrightarrow {d_\C } 𝕪\), d. h. \(𝕙_j \rightrightarrows 𝕪\), da \(T\colon F \rightarrow F\) eine Kontraktion ist.

Eine Fehlerabschätzung kann mit der Fehlerformel des Banachschen Fixpunktsatzes erfolgen.

Die Schnelligkeit der Konvergenz kann auch direkt abgeschätzt werden: Dazu betrachtet man \(\norm {𝕪(t) - 𝕙_0(t)} \le \norm {\int _{t_0}^t 𝕧(\tau , 𝕪(\tau ))\d \tau } \le C |t - t_0|\),
\(\norm {𝕪(t) - 𝕙_1(t)} \le \norm {\int _{t_0}^t \left (𝕧(\tau , 𝕪(\tau )) - 𝕧(\tau , 𝕙_0(\tau ))\right )\d \tau } \le \left |\int _{t_0}^t L \norm {𝕪(\tau ) - 𝕙_0(\tau )}\d \tau \right |\)
\(\le CL \cdot \left |\int _{t_0}^t |\tau - t_0| \d \tau \right | \le \frac {CL}{2} |t - t_0|^2\), usw., also
\(\norm {𝕪(t) - 𝕙_j(t)} \le \frac {CL^j}{(j + 1)!} |t - t_0|^{j+1}\) für \(t \in I_\varepsilon (t_0)\).

Der Satz von Peano

Eine wichtige Voraussetzung beim Satz von Picard-Lindelöf ist die Lipschitz-Stetigkeit in der zweiten Komponente, also \(\norm {𝕧(t, 𝕩’) - 𝕧(t, 𝕩’’)} \le L\norm {𝕩’ - 𝕩’’}\).

Es gibt aber viele Funktionen, die nicht Lipschitz-stetig sind. Ein Beispiel dafür ist \(v(t, y) = y^{2/3}\) (z. B. mit zugehörigem Cauchy-Problem \(\dot {y}(t) = \sqrt [3]{y^2(t)}\) für \(t \in \real \) und \(y(0) = 0\)). \(y^{2/3}\) ist in \(0\) nicht Lipschitz-stetig, da \(\frac {|h^{2/3}|}{|h|} \to \infty \) für \(h \to 0\).
Eine offensichtliche Lösung ist \(y(t) \equiv 0\) für \(t \in \real \).
Eine zweite Lösung erhält man durch Separation: Integriert man \(\frac {\dot {y}(t)}{\sqrt [3]{y^2(t)}} = 1\), so erhält man \(\int _{t_0}^t \frac {\dot {y}(\tau )}{\sqrt [3]{y^2(\tau )}} \d \tau = \int _{y(t_0)}^{y(t)} \frac {1}{y^{2/3}} \dy = \left .3y^{1/3}\right |_{y(t_0)}^{y(t)} = t - t_0\), also \(3(y^{1/3}(t) - y^{1/3}(t_0)) = t - t_0\). Mit \(t_0 = 0\) und \(y(t_0) = 0\) folgt, dass \(y(t) = \left (\frac {t}{3}\right )^3\) die Gleichung und die Anfangsbedingung erfüllt.
Es kann also zwei verschiedene Lösungen geben, wenn man die Forderung der Lipschitz-Stetigkeit weglässt.

Satz von Peano: Seien \(I \subset \real \), \(M \subset \real ^n\), \(\Omega = I \times M\) und \((t_0, 𝕪_0) \in \Omega \).
\(𝕧\colon \Omega \rightarrow \real ^n\) erfülle folgende Voraussetzungen:

  • \(𝕧\colon \Omega \rightarrow \real ^n\) ist stetig

  • \(\norm {𝕧(t, 𝕩)} \le C\) für \(t \in I\), \(𝕩 \in M\)

Dann besitzt das Cauchy-Problem (CP) für \(t \in \widetilde {I}_\varepsilon (t_0)\) mindestens eine Lösung mit
\(\widetilde {I}_\varepsilon (t_0) := \{t \in I \;|\; |t - t_0| \le (1 - \varepsilon ) \frac {1}{C} \dist (𝕪_0, \partial M)\}\) für \(\varepsilon > 0\).

Strategie des Beweises: Sei \((F, d)\) ein vollständiger metrischer Raum.

relativ kompakt: \(G \subset F\) heißt relativ kompakt, falls \(\overline {G}\) kompakt ist (im Sinne von folgen-kompakt).

Beispiel: \(G \subset \real ^n\) ist relativ kompakt genau dann, wenn \(G\) beschränkt ist (Bolzano).
Dies gilt aber nicht in unendlich-dimensionalen Räumen!
Allgemein gesagt ist \(G \subset F\) relativ kompakt genau dann, wenn für jede Folge \(\{f_n\}_{n \in \natural }\), \(f_n \in G\) eine Teilfolge \(\{f_{n_k}\}_{k \in \natural }\) existiert mit \(f_{n_k} \to f \in \overline {G}\).

kompakte Abbildung: Seien \(D \subset F\) und \(T\colon D \rightarrow F\) eine Abbildung.
\(T\) heißt kompakt auf \(D\), falls \(TD = \{y \in F \;|\; \exists _{x \in D}\; Tx = y\}\) relativ kompakt ist.

approximative Lösung des Fixpunktproblems: Das Fixpunktproblem ist für \(T\) auf \(D\) approximativ lösbar, falls es eine Folge \(\{x_n\}_{n \in \natural }\), \(x_n \in D\) gibt mit \(d(Tx_n, x_n) \xrightarrow {n \to \infty } 0\).

Fixpunktsatz:
Seien \((F, d)\) ein vollständiger metrischer Raum, \(D \subset F\) abgeschlossen und \(T\colon D \rightarrow F\) mit

  • \(T\) ist stetig,

  • \(T\) ist auf \(D\) kompakt und

  • das Fixpunktproblem für \(T\) auf \(D\) lässt sich approximativ lösen.

Dann hat \(T\) mindestens einen Fixpunkt, d. h. es gibt ein \(y \in D\) mit \(Ty = y\).

Wie wird diese Idee zum Beweis des Satzes von Peano verwendet?

\(\C (\widetilde {I}_\varepsilon (t_0), \real ^n)\) ist ein Banachraum. Beim Beweis vom Satz von Picard-Lindelöf wurde gezeigt, dass \((F, d_\C )\) mit \(F := \overline {U_{r_\varepsilon }(𝕪_0)}\) ein vollständiger metrischer Raum ist, da folgen-abgeschlossen. Dabei ist \(\overline {U_{r_\varepsilon }(𝕪_0)} = \{f \in \C (\widetilde {I}_\varepsilon (t_0), \real ^n) \;|\; \forall _{t \in \widetilde {I}_\varepsilon (t_0)}\; \norm {f(t) - 𝕪_0} \le r_\varepsilon \}\) mit
\(r_\varepsilon := (1 - \varepsilon ) \dist (𝕪_0, \partial M)\).

Definiert man die Abbildung \(T\colon D \rightarrow F\) mit \(D := F = \overline {D}\) gleich wie im Beweis vom Satz von Picard-Lindelöf, d. h. \((Tf)(t) := 𝕪_0 + \int _{t_0}^t 𝕧(\tau , f(\tau ))\d \tau \), \(t \in \widetilde {I}_\varepsilon (t_0)\), dann lässt sich der Fixpunktsatz anwenden, wenn man die Bedingungen 1., 2. und 3. gezeigt hat. Wie im Beweis vom Satz von Picard-Lindelöf folgt aus \(Ty = y\) für ein \(y \in D = F\), dass \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) mit \(𝕪(t_0) = 𝕪_0\).

Die erste Bedingung der Stetigkeit zeigt man, indem man \(𝕧\) auf \(\widetilde {I}_\varepsilon (t_0) \times \overline {U_{r_\varepsilon }(𝕪_0)}\) einschränkt.
Die eingeschränkte Abbildung \(𝕧\) ist gleichmäßig stetig, da \(\widetilde {I}_\varepsilon (t_0) \times \overline {U_{r_\varepsilon }(𝕪_0)}\) kompakt ist.
Aus der gleichmäßigen Stetigkeit in der zweiten Komponente folgt dann die Aussage.

Die dritte Bedingung der approximativen Lösbarkeit beweist man konstruktiv: Man definiert eine Folge \(\{x_n\}_{n \in \natural }\) von Funktionen \(x_n \in D\) mit \(x_n(t) := 𝕪_0\) für \(t \in [t_0, t_0 + \frac {1}{n}]\) und
\(x_n(t) := 𝕪_0 + \int _{t_0+1/n}^t 𝕧(\tau , x_n(\tau - \frac {1}{n}))\d \tau \) für \(t > t_0 + \frac {1}{n}\). Die Zeitverschiebung \(\tau - \frac {1}{n}\) sorgt dafür, dass \(x_n\) intervallweise in Intervallen der Länge \(\frac {1}{n}\) berechnet werden kann.
Man zeigt anschließend \(d_\C (Tx_n, x_n) \to 0\), d. h. \(\norm {(Tx_n)(t) - x_n(t)} \to 0\) für \(n \to \infty \).

Die zweite Bedingung, dass \(TD\) relativ kompakt ist, wird für die Existenz einer konvergenten Teilfolge \(\{x_{n_k}\}_{k \in \natural }\) mit \(x_{n_k} \to y\) benötigt.
In diesem Fall gilt dann mit \(Tx_{n_k} - x_{n_k} =: s_{n_k}\) für \(k \to \infty \) im Grenzwertübergang \(Ty - y = 0\).

Für die zweite Bedingung benötigt man ein Kompaktheitskriterium in \(\C (\widetilde {I}_\varepsilon (t_0), \real ^n)\). Das Kompaktheitskriterium von Bolanzo gilt nicht: Betrachtet man die abgeschlossene (und beschränkte) Einheitskugel \(\{f \in \C (\widetilde {I}, \real ^n) \;|\; \norm {f}_\C \le 1\}\) mit \(\widetilde {I} := \widetilde {I}_\varepsilon (t_0)\), so kann man Funktionen \(f_n\) aus dieser Einheitskugel definieren, wobei \(f_n(t)\) auf dem vorderen \(\frac {1}{2^n}\)-tel und dem hinteren \(\frac {2^{n-1} - 1}{2^{n-1}}\)-tel Teil verschwindet und dazwischen linear bis zu \(1\) ansteigt und abfällt (stetig). Es gilt \(\norm {f_n - f_m} = 1\) für \(n \not = m\), d. h. \(f_n\) ist keine Cauchy-Folge, damit gibt es keine konvergente Teilfolge.

gleichgradig stetig: Eine Menge \(G\) von Funktionen \(G \subset \C (\widetilde {I}, \real ^n)\) heißt gleichgradig stetig, falls \(\forall _{\varepsilon > 0} \exists _{\delta _\varepsilon > 0} \forall _{t’, t’’ \in \widetilde {I},\; |t’ - t’’| < \delta _\varepsilon } \forall _{f \in G}\; \norm {f(t’) - f(t’’)} < \varepsilon \).

Lemma: Seien \(J \subset \widetilde {I}\) eine in \(\widetilde {I}\) dichte Teilmenge, \(G\) gleichgradig stetig, \(\{f_n\}_{n \in \natural }\), \(f_n \in G\) eine Folge in \(G\) und \(f_n\) konvergiere punktweise auf \(J\), d. h. \(\forall _{t \in J}\; f_n(t) \to f(t)\).
Dann gibt es eine stetige Funktion \(f \in \C (\widetilde {I}, \real ^n)\), sodass \(f_n\) gleichmäßig gegen \(f\) auf \(\widetilde {I}\) konvergiert, d. h. \(\exists _{f \in \C (\widetilde {I}, \real ^n)}\; f_n \xrightarrow {\norm {\cdot }_\C } f\).

Lemma von Arzelà-Ascoli: \(G \subset \C (\widetilde {I}, \real ^n)\) ist relativ kompakt genau dann,
wenn \(G\) beschränkt (also \(\exists _{C} \forall _{f \in G} \forall _{t \in \widetilde {I}}\; \norm {f(t)} \le C\)) und gleichgradig stetig ist.

Nun lässt sich die relative Kompaktheit von \(TD\) leicht zeigen: \(TD\) ist beschränkt, da
\(\norm {Tf} = \max _t \norm {𝕪_0 + \int _{t_0}^t 𝕧(\tau , f(\tau ))\d \tau } \le \norm {𝕪_0} + |\widetilde {I}| \cdot C\). Außerdem ist \(TD\) gleichgradig stetig, da \(\norm {(Tf)(t’) - (Tf)(t’’)} = \norm {\int _{t’}^{t’’} 𝕧(\tau , f(\tau ))\d \tau } \le |t’ - t’’| \cdot C < \varepsilon \) für \(|t’ - t’’| < \delta _\varepsilon = \frac {\varepsilon }{C}\).

Damit ist der Beweis vom Satz von Peano abgeschlossen.

Der Beweis ist nicht konstruktiv, da die Kompaktheit nicht aussagt, welche Teilfolge man auswählen kann, sondern nur, dass es überhaupt eine solche gibt. Das wird am Ende des Beweises verwendet, somit kann man nicht genau sagen, welche der Teilfolgen nun tatsächlich konvergiert.

Am Beweis zeigt sich auch die Wichtigkeit von Fixpunktsätzen. Alternativ hätte man den Satz von Peano auch aus folgendem Fixpunktsatz ableiten können:

Fixpunktsatz von Schauder:
Seien \(B\) ein Banachraum, \(D \subset B\) nicht-leer, konvex, kompakt und \(T\colon D \rightarrow D\) stetig.
Dann gibt es einen Fixpunkt \(y \in D\) von \(T\), d. h. \(\exists _{y \in D}\; Ty = y\).

Im Spezialfall für \(B = \real ^n\) und \(D = \overline {U_1(0)} = \{x \in \real ^n \;|\; \norm {x} \le 1\}\) und \(T\colon \overline {U_1(0)} \rightarrow \overline {U_1(0)}\) stetig erhält man den Fixpunktsatz von Brouwer.

Um die Rückrichtung des Lemmas von Arzelà-Ascoli zu beweisen, benötigt man folgende Definition und folgendes Lemma:

\(\varepsilon \)-Netz: Seien \((B, d)\) ein metrischer Raum und \(G \subset B\).
\(G_\varepsilon \subset G\) heißt \(\varepsilon \)-Netz von \(G\), falls \(\forall _{x \in G} \exists _{y = y(\varepsilon , x) \in G_\varepsilon }\; d(x, y) < \varepsilon \).

Lemma: Seien \((B, d)\) ein vollständiger metrischer Raum und \(G \subset B\) relativ kompakt.
Dann gibt es für alle \(\varepsilon > 0\) ein endliches \(\varepsilon \)-Netz \(G_\varepsilon \) von \(G\).

Stetigkeit der Lösung des Cauchy-Problems bzgl. den Anfangsdaten

Gegeben sei wieder das Cauchy-Problem (CP) mit \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\), \(𝕪(t_0) = 𝕪_0\).
Im Folgenden sei nun \((t_0, 𝕪_0) \in \inneres (I) \times \inneres (M)\) und es gelten die drei Voraussetzungen des Satzes von Picard-Lindelöf. Derselbe Satz garantiert dann die Existenz von einer Lösung
\(𝕪(t) = 𝕪(t, t_0, 𝕪_0)\) auf \(I_\varepsilon \) sowie deren Eindeutigkeit.

Satz: \(𝕪(t, t_0, 𝕪_0)\) ist stetig in allen drei Argumenten.

Differenzierbarkeit der Lösung nach den Anfangsbedingungen

Im Folgenden sei wieder das Cauchy-Problem (CP) \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t), \lambda )\), \(𝕪(t_0) = \eta \) gegeben (nun hänge das Geschwindigkeitsfeld von einem zusätzlichen Parameter \(\lambda \) ab). Gelten die Voraussetzungen von Picard-Lindelöf gleichmäßig in \(\lambda \in \real \), so ist \(𝕪(t, t_0, \eta , \lambda )\) stetig in \(t_0, \eta , \lambda \).

Allgemeiner folgt aus \(𝕧 \in \C (I \times M \times D, \real ^n)\), \(\forall _{(t, 𝕩, \lambda ) \in I \times M \times D}\; \norm {𝕧(t, 𝕩, \lambda )} \le C\) und
\(\forall _{(t, 𝕩, \lambda ) \in I \times M \times D}\; \norm {𝕧(t, 𝕩’, \lambda ) - 𝕧(t, 𝕩’’, \lambda )} \le L \norm {𝕩’ - 𝕩’’}\) die Stetigkeit von \(𝕪\) in \((t_0, \eta , \lambda )\).

Sei nun \(𝕧\) differenzierbar und die Ableitung sei mit dem Integral
\(𝕪(t, t_0, \eta , \lambda ) = \eta + \int _{t_0}^t 𝕧(\tau , 𝕪(\tau , t_0, \eta , \lambda ), \lambda ) \d \tau \) vertauschbar. Formale Differentiation ergibt
\(\frac {\partial 𝕪}{\partial t_0} = 0 + \int _{t_0}^t \left (\frac {D 𝕧}{D 𝕪} \cdot \frac {\partial 𝕪}{\partial t_0}\right ) \d \tau - 𝕧(t_0, 𝕪(t_0, t_0, \eta , \lambda ), \lambda )\) (4),
\(\frac {D 𝕪}{D \eta } = 𝟙 + \int _{t_0}^t \left (\frac {D 𝕧}{D 𝕪} \cdot \frac {D 𝕪}{D \eta }\right ) \d \tau \) (5) sowie
\(\frac {\partial 𝕪}{\partial \lambda } = 0 + \int _{t_0}^t \left (\frac {D 𝕧}{D 𝕪} \cdot \frac {\partial 𝕪}{\partial \lambda } + \frac {\partial 𝕧}{\partial \lambda } \right ) \d \tau \) (6).

Satz: Seien die Voraussetzungen des Satzes von Picard-Lindelöf gleichmäßig erfüllt und \(\frac {\partial v_k}{\partial y_\ell }\) stetig in \(I \times M \times D\).
Dann ist \(𝕪(t, t_0, \eta , \lambda )\) im Existenzbereich (nach Picard-Lindelöf) bzgl. \(t_0, \eta , \lambda \) differenzierbar. Diese (partiellen) Ableitungen sind stetig und erfüllen (4) bzw. (5).
Ist zusätzlich \(\frac {\partial v_k}{\partial \lambda }\) stetig, so ist auch \(\frac {\partial y}{\partial \lambda }\) stetig und es gilt (6).

Satz: Ist zudem \(𝕧\) analytisch in \(\lambda \in D \subset \complex \) (d. h. durch eine Potenzreihe darstellbar),
so ist auch \(𝕪\) im Existenzbereich analytisch in \(\lambda \).

Bewegungsintegrale und Erhaltungsgrößen

Sei \(𝕪(t, t_0, y_0)\) die nach Picard-Lindelöf existente und eindeutige Lösung des Cauchy-Problems (CP) mit \(𝕪(t_0) = y_0\). Für ein vorgegebenes \(t_1 \in I\) betrachtet man \(y_1 := 𝕪(t_1, t_0, y_0)\). Weil die Lösung eindeutig ist, gilt \(𝕪(t, t_0, y_0) = 𝕪(t, t_1, y_1)\) für alle \(t \in I\). Insbesondere gilt für \(t = t_0\), dass \(y_0 = 𝕪(t_0, t_0, y_0) = 𝕪(t_0, t_1, 𝕪(t_1, t_0, y_0))\) nicht von \(t_1 \in I\) abhängt.

Definiert man nun für fixes \(t_0 \in I\) eine Funktion \(\psi \colon I \times M \rightarrow \real ^n\) mit \(\psi (t, z) := 𝕪(t_0, t, z)\), so ist \(\left .\psi (t, z)\right |_{z = 𝕪(t, t_0, y_0)} = 𝕪(t_0, t, 𝕪(t, t_0, y_0)) = y_0\) konstant auf Lösungen des Cauchy-Problems (CP) für beliebige \(t \in I\).

(allgemeines) Integral: Ein (allgemeines) Integral einer DGL \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) ist eine Abbildung \(\psi \colon I \times M \rightarrow \real ^n\) mit \(M \subset \real ^n\), welche auf allen Integralkurven einen konstanten Wert annimmt, d. h. \(\psi (t, z)\) ist für \(z = 𝕪(t, t_0, y_0)\) und beliebige \(t \in I\) konstant.
Für \(\psi \not \equiv \const \) heißt \(\psi \) nicht-trivial.

erstes Bewegungsintegral: Ein erstes Integral (der Bewegung) einer DGL \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) ist eine Abbildung \(\psi _k\colon I \times M \rightarrow \real \) mit \(M \subset \real ^n\), welche auf allen Integralkurven einen konstanten Wert annimmt.

abhängig: Zwei erste Integrale \(\psi _k\) und \(\psi _\ell \) heißen abhängig, falls es eine Funktion \(g\colon \real \rightarrow \real \) gibt mit \(\psi _\ell = g \circ \psi _k\).

Beispiel: Betrachtet man wieder die Auslenkung \(q(t)\) einer Feder mit Massepunkt der Masse \(m\), dessen Impuls \(p(t) = m \dot {q}(t)\), Zustand \(𝕪(t) = \begin {pmatrix}q(t) \\ p(t)\end {pmatrix}\) und DGL \(\dot {𝕪}(t) = \begin {pmatrix}1/m \cdot p(t) \\ -k \cdot q(t)\end {pmatrix} = A 𝕪(t)\) mit \(A = \begin {pmatrix}0 & 1/m \\ -k & 0\end {pmatrix}\), so ist \(E(t) = \frac {p^2(t)}{2m} + \frac {kq^2(t)}{2} = W_\kin + W_\pot \) ein erstes Integral, d. h. eine Erhaltungsgröße (eine Größe, die sich im Zeitverlauf nicht ändert). Dies kann man einerseits durch Einsetzen der allgemeinen Lösung der DGL zeigen (untypisch, da erste Integrale oft als Hilfsmittel zur Lösungsbestimmung verwendet werden), andererseits durch Ableitung (diese ist dann \(0\), also ist die Erhaltungsgröße konstant).

Allgemeiner sei die DGL \(\dot {y}_1(t) = v_1(t, y_1(t), \dotsc , y_n(t))\), …, \(\dot {y}_n(t) = v_n(t, y_1(t), \dotsc , y_n(t))\) \(\;\Leftrightarrow \; \dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) gegeben. Dabei sei \(𝕪(t)\) eine Lösung der DGL und \(\psi (t, 𝕪(t)) = \const \).
Wegen \(\frac {d}{dt} \psi (t, 𝕪(t)) = 0\) gilt mit Kettenregel \(\frac {\partial \psi }{\partial t} + \frac {\partial \psi }{\partial y_1} \cdot v_1 + \dotsb + \frac {\partial \psi }{\partial y_n} \cdot v_n = 0\).

Diese partielle DGL muss jede Erhaltungsgröße \(\psi \) erfüllen. Umgekehrt ist jede Lösung dieser Gleichung eine Erhaltungsgröße.

Ist eine Erhaltungsgröße gefunden, d. h. \(\psi _1(t, y_1(t), \dotsc , y_n(t)) = c_1\), …,
\(\psi _n(t, y_1(t), \dotsc , y_n(t)) = c_n\), und ist der Satz über implizite Funktionen anwendbar (insbesondere ist \(\det \frac {D \psi }{D y} \not = 0\)), so ist \(𝕪 = 𝕪(t)\) lokal auflösbar.

Trennbare Veränderliche und lineare DGLs niedriger Ordnung

Trennung der Veränderlichen

\(y’(x) = f(x, y)\) besitzt trennbare Veränderliche, falls \(f(x, y) = h(y) g(x)\) mit \(h(y) \not \equiv 0\).
In diesem Fall erhält man mithilfe der Schreibweise \(\frac {dy}{dx} = h(y)g(x)\), also \(\int \frac {1}{h(y)}\dy = \int g(x)\dx + c\), einen allgemeinen Lösungsansatz (Trennung der Veränderlichen). Alternativ kann man diese Formel auch durch Integration nach \(x\) und die Substitution \(u = y(x)\) erreichen.
Die DGL wird gelöst, indem integriert und nach \(y = y(x)\) aufgelöst wird. Erst dann wird die Anfangsbedingung eingesetzt, um \(c\) zu ermitteln. Geschieht dies vorher, können Lösungen eventuell wegfallen!

Lineare DGLs erster Ordnung

Lineare DGL 1. Ordnung sind von der allgemeinen Form \(a_1(x) y’(x) + a_0(x) y(x) = g(x)\) mit \(a_1(x) \not \equiv 0\) und \(x \in D\), \(D\) gemeinsamer Definitionsbereich von \(a_1\), \(a_0\) und \(g\).
Die DGL heißt linear in \(y\), homogen für \(g(x) \equiv 0\) und inhomogen für \(g(x) \not \equiv 0\).

Satz: Seien \(y_h(x)\) die allgemeine Lösung der zugehörigen homogenen DGL (erfüllt mittels geeigneten Parametern alle Anfangsbedingungen) und \(y_p(x)\) eine partikuläre Lösung der inhomogenen DGL (erfüllt nur eine Anfangsbedingung). Dann löst \(y(x) = y_h(x) + y_p(x)\) die inhomogene DGL und jede weitere Lösung \(y(x)\) der DGL ist durch \(y(x) = y_h(x) + y_p(x)\) gegeben.

homogene DGL (\(g(x) \equiv 0\)):
\(a_1(x) y’(x) + a_0(x) y(x) = 0\) besitzt trennbare Veränderliche, d. h. \(y’(x) = -\frac {a_0(x)}{a_1(x)} y(x)\) bzw.
\(\int \frac {1}{y} \dy = -\int \frac {a_0(x)}{a_1(x)}\dx + \widetilde {c}\) bzw. \(y_h(x) = c \cdot \exp \left (-\int \frac {a_0(x)}{a_1(x)}\dx \right ) =: c \cdot \widetilde {y}_h(x)\).
Dies ist die allgemeine Lösung der homogenen DGL.

inhomogene DGL (Variation der Konstanten):
Setze \(y_p(x) := c(x) \cdot \widetilde {y}_h(x)\), dabei soll \(a_1(x) y_p’(x) + a_0(x) y_p(x) = g(x)\) gelten. Durch Einsetzen von \(y_p\) erhält man \(a_1(x) c’(x) \widetilde {y}_h(x) = g(x)\). Auflösen nach \(c’(x)\) ergibt \(c’(x) = \frac {g(x)}{a_1(x) \widetilde {y}_h(x)}\), also \(c(x) = \int \frac {g(x)}{a_1(x) \widetilde {y}_h(x)}\dx \). Die allgemeine Lösung lautet also \(y(x) = c \cdot \widetilde {y}_h(x) + y_p(x)\) mit
\(\widetilde {y}_h(x) = \exp \left (-\int \frac {a_0(x)}{a_1(x)}\dx \right )\) und \(y_p(x) = \int \frac {g(x)}{a_1(x) \widetilde {y}_h(x)}\dx \cdot \widetilde {y}_h(x)\).

Nicht-lineare DGLs erster Ordnung

Zu den nicht-linearen DGL 1. Ordnung gehören die sog. Bernoulli-DGL, deren allgemeine Form \(y’(x) + a(x) y(x) = b(x) y^n(x)\), \(n \in \natural _0\) lautet.
Für \(n = 0\) bzw. \(n = 1\) erhält man \(y’(x) + a(x) y(x) = b(x)\) bzw. \(y’(x) + a(x) y(x) = b(x) y(x)\), dies sind lineare DGL und lassen sich wie oben beschrieben lösen.
Für \(n \ge 2\) muss man in \(\frac {y’(x)}{y^n(x)} + a(x) y^{1-n}(x) = b(x)\) die Substitution \(z(x) := y^{1-n}(x)\) durchführen. Mit \(z’(x) = (1 - n) y^{-n}(x) y’(x)\) ergibt sich die äquivalente DGL \(\frac {z’(x)}{1 - n} + a(x) z(x) = b(x)\).
Dies ist wiederum eine lineare DGL 1. Ordnung und lässt sich auf bekannte Weise lösen.

Lineare DGLs zweiter Ordnung mit konst. Koeffizienten

Lineare DGL 2. Ordnung mit konstanten Koeffizienten sind von der allgemeinen Form
\(y’’(x) + a_1 y’(x) + a_0 y(x) = g(x)\), \(a_1, a_0 \in \real \).

homogene DGL (\(g(x) \equiv 0\)): \(y’’(x) + a_1 y’(x) + a_0 y(x) = 0\), \(a_1, a_0 \in \real \)   (1)

Fundamentalsystem: Seien \(y_1(x)\) und \(y_2(x)\) Lösungen von (1), wobei \(y_1\) und \(y_2\) linear unabhängig sind, d. h. für \(c_1 y_1(x) + c_2 y_2(x) \equiv 0\) gilt \(c_1 = c_2 = 0\).
Dann heißt \(\{y_1(x), y_2(x)\}\) Fundamentalsystem von (1). In diesem Fall ist
\(y(x) := c_1 y_1(x) + c_2 y_2(x)\) für \(c_1, c_2 \in \real \) die allgemeine Lösung von (1).

Zur Bestimmung von \(y_1\) und \(y_2\) berechnet man die beiden Nullstellen \(\lambda _1, \lambda _2\) des charakteristischen Polynoms \(P(\lambda ) := \lambda ^2 + a_1 \lambda + a_0\). Für \(\lambda _1 \not = \lambda _2\) ist \(y_1(x) := e^{\lambda _1 x}\) und \(y_2(x) := e^{\lambda _2 x}\).
Für \(\lambda _1 = \lambda _2 =: \lambda \) ist \(y_1(x) := e^{\lambda x}\) und \(y_2(x) := x e^{\lambda x}\).

Sind ausschließlich reelle Lösungen \(y(x) \in \real \), \(x \in \real \) verlangt und \(\lambda _1, \lambda _2 \in \complex \setminus \real \) (also \(\lambda _1 \not = \lambda _2\)), so kann man die Tatsache ausnutzen, dass \(y_1(x) = \overline {y_2(x)}\). In diesem Fall kann man \(y_1(x)\) und \(y_2(x)\) durch \(\Re y_1(x)\) und \(\Im y_1(x)\) ersetzen und erhält ein reelles Fundamentalsystem.
Für \(\lambda _{1,2} = a \pm bi\) ergibt sich nämlich \(y_1(x) := e^{ax} \sin (bx)\) und \(y_2(x) := e^{ax} \cos (bx)\).

inhomogene DGL (\(g(x) \not \equiv 0\)): \(y’’(x) + a_1 y’(x) + a_0 y(x) = g(x)\), \(a_1, a_0 \in \real \)   (2)

Die inhomogene DGL besitzt die allgemeine Lösung \(y(x) := y_h(x) + y_p(x)\), wobei \(y_h(x)\) die allgemeine Lösung der zugehörigen homogenen DGL und \(y_p(x)\) eine partikuläre Lösung der inhomogenen DGL ist. \(y_h(x)\) kann wie oben bestimmt werden, für \(y_p(x)\) gibt es zwei Möglichkeiten.

Satz (Variation der Konstanten): Seien \(\{y_1(x), y_2(x)\}\) ein Fundamentalsystem von (1) und \(c_1(x), c_2(x)\), sodass \(c_1’(x) y_1(x) + c_2’(x) y_2(x) = 0\) sowie \(c_1’(x) y_1’(x) + c_2’(x) y_2’(x) = g(x)\).
Dann ist \(y_p(x) := c_1(x) y_1(x) + c_2(x) y_2(x)\) eine partikuläre Lösung von (2).

In der Praxis verwendet man diese Methode, indem man zunächst \(y_1(x)\) und \(y_2(x)\) wie oben berechnet, \(c_1(x)\) und \(c_2(x)\) allgemein ansetzt und schließlich versucht, diese durch Integration aus den obigen beiden Gleichungen zu bestimmen.

Ansatzmethode: Diese Methode funktioniert nur für Differentialgleichungen der Form
\(y’’(x) + a_1 y’(x) + a_0 y(x) = g(x)\) mit \(g(x) = e^{qx} \cdot (\alpha _m x^m + \dotsb + \alpha _1 x + \alpha _0)\).
In diesem Fall ist nämlich \(y_p(x) = x^\ell e^{qx} \cdot (\beta _m x^m + \dotsb + \beta _1 x + \beta _0)\) eine partikuläre Lösung der DGL, wobei \(\ell = 0\), falls \(q\) keine Nullstelle des char. Polynoms ist, und
\(\ell = n\), falls \(q\) eine Nullstelle des char. Polynoms mit Vielfachheit \(n\) ist.
Um die \(\beta _0, \dotsc , \beta _m\) zu bestimmen, muss man den allgemeinen Ansatz von \(y_p(x)\) in die DGL einsetzen und durch Koeffizientenvergleich die Koeffizienten ermitteln.

Existenz und Eindeutigkeit der Lösung linearer DGLs

Für endlich-dimensionale Vektorräume (\(\dim E = n\), z. B. \(E = \real ^n\)) ist die Menge \(\L (E, E)\) der linearen, stetigen Operatoren auf \(E\) definiert. \((\L (E, E), \norm {\cdot }_\L )\) ist ein normierter Vektorraum.
Für \(I := [a, b] \subset \real \) sei \(A(\cdot )\colon [a, b] \rightarrow \L (E, E)\) stetig, d. h. \(A(t) \in \L (E, E)\) für \(t \in I\).
Des Weiteren sei \(f\colon [a, b] \rightarrow E\) eine stetige Funktion.

Für den Fall \(E := \real ^n\) ist \(\{e_j \;|\; j = 1, \dotsc , n\}\) mit \(e_j = (0, \dotsc , 0, 1, 0, \dotsc , 0)\) eine Basis von \(\real ^n\). Die Abbildung \(A(t)\) lässt sich dann als Matrix \(A(t) =\) \(\begin {pmatrix} \alpha _{11}(t) & \dots & \alpha _{1n}(t) \\ \vdots & & \vdots \\ \alpha _{n1}(t) & \dots & \alpha _{nn}(t) \end {pmatrix}\) schreiben, wobei \(A(t)\) stetig in \(t\) ist genau dann, wenn \(\alpha _{kl}(\cdot )\colon I \rightarrow \real \) stetig ist für alle \(k, l = 1, \dotsc , n\).
Außerdem ist \(f(t) = (f_1(t), \dotsc , f_n(t))\) stetig in \(t\) genau dann, wenn \(f_k(\cdot )\colon I \rightarrow \real \) stetig ist für alle \(k = 1, \dotsc , n\).

Seien nun \(𝕪(t) = (y_1(t), \dotsc , y_n(t))\) und \(f(t) \not \equiv 0\). Man bezeichnet \(\dot {𝕪}(t) = A(t) 𝕪(t) + f(t)\), d. h.
\(\left \{\begin {array}{ccccccccc} \dot {y}_1(t) & = & \alpha _{11}(t) y_1(t) & + & \dotsb & + & \alpha _{1n}(t) y_n(t) & + & f_1(t) \\ \vdots & & \vdots & & & & \vdots & & \vdots \\ \dot {y}_n(t) & = & \alpha _{n1}(t) y_1(t) & + & \dotsb & + & \alpha _{nn}(t) y_n(t) & + & f_n(t), \end {array}\right .\)
als eine lineare, nicht-autonome, inhomogene DGL
(nicht-autonom wegen \(A = A(t)\), \(f = f(t)\), inhomogen wegen \(f(t) \not \equiv 0\)).
Im Gegensatz dazu heißt \(\dot {𝕪}(t) = A(t) 𝕪(t)\) lineare, nicht-autonome, homogene DGL.

Alternativ kann man auch \(\dot {𝕪}(t) = 𝕧(t, 𝕪(t))\) mit \(𝕧(t, 𝕩) = A(t) 𝕩 + f(t)\) schreiben.

Die Voraussetzungen von Picard-Lindelöf sind erfüllt, denn:

  • \(𝕧(t, 𝕩)\) ist stetig in \((t, 𝕩)\)

  • \(\norm {𝕧(t, 𝕩)}_E \le \norm {A(t) 𝕩}_E + \norm {f(t)}_E \le \norm {A(t)}_\L \norm {𝕩}_E + \norm {f(t)}_E \le C_1 R + C_2\)
    für \((t, 𝕩) \in I \times U_R(0)\)

  • \(\norm {𝕧(t, 𝕩’) - 𝕧(t, 𝕩’’)} \le \norm {A(t) (𝕩’ - 𝕩’’)} \le C_1 \norm {𝕩’ - 𝕩’’}\)

Daher kann man nach dem Satz von Picard-Lindelöf die lokale Existenz und Eindeutigkeit der Lösung folgern. Die Lösung ist global fortsetzbar bis an den Rand des Phasenraums \(M = \real ^n\).

Satz: Sei (CP) das Cauchy-Problem der homogenen linearen DGL, d. h. \(\dot {𝕪}(t) = A(t) 𝕪(t)\) mit \(𝕪(t_0) = 𝕪_0\) für ein \(t_0 \in [a, b]\). Dann besitzt (CP) eine eindeutige Lösung für alle \(t \in [a, b]\).

Struktur der Lösungen der homogenen Gleichung

Sind \(𝕪_1(t)\) und \(𝕪_2(t)\) Lösungen der homogenen linearen DGL \(\dot {𝕪}(t) = A(t) 𝕪(t)\) (ohne Festlegung der Anfangsbedingung), so ist \(𝕪(t) := \beta _1 𝕪_1(t) + \beta _2 𝕪_2(t)\) ebenfalls eine Lösung der DGL \(\dot {𝕪}(t) = A(t) 𝕪(t)\). Die Menge \(\mathcal {N}\) der Lösungen von \(\dot {𝕪}(t) = A(t) 𝕪(t)\) ist daher linear, d. h. \(\mathcal {N} \subset \C ^1(I, \real ^n)\) ist ein Untervektorraum.

Satz: Sei \(\mathcal {B} = \{𝕓_1, \dotsc , 𝕓_n\}\) eine Basis von \(E\) und \(Y_\mathcal {B} = \{𝕪_{𝕓_1}, \dotsc , 𝕪_{𝕓_n}\}\) eine Menge von Lösungen der homogenen linearen DGL \(\dot {𝕪}_{𝕓_j}(t) = A(t) 𝕪_{𝕓_j}(t)\) mit \(𝕪_{𝕓_j}(t_0) = 𝕓_j\), \(t_0 \in I\).
Ist \(A(\cdot ) \in \C (I, \L (E, E))\), so ist \(Y_\mathcal {B}\) eine Basis von \(\mathcal {N}\), d. h. \(\dim \mathcal {N} = n = \dim E\).
Zusätzlich gilt für jede Linearkombination \(𝕪_0\) von \(\mathcal {B}\), dass die Linearkombination von \(Y_\mathcal {B}\) mit den gleichen Koeffizienten die DGL mit Startwert \(𝕪_0\) löst.

Das homogene, nicht-autonome Problem besitzt also einen \(n\)-dimensionalen Lösungsraum
(\(n := \dim E\)).

Lemma:
Das System von Vektoren \(\mathcal {B}^{(t_1)} = \{𝕪_{𝕓_1}(t_1), \dotsc , 𝕪_{𝕓_n}(t_1)\} \subset E\) bildet für jedes \(t_1 \in I\) eine Basis.

Fundamentalsystem: Ein vollständiges, linear unabhängiges System von Lösungen der homogenen Gleichung \(\dot {𝕪}(t) = A(t) 𝕪(t)\) (also eine Basis von \(\mathcal {N}\)) nennt man Fundamentalsystem.

Folgerung: Seien \(Y = \{𝕪_1, \dotsc , 𝕪_n\} \subset \mathcal {N}\) Lösungen der homogenen linearen DGL.
Dann ist \(Y\) ein Fundamentalsystem (d. h. linear unabhängig) genau dann, wenn
\(Y_{\widetilde {t}} = \{𝕪_1(\widetilde {t}), \dotsc , 𝕪_n(\widetilde {t})\}\) linear unabhängig ist für ein \(\widetilde {t} \in I\). Dies ist der Fall genau dann, wenn \(Y_t = \{𝕪_1(t), \dotsc , 𝕪_n(t)\}\) für alle \(t \in I\) linear unabhängig ist.

Die Wronski-Determinante und die Formel von Liouville

Wronski-Determinante:
Seien \(n\) Funktionen \(\varphi _1, \dotsc , \varphi _n\colon I \rightarrow \real ^n\) mit \(\varphi _j(\tau ) :=\) \(\begin {pmatrix} \varphi _j^1(\tau ) \\ \vdots \\ \varphi _j^n(\tau ) \end {pmatrix}\) gegeben.
Dann heißt \(W(\varphi _1, \dotsc , \varphi _n)(\cdot )\colon I \rightarrow \real \), \(W(\varphi _1, \dotsc , \varphi _n)(\tau ) := \det \) \(\begin {pmatrix} \varphi _1^1(\tau ) & \dots & \varphi _n^1(\tau ) \\ \vdots & & \vdots \\ \varphi _1^n(\tau ) & \dots & \varphi _n^n(\tau ) \end {pmatrix}\)
\(= \det (\varphi _1(\tau ), \dotsc , \varphi _n(\tau ))\) Wronski-Determinante oder Wronskian.

Lemma: \(Y = \{𝕪_1, \dotsc , 𝕪_n\} \subset \mathcal {N}\) ist ein Fundamentalsystem der homogenen linearen DGL genau dann, wenn \(W(𝕪_1, \dotsc , 𝕪_n)(t) \not = 0\) für alle \(t \in I\), was der Fall ist genau dann, wenn \(W(𝕪_1, \dotsc , 𝕪_n)(\widetilde {t}) \not = 0\) für ein \(\widetilde {t} \in I\).

Sei eine \(n \times n\)-Matrix \(A = (\alpha _{kl})_{k,l=1}^n\) gegeben. \(\Sp (A) := \sum _{k=1}^n \alpha _{kk}\) bezeichnet die Spur von \(A\). Wegen \(\Sp (BAC) = \Sp (ACB) = \Sp (CBA)\) gilt insbesondere für \(B\) invertierbar, dass \(\Sp (B^{-1} A B) = \Sp (A B B^{-1}) = \Sp (A)\), also ist die Spur invariant bei Ähnlichkeitstransformationen (Basiswechsel). Daraus folgt unter anderem, dass die Spur einer Matrix die Summe ihrer Eigenwerte ist.

Satz (Formel von Liouville):
Sei \(Y = \{𝕪_1, \dotsc , 𝕪_n\} \subset \mathcal {N}\) ein System von Lösungen von \(\dot {𝕪}(t) = A(t) 𝕪(t)\).
Dann gilt \(\frac {d}{dt} W(𝕪_1, \dotsc , 𝕪_n)(t) = \Sp (A(t)) \cdot W(𝕪_1, \dotsc , 𝕪_n)(t)\),
d. h. \(W(𝕪_1, \dotsc , 𝕪_n)(t) = W(𝕪_1, \dotsc , 𝕪_n)(t_0) \cdot \exp \left (\int _{t_0}^t \Sp (A(\tau ))\d \tau \right )\).

Der Evolutionsoperator

Evolutionsoperator: Gegeben sei die homogene lineare DGL \(\dot {𝕪}(t) = A(t) 𝕪(t)\) mit
\(A(\cdot )\colon I \rightarrow \L (E, E)\) stetig (z. B. \(E = \real ^n\)). Dann ist für \(t_0, t_1 \in I\) der Evolutionsoperator
\(U(t_1, t_0)\colon E \rightarrow E\) definiert durch \(U(t_1, t_0) 𝕪_0 := 𝕪(t_1)\), wobei \(𝕪(t)\) die DGL \(\dot {𝕪}(t) = A(t) 𝕪(t)\) mit \(𝕪(t_0) = 𝕪_0\) löst.

Da die Lösung existiert und eindeutig ist (Picard-Lindelöf), ist die Abbildung wohldefiniert.

\(U(t_1, t_0)\colon E \rightarrow E\) ist eine lineare Abbildung, d. h.
es gilt \(U(t_1, t_0)(\beta ^{(1)} 𝕪_0^{(1)} + \beta ^{(2)} 𝕪_0^{(2)}) = \beta ^{(1)} U(t_1, t_0) 𝕪_0^{(1)} + \beta ^{(2)} U(t_1, t_0) 𝕪_0^{(2)}\).

Ist \(E = \real ^n\), \(e_k\) der \(k\)-te Vektor der natürlichen Basis und \(𝕪_0 = (y_0^1, \dotsc , y_0^n)^t = \sum _{k=1}^n \innerproduct {𝕪_0, e_k} e_k\) (Orthonormalentwicklung), so ist \(𝕪(t) := \sum _{k=1}^n \innerproduct {𝕪_0, e_k} 𝕪_k(t)\) mit \(\dot {𝕪}_k(t) = A(t) 𝕪_k(t)\), \(𝕪_k(t_0) = e_k\) eine Lösung von \(\dot {𝕪}(t) = A(t) 𝕪(t)\) mit \(𝕪(t_0) = 𝕪_0\).
Wegen \(𝕪(t_1) = \sum _{k=1}^n \innerproduct {𝕪_0, e_k} 𝕪_k(t_1)\) gilt \(U(t_1, t_0) =\) \(\begin {pmatrix} y_1^1(t_1) & \dots & y_n^1(t_1) \\ \vdots & & \vdots \\ y_1^n(t_1) & \dots & y_n^n(t_1) \end {pmatrix}\) \(= (𝕪_1(t_1), \dotsc , 𝕪_n(t_1))\).
Beachte, dass dieser Ausdruck immer noch von \(t_0\) abhängig ist, denn die \(𝕪_k(t)\) haben als \(t_0\) Zeitpunkt der Anfangsbedingung. Für die Determinante gilt \(\det (U(t_1, t_0)) = W(𝕪_1, \dotsc , 𝕪_n)(t_1)\).

Eigenschaften des Evolutionsoperators:

  • \(U(t, t) = 𝟙\)

  • \(U(t_1, t_0) = U(t_1, t) U(t, t_0)\)

  • \(\frac {d}{dt} U(t, t_0) = (\dot {𝕪}_1(t), \dotsc , \dot {𝕪}_n(t)) = (A(t) 𝕪_1(t), \dotsc , A(t) 𝕪_n(t)) = A(t) U(t, t_0)\)

  • \(U(t, t_0) 𝕪_0 = 0\) genau dann, wenn \(𝕪_0 = 0\), da \(\det U(t, t_0) = W(𝕪_1, \dotsc , 𝕪_n)(t) \not = 0\)

  • \(U(t, t_0) E = E\)

  • \(U(t_0, t) U(t, t_0) = U(t_0, t_0) = 𝟙\)

Satz: Seien \(A(t)\), \(f(t)\) stetig für alle \(t \in I\).
Dann besitzt die inhomogene DGL \(𝕪(t) = A(t) 𝕪(t) + f(t)\), \(𝕪(t_0) = 𝕪_0\) für alle \(t \in I\) die eindeutige Lösung \(𝕪(t) = U(t, t_0) 𝕪_0 + \int _{t_0}^t U(t, \tau ) f(\tau ) \d \tau \).

Anmerkung:
Die Eindeutigkeit der Lösung folgt aus aus der Eindeutigkeit des homogenen Problems (s. o.).
Nimmt man an, es gäbe zwei Lösungen \(𝕪^{(I)}(t), 𝕪^{(II)}(t)\) der DGL mit \(𝕪^{(I)}(t_0) = 𝕪^{(I)}(t_0) = 𝕪_0\), so würde \(𝕪(t) := 𝕪^{(I)}(t) - 𝕪^{(II)}(t)\) die DGL \(\dot {𝕪}(t) = A(t) 𝕪(t)\) mit \(𝕪(t_0) = 0\) lösen. Allerdings ist die Nullfunktion eine ebensolche Lösung, aufgrund der Eindeutigkeit der Lösung für das homogene Problem gilt demnach \(𝕪(t) \equiv 0\), d. h. die beiden Lösungen sind identisch.

Satz: Seien \(A(t)\), \(f(t)\) stetig für alle \(t \in I\).
Die allgemeine Lösung der DGL \(\dot {𝕪}(t) = A(t) 𝕪(t) + f(t)\) ist die Summe der allgemeinen Lösung \(𝕪_h\) der homogenen DGL und einer Partikulärlösung \(𝕪_p\) der inhomogenen DGL.

Lösungsweg für nicht-autonome inhomogene Systeme:
\(\dot {𝕪}(t) = A(t) 𝕪(t) + f(t)\), \(A(\cdot ) \in \C (I, \L )\), \(f(\cdot ) \in \C (I, E)\)

  • Lösung \(𝕪_h \in \mathcal {N}\) des homogenen Systems bestimmen

  • \(U(t, t_0)\) bestimmen mit \(𝕪_k(t_0) = e_k\)

  • \(𝕪_p(t) := U(t, t_0) 𝕪_0 + \int _{t_0}^t U(t, \tau ) f(\tau ) \d \tau \) ist eine Partikulärlösung

Lineare autonome Systeme

Ein lineares autonomes System ist gegeben, falls \(A(t) \equiv A \in \L (E, E)\) unabhängig von \(t\) ist.

Im Spezialfall \(A = \alpha \cdot 𝟙\) für \(\alpha \in \complex \) ist die Lösung des Systems \(\dot {𝕪}(t) = A 𝕪(t)\) gegeben durch \(𝕪(t) = e^{\alpha (t - t_0)} 𝕪_0\). Im allgemeinen Fall \(A \in \L (E, E)\) möchte man eine analoge Schreibweise für die Lösung einführen: \(𝕪(t) = e^{(t - t_0) A} 𝕪_0\) mit \(e^A = \exp (A) := \sum _{k=0}^\infty \frac {A^k}{k!}\)

Eigenschaften von \(\exp (A)\):

  • Diese Reihe konvergiert im Raum \((\L (E, E), \norm {\cdot }_\L )\) absolut.

  • Multiplikationseigenschaft: \(e^{A + B} = e^A e^B\) für \(AB = BA\) (i. A. ist dies falsch).

  • Für \(\exp (t \cdot A) = e^{t \cdot A}\), \(t \in \real \) als Abbildung von \(\real \) nach \(\L (E, E)\) gilt \(\frac {d}{dt} e^{tA} = A e^{tA}\).

  • Für \(B \in \L (E, E)\) invertierbar gilt \(e^A = B e^{B^{-1}AB} B^{-1}\).

Sei nun \(𝕪(t) = e^{(t - t_0) A} 𝕪_0\). \(𝕪(t)\) löst das System \(\dot {𝕪}(t) = A 𝕪(t)\), \(𝕪(t_0) = 𝕪_0\), da
\(\dot {𝕪}(t) = \frac {d}{dt} (e^{(t - t_0) A}) 𝕪_0 = A e^{(t - t_0) A} 𝕪_0 = A 𝕪(t)\).

Wie berechnet man \(e^{(t - t_0) A}\)?

Im Spezialfall \(A\) diagonalisierbar gilt \(B^{-1} A B = \diag \{\lambda _1, \dotsc , \lambda _n\}\) für ein \(B \in \L (E, E)\) invb. Dann ist \(e^{\diag \{\lambda _1, \dotsc , \lambda _n\}} = \sum _{k=0}^\infty \frac {\diag \{\lambda _1, \dotsc , \lambda _n\}^k}{k!} = \sum _{k=0}^\infty \frac {\diag \{\lambda _1^k, \dotsc , \lambda _n^k\}}{k!} =\)
\(\diag \left \{\sum _{k=0}^\infty \frac {\lambda _1^k}{k!}, \dotsc , \sum _{k=0}^\infty \frac {\lambda _n^k}{k!}\right \} = \diag \{e^{\lambda _1}, \dotsc , e^{\lambda _n}\}\)
und daher gilt \(e^{(t - t_0) A} = B \cdot \diag \{e^{(t - t_0) \lambda _1}, \dotsc , e^{(t - t_0) \lambda _n}\} \cdot B^{-1}\).

Im allgemeinen Fall kann man \(A\) auf eine Matrix in Jordanform \(B^{-1} A B = J\) bringen, d. h. \(J = \diag \{J_{\nu _1}(\lambda _1), \dotsc , J_{\nu _k}(\lambda _k)\}\), wobei \(\lambda _1, \dotsc , \lambda _k\) die Eigenwerte von \(A\) sind und \(\nu _1 + \dotsb + \nu _k = n\). Dabei ist \(J_\nu (\lambda ) := \) \(\begin {pmatrix} \lambda & 1 & & 0 \\ & \ddots & \ddots & \\ & & \lambda & 1 \\ 0 & & & \lambda \end {pmatrix}\) \(= \lambda \cdot 𝟙_\nu + T_\nu \) mit \(T_\nu := J_\nu (0)\).
Wegen \(\lambda 𝟙 \cdot T_\nu = T_\nu \cdot \lambda 𝟙\) gilt \(e^{\lambda 𝟙_\nu + T_\nu } = e^\lambda e^{T_\nu }\).

Es gilt \(T_\nu ^2 = \) \(\begin {pmatrix} 0 & 0 & 1 & & 0 \\ & \ddots & \ddots & \ddots & \\ & & 0 & 0 & 1 \\ & & & 0 & 0 \\ 0 & & & & 0 \\ \end {pmatrix}\), …, \(T_\nu ^{\nu -1} = \) \(\begin {pmatrix} 0 & \dots & 0 & 1 \\ & & & 0 \\ & & \ddots & \vdots \\ 0 & & & 0\\ \end {pmatrix}\) und \(T_\nu ^m = 0\) für \(m \ge \nu \), daher ist \(e^{T_\nu } = \sum _{k=0}^\infty \frac {T_\nu ^k}{k!} = \sum _{k=0}^{\nu -1} \frac {T_\nu ^k}{k!} = \) \(\begin {pmatrix} 1 & 1/1! & 1/2! & \dots & 1/(\nu - 1)! \\ & \ddots & \ddots & \ddots & \vdots \\ & & 1 & 1/1! & 1/2! \\ & & & 1 & 1/1! \\ 0 & & & & 1 \end {pmatrix}\).
Im Allgemeinen gilt also \(e^{(t - t_0) J_\nu (\lambda )} = e^{(t - t_0) \lambda } e^{(t - t_0) T_\nu } = e^{(t - t_0) \lambda } \cdot \) \(\begin {pmatrix} 1 & (t - t_0)/1! & \dots & (t - t_0)/(\nu - 1)! \\ & \ddots & \ddots & \vdots \\ & & 1 & (t - t_0)/1! \\ 0 & & & 1 \end {pmatrix}\).

Für eine Jordanmatrix \(J\) gilt \(e^{(t - t_0) J} = \diag \{e^{(t - t_0) J_{\nu _1}(\lambda _1)}, \dotsc , e^{(t - t_0) J_{\nu _k}(\lambda _k)}\}\) und nach Rücktransformation ist \(e^{(t - t_0) A} = B e^{(t - t_0) J} B^{-1}\).

Betrachtet man erneut die Lösung der DGL mittels des Evolutionsoperators, also
\(𝕪(t) = U(t, t_0) 𝕪_0 + \int _{t_0}^t U(t, \tau ) f(\tau ) \d \tau \), so erkennt man, dass sich diese aus der Lösung
\(\widetilde {𝕪}(t) = U(t, t_0) 𝕪_0\) des homogenen Problems mit Anfangsbedingung \(\widetilde {𝕪}(t_0) = 𝕪_0\) und der Lösung
\(\widehat {𝕪}(t) = \int _{t_0}^t U(t, \tau ) f(\tau ) \d \tau \) des inhomogenen Problems mit Anfangsbedingung \(\widehat {𝕪}(t_0) = 0\) zusammensetzt. Für \(A(t) \equiv A\) gilt \(U(t, t_0) = e^{(t - t_0) A}\), d. h. \(𝕪(t) = e^{(t - t_0) A} 𝕪_0 + \int _{t_0}^t e^{(t - \tau ) A} f(\tau ) \d \tau \) löst die DGL \(\dot {𝕪}(t) = A 𝕪(t) + f(t)\) mit \(𝕪(t_0) = 𝕪_0\).

Lineare DGLs höherer Ordnung

Für \(f, a_j \in \C ([a, b], \real )\), \(j = 0, \dotsc , n - 1\) ist \(y^{(n)}(t) + a_{n-1}(t) y^{(n-1)}(t) + \dotsb + a_0(t) y(t) = f(t)\) (\(\ast \)) eine lineare, inhomogene DGL der Ordnung \(n\).

Fasst man die Ableitungen \(y^{(j)}\) als Vektor auf, so erhält man
\(𝕪(t) = (y^1(t), \dotsc , y^n(t)) = (y(t), \dot {y}(t), \dotsc , y^{(n-1)}(t))\) und obige DGL (\(\ast \)) ist dann äquivalent zur DGL \(\dot {𝕪}(t) = A(t) 𝕪(t) + 𝕗(t)\) (\(\ast \ast \)), wobei \(A(t) := \) \(\begin {pmatrix} 0 & 1 & & 0 \\ & & \ddots & \\ & & & 1 \\ -a_0(t) & -a_1(t) & \dotsb & -a_{n-1}(t) \end {pmatrix}\) und
\(𝕗(t) := (0, \dotsc , 0, f(t))\).

Das äquivalente Cauchy-Problem von (\(\ast \)) für ein Cauchy-Problem
\(\dot {𝕪}(t) = A(t) 𝕪(t) + 𝕗(t)\), \(𝕪(t_0) = 𝕔\) von (\(\ast \ast \)) ist
\(y^{(n)}(t) + a_{n-1}(t) y^{(n-1)}(t) + \dotsb + a_0(t) y(t) = f(t)\), \(y(t_0) = c_1, \dotsc , y^{(n-1)}(t_0) = c_n\).
Aus der Existenz und Eindeutigkeit der Lösung für (\(\ast \ast \)) folgt, dass (\(\ast \)) für alle \(t \in I = [a, b]\) eine eindeutige Lösung besitzt. Die Lösung ist wieder gegeben als Summe \(y(t) = y_h(t) + y_p(t)\) der allgemeinen Lösung und einer Partikulärlösung.

DGL höherer Ordnung mit konstanten Koeffizienten:
Hier bleibt \(f(t)\) zeitabhängig, aber \(a_j(t) \equiv a_j\) zeitunabhängig für alle \(j = 0, \dotsc , n - 1\), d. h.
\(y^{(n)}(t) + a_{n-1} y^{(n-1)}(t) + \dotsc + a_0 y(t) = f(t)\).

Das charakteristische Polynom der DGL ist \(P(\lambda ) := \lambda ^n + a_{n-1} \lambda ^{n-1} + \dotsc + a_1 \lambda + a_0\).

Auch eine autonome DGL lässt sich (als Spezialfall mit \(A(t) \equiv A\) zeitunabhängig) mit obiger Matrix umschreiben als \(\dot {𝕪}(t) = A 𝕪(t) + 𝕗(t)\). Dann kann man auch das charakteristische Polynom von \(A\) betrachten: \(d_A(\lambda ) := \det (A - \lambda 𝟙)\).

Satz: Es gilt \(d_A(\lambda ) = (-1)^n P(\lambda )\).

Man berechnet die Nullstellen \(\lambda _1, \dotsc , \lambda _k\) von \(P(\lambda )\) (das sind genau die Nullstellen von \(d_A(\lambda )\), d. h. die Eigenwerte von \(A\)) mit deren Vielfachheiten \(\nu _1, \dotsc , \nu _k\).

Satz: Sei \(\lambda _j\) eine Nullstelle von \(P(\lambda )\) der Ordnung \(\nu _j\), dann löst jede Linearkombination von \(Y_j := \{e^{\lambda _j t}, t e^{\lambda _j t}, \dotsc , t^{\nu _j - 1} e^{\lambda _j t}\}\) die homogene lineare DGL
\(y^{(n)}(t) + a_{n-1} y^{(n-1)}(t) + \dotsb + a_0 y(t) = 0\). Die allgemeine Lösung des homogenen Problems ist der Raum aufgespannt von den Mengen \(Y_j\) mit \(j = 1, \dotsc , k\).

Zur Lösung des inhomogenen Problems benötigt man i. A. die Laplace-Transformation.

Die Laplace-Transformation

Laplace-Transformation: Für eine gegebene Funktion \(f\colon \left [0, +\infty \right [ \rightarrow \complex \) heißt
\(\L [f](p) := \widetilde {f}(p) = \int _0^{+\infty } f(t) e^{-tp} \dt \), \(p \in \complex \) die Laplace-Transformierte.

Beispiele:

\(f\) \(\widetilde {f}\)
\(f(t) = 1\) \(\widetilde {f}(p) = \frac {1}{p}\) \(\Re (p) > 0\)
\(f(t) = t^n\) \(\widetilde {f}(p) = \frac {n!}{p^{n+1}}\) \(\Re (p) > 0\), \(n \in \natural \)
\(f(t) = e^{-ta}\) \(\widetilde {f}(p) = \frac {1}{p+a}\) \(\Re (p + a) > 0\)
\(f(t) = \cos (\omega t)\) \(\widetilde {f}(p) = \frac {p}{p^2 + \omega ^2}\) \(\Re (p) > |\Im (\omega )|\)
\(f(t) = \sin (\omega t)\) \(\widetilde {f}(p) = \frac {\omega }{p^2 + \omega ^2}\) \(\Re (p) > |\Im (\omega )|\)

Es gelten \(\L [\alpha f + \beta g](p) = \alpha \L [f](p) + \beta \L [g](p)\) (Linearität) sowie die Substitutionsregeln \(\L \left [f(\frac {t}{a})\right ](p) = a \L [f](p \cdot a)\) für \(a > 0\) und \(\L [e^{-at}f(t)](p) = \L [f](p + a)\) für \(a \in \complex \).

Mithilfe der Heaviside-Funktion \(H(t) := \chi _{\left [0, +\infty \right [}(t)\) kann man die Laplace-Transformierte von um \(a \ge 0\) nach rechts verschobenen Funktionen umformen:
\(\L [f(t - a) H(t - a)](p) = e^{-ap} \L [f](p)\).

Satz: Sei \(f \in \C ^n(\left [0, +\infty \right [, \complex )\), \(\L [f^{(k)}](p)\) existiere für ein \(p \in \complex \) und alle \(k = 0, \dotsc , n\) und \(f^{(k)}(t) e^{-tp} \to 0\) für \(t \to \infty \) für alle \(k = 0, \dotsc , n - 1\).
Dann ist \(\L [f^{(n)}](p) = p^n \L [f](p) - p^{n-1} f(0) - p^{n-2} f’(0) - \dotsb - f^{(n-1)}(0)\).

Satz: Sei \(\L [f](p)\) existent für \(\Re (p) > c\). Dann ist \(\L [f](p)\) analytisch in allen Punkten \(p \in \complex \) mit \(\Re (p) > c\) (insbesondere ist \(\L [f](p)\) in allen solchen Punkten unendlich oft differenzierbar) und es gilt \(\L [t^n f(t)](p) = (-1)^n \frac {d^n}{dp^n} \L [f](p)\).

Faltung: Seien \(f, g\colon \real \rightarrow \complex \) Funktionen.
Dann ist \((f \ast g)(t) := \int _\real f(\tau ) g(t - \tau ) \d \tau \) die Faltung von \(f\) und \(g\).

Sind wie hier bei der Laplace-Transformation Funktionen \(f, g\colon \left [0, +\infty \right [ \rightarrow \complex \) gegeben, so setzt man \(f\) und \(g\) auf \(\real \) mit \(0\) fort. Dann ist \((f \ast g)(t) = \int _0^t f(\tau ) g(t - \tau ) \d \tau \).

Die Faltung erfüllt Kommutativität (\(f \ast g = g \ast f\)), Assoziativität (\(f \ast (g \ast h) = (f \ast g) \ast h\)), Distributivität (\(f \ast (g + h) = (f \ast g) + (f \ast h)\)) sowie Assoziativität mit der skalaren Multiplikation (\(a(f \ast g) = (af) \ast g = f \ast (ag)\) mit \(a \in \complex \)).
Außerdem gilt für die Ableitung \(D(f \ast g) = (Df) \ast g = f \ast (Dg)\).

Satz: Seien \(\L [f](p)\) und \(\L [g](p)\) existent für alle \(p \in \complex \) mit \(\Re (p) > c\).
Dann ist \(\widetilde {h}(p) := \widetilde {f}(p) \cdot \widetilde {g}(p)\) die Laplace-Transformierte von \(h := f \ast g\),
d. h. \(\L [f](p) \cdot \L [g](p) = \L [f \ast g](p)\).

Laplace-Transformation und lineare DGLs:
Sei nun die inhomogene, autonome DGL \(y^{(n)}(t) + a_{n-1} y^{(n-1)}(t) + \dotsb + a_0 y(t) = f(t)\)
mit partikulärer Anfangsbedingung \(y(0) = 0\), …, \(y^{(n-1)}(0) = 0\) gegeben.

Dann gilt \(\L [f](p) = \L [y^{(n)} + a_{n-1} y^{(n-1)} + \dotsb + a_0 y](p) = P(p) \cdot \L [y](p)\) aufgrund den konstanten Koeffizienten und der speziell gewählten Startbedingung, wobei \(P(p) = p^n + a_{n-1} p^{n-1} + \dotsb + a_0\) das charakteristische Polynom der DGL ist.

Daher gilt \(\L [y](p) = \frac {\L [f](p)}{P(p)}\) und \(y\) kann als inverse Laplace-Transformierte berechnet werden, wobei auf Polstellen (Nullstellen des charakteristischen Polynoms) geachtet werden muss.

Besser ist es, wenn \(y\) in der Form \(y = Q \ast f\) mit \(\L [Q](p) = \frac {1}{P(p)}\) gegeben ist.
In diesem Fall ist nämlich \(\L [y](p) = \L [Q](p) \cdot \L [f](p) = \frac {\L [f](p)}{P(p)}\).

Wie bestimmt man \(Q\)?

Für \(P(p) = (p - \lambda _1)^{\nu _1} \dotsm (p - \lambda _k)^{\nu _k}\) ist \(\frac {1}{P(p)} = (p - \lambda _1)^{-\nu _1} \dotsm (p - \lambda _k)^{-\nu _k}\).
Für \(\ell = 1, \dotsc , k\) gilt \((p - \lambda _\ell )^{-\nu _\ell } = \L [j_{\nu _\ell }(\lambda _\ell , t)](p)\) mit \(j_\nu (\lambda , t) := \frac {e^{\lambda t} t^{\nu -1}}{(\nu - 1)!} H(t)\).

Somit ist \(Q(t) = j_{\nu _1}(\lambda _1, t) \ast \dotsm \ast j_{\nu _k}(\lambda _k, t)\), d. h.
\(y(t) = (Q \ast f)(t) = (j_{\nu _1}(\lambda _1, \cdot ) \ast \dotsb \ast j_{\nu _k}(\lambda _k, \cdot ) \ast f)(t)\).

Beispiel: \(\ddot {y}(t) - y(t) = f(t)\)
Hier ist \(P(p) = (p - 1)(p + 1)\), d. h. \(\L ^{-1}\left [\frac {1}{p+1}\right ] = e^{-t} H(t)\) bzw. \(\L ^{-1}\left [\frac {1}{p-1}\right ] = e^t H(t)\).
Daraus folgt \(Q(t) = (e^{-t} H(t)) \ast (e^t H(t)) = \int _0^t e^{-\tau } e^{t - \tau } \d \tau = \sinh t\) für \(t \ge 0\).
Also ist \(y(t) = \int _0^t \sinh (t - \tau ) f(\tau ) \d \tau \).

Zum Langzeitverhalten autonomer Systeme

Gegeben sei ein autonomes System \(\dot {𝕪} = 𝕧(𝕪)\). Man kann sich nun fragen, ob es konstante Lösungen gibt, d. h. Lösungen \(𝕪(t) \equiv \const \). In diesem Fall gilt \(\dot {𝕪} = 0 = 𝕧(𝕪)\). Solche Punkte \(𝕪\) heißen kritische Punkte.

Es gibt dabei mehrere Möglichkeiten: Das Geschwindigkeitsfeld kann so gebaut sein, dass die Lösung schon bei kleinster Änderung aus dem kritischen Punkt divergiert (instabile Lösung). Der umgekehrte Fall tritt ein, falls die Lösung in jedem Fall gegen den kritischen Punkt konvergiert (stabile Lösung). Natürlich gibt es auch Zwischenfälle, in denen das asymptotische Verhalten vom Ausgangspunkt abhängt.

Beispiel: \(\dot {𝕪} = \begin {pmatrix}\dot {y}_1 \\ \dot {y}_2\end {pmatrix} = A𝕪 = \begin {pmatrix}a_{11} & a_{12} \\ a_{21} & a_{22}\end {pmatrix} \begin {pmatrix}y_1 \\ y_2\end {pmatrix}\) mit \(\det A \not = 0\)
Hier gibt es zwei Eigenwerte \(\lambda _1, \lambda _2 \not = 0\) mit zugehörigen Eigenvektoren \(𝕓_1, 𝕓_2\). Da die Matrix invertierbar ist, gibt es genau einen kritischen Punkt \(𝕪 = 0\). Die allgemeine Lösung des Systems ist \(𝕪(t) = \alpha _1 𝕓_1 e^{\lambda _1 t} + \alpha _2 𝕓_2 e^{\lambda _2 t}\). Nun entscheiden \(\Re (\lambda _1)\) und \(\Re (\lambda _2)\), welcher der obigen Fälle eintrifft: Für \(\Re (\lambda _1), \Re (\lambda _2) > 0\) erhält man eine instabile, für \(\Re (\lambda _1), \Re (\lambda _2) < 0\) eine stabile Lösung. Keine pauschale Aussage lässt sich bei verschiedenen Vorzeichen der Realteile treffen.

Allgemein geht man meistens so vor: Man bestimmt zunächst die kritischen Punkte und verwendet dann in einer Umgebung der Punkte lineare Approximationen (also lineare DGL), um etwas über das asymptotische Verhalten auszusagen.

Zusatz: Übersicht über die behandelten Arten von DGLs

DGL

Typ

Lösungsweg

\(y’(x) = h(y)g(x)\)

trennbare Veränderliche

\(\int \frac {1}{h(y)} \dy = \int g(x) \dx + c\)

\(y’(x) = f(\frac {y}{x})\)

homogene DGL

Transformation \(w = \frac {y}{x}\), \(\int \frac {1}{f(w) - w} \dw = \ln |x| + c\)

\(a_1(x) y’(x) + a_0(x) y(x) = g(x)\)

lineare DGL 1. Ordnung

homogen: \(y_h(x)\) durch Trennung der Veränderlichen,
inhomogen: \(y_p(x)\) durch Variation der Konstanten, \(y(x) := y_h(x) + y_p(x)\)

\(y’(x) + a(x)y(x) = b(x)y^n(x)\)

Bernoulli-DGL

für \(n = 0, 1\) lineare DGL lösen,
für \(n \ge 2\) Substitution \(z(x) := y^{1-n}(x)\) durchführen und lineare DGL lösen

\(y’’(x) + a_1 y’(x) + a_0 y(x) = g(x)\)

lineare autonome DGL
2. Ordnung

homogen: NS von \(\lambda ^2 + a_1 \lambda + a_0 = 0\) bestimmen, \(y_h(x) := c_1 y_1(x) + c_2 y_2(x)\) mit \(y_1(x) := e^{\lambda _1 x}\), \(y_2(x) := e^{\lambda _2 x}\) für \(\lambda _1 \not = \lambda _2\) und \(y_1(x) := e^{\lambda x}\), \(y_2(x) := x e^{\lambda x}\) für \(\lambda _1 = \lambda _2 =: \lambda \), für reelle Lösungen und \(\lambda _{1,2} = a \pm bi\) ist \(y_1(x) := e^{ax} \sin (bx)\) und \(y_2(x) := e^{ax} \cos (bx)\) ein reelles Fundamentalsystem,
inhomogen: Variation der Konstanten, \(y_p(x) := c_1(x) y_1(x) + c_2(x) y_2(x)\) mit
\(c_1’(x) y_1(x) + c_2’(x) y_2(x) = 0\) und \(c_1’(x) y_1’(x) + c_2’(x) y_2’(x) = g(x)\)

\(y’’(x) + a_1 y’(x) + a_0 y(x) =\)
\(e^{qx} \cdot (\alpha _m x^m + \dotsb + \alpha _1 x + \alpha _0)\)

lineare autonome DGL
2. Ordnung mit Ansatzmethode

\(y_p(x) := x^\ell e^{qx} \cdot (\beta _m x^m + \dotsb + \beta _1 x + \beta _0)\) mit \(\ell := 0\) für \(q\) keine NS des char. Polynoms und \(\ell := n\) für \(q\) NS des char. Polynoms mit Vielfachheit \(n\), danach in DGL einsetzen und Koeffizientenvergleich durchführen, um \(\beta _0, \dotsc , \beta _m\) zu bestimmen

\(y^{(n)}(t) + a_{n-1} y^{(n-1)} + \dotsb +\)
\(a_0 y(t) = f(t)\)

lineare autonome DGL
\(n\)-ter Ordnung

homogen: Bestimmung der Nullstellen \(\lambda _j\) mit Vielfachheiten \(\nu _j\), \(j = 1, \dotsc , k\) des char. Polynoms
\(P(\lambda ) := \lambda ^n + a_{n-1} \lambda ^{n-1} + \dotsb + a_1 \lambda + a_0\), \(Y_j := \{e^{\lambda _j t}, t e^{\lambda _j t}, \dotsc , t^{\nu _j-1} e^{\lambda _j t}\}\),
allgemeine Lösung \(y_h\) ist der Raum aufgespannt durch alle \(Y_j\), \(j = 1, \dotsc , k\),
inhomogen: Laplace-Transformation, d. h. \(\L [f](p) = \L [y^{(n)} + a_{n-1} y^{(n-1)} + \dotsb + a_0 y](p) = P(p) \cdot \L [y](p)\) mit dem char. Polynom \(P(p) = p^n + a_{n-1} p^{n-1} + \dotsb + a_0\), also \(\L [y](p) = \frac {\L [f](p)}{P(p)}\)

\(y^{(n)}(t) + a_{n-1}(t) y^{(n-1)} + \dotsb +\)
\(a_0(t) y(t) = f(t)\)

lineare DGL
\(n\)-ter Ordnung

äquivalent zu \(\dot {𝕪}(t) = A(t) 𝕪(t) + 𝕗(t)\), \(𝕪(t_0) = 𝕔\) mit \(𝕪(t) := (y(t), \dot {y}(t), \dotsc , y^{(n-1)}(t))\),
\(𝕗(t) := (0, \dotsc , 0, f(t))\), \(c_1 = y(t_0)\), …, \(c_n = y^{(n-1)}(t_0)\)

\(\dot {𝕪}(t) = A 𝕪(t)\)

lineares autonomes DGS
(homogen)

\(𝕪(t) := e^{(t - t_0)A} 𝕪_0\),
\(A\) diagonalisierbar: \(B^{-1} A B = \diag \{\lambda _1, \dotsc , \lambda _n\}\), \(e^{(t - t_0)A} = B \cdot \diag \{e^{(t - t_0)\lambda _1}, \dotsc , e^{(t - t_0)\lambda _n}\} \cdot B^{-1}\),
allg. mit Jordanform: \(B^{-1} A B = J = \diag \{J_{\nu _1}(\lambda _1), \dotsc , J_{\nu _k}(\lambda _k)\}\), \(e^{(t - t_0)A} =\)
\(B \cdot \diag \{e^{(t - t_0)J_{\nu _1}(\lambda _1)}, \dotsc , e^{(t - t_0)J_{\nu _k}(\lambda _k)}\} \cdot B^{-1}\), \(e^{(t - t_0)J_\nu (\lambda )} = e^{(t - t_0)\lambda } \cdot e^{(t - t_0)T_\nu }\), \(T_\nu := J_\nu (0)\)

\(\dot {𝕪}(t) = A(t) 𝕪(t) + f(t)\)

lineares DGS

allgemeine Lösung \(𝕪_h\) des homogenen Systems bestimmen, \(U(t, t_0) = (𝕪_1(t), \dots , 𝕪_n(t))\) bestimmen mit \(\dot {𝕪}_k(t) = A(t) 𝕪_k(t)\), \(𝕪_k(t_0) = e_k\) (im Fall \(A(t) \equiv A\) gilt \(U(t, t_0) = e^{(t - t_0)A}\)),
partikuläre Lösung \(𝕪_p(t) := U(t, t_0)𝕪_0, + \int _{t_0}^t U(t, \tau )f(\tau ) \d \tau \) bestimmen