Zufallsexperimente

Bemerkung: Im Folgenden soll ein mathematisches Fundament aufgebaut werden, sodass Zufallexperimente in der Realität durch Modellbildung so abstrahiert werden können, dass sie in ein mathematisches Modell (einen Wahrscheinlichkeitsraum) übersetzt werden. Durch Theoreme der Wahrscheinlichkeitstheorie sind (Vor-)Aussagen über das Modell möglich, die dann durch Interpretation auf die Realität, also das Zufallsexperiment übertragen werden können.

Bemerkung: Für die Definition eines Wahrscheinlichkeitsraums (Modell eines Zufallsexperiments) sind drei Elemente notwendig: ein Ergebnisraum \(\Omega \), ein Ereignisraum \(\A \) und ein Wahrscheinlichkeitsmaß \(P\).

Ergebnisraum:  Ein Ergebnisraum ist eine Menge \(\Omega \not = \emptyset \). Seine Elemente \(\omega \in \Omega \) heißen Ergebnisse/Realisierungen. Eine Stichprobe ist ein \(n\)-Tupel \((\omega _1, \dotsc , \omega _n) \in \Omega ^n\).

Bemerkung: Nach Durchführung eines Zufallsexperiments soll genau ein Ergebnis \(\omega \in \Omega \) feststehen. Ein Ereignis ist nun eine Aussage, die anhand eines Ergebnisses eines Zufallsexperiments eindeutig entschieden werden kann. Daher kann man Ereignisse als Teilmengen \(\Omega \) interpretieren. Dabei sollen für \(A, B \subset \Omega \) Ereignisse folgende Interpretationen möglich sein:

Ereignis

Interpretation

\(A^C = \Omega \setminus A\)

\(A\) tritt nicht ein

\(A \cup B\)

\(A\) oder \(B\) tritt ein

\(A \cap B\)

\(A\) und \(B\) treten ein

\(A \setminus B\)

\(A\), aber nicht \(B\) tritt ein

\(A \vartriangle B = (A \cup B) \setminus (A \cap B)\)

entweder \(A\) oder \(B\) tritt ein

\(\bigcup _{i \in I} A_i\)

mindestens eins der \(A_i\) tritt ein

\(\bigcap _{i \in I} A_i\)

alle \(A_i\) treten ein

\(\limsup _{n \in \natural } A_n := \bigcap _{n=1}^\infty \left (\bigcup _{k=n}^\infty A_k\right )\)

unendlich viele der \(A_n\) treten ein

\(\liminf _{n \in \natural } A_n := \bigcup _{n=1}^\infty \left (\bigcap _{k=n}^\infty A_k\right )\)

alle bis auf endlich viele der \(A_n\) treten ein

\(A \subset B\)

\(A\) impliziert \(B\)

\(A \cap B = \emptyset \)

\(A\) und \(B\) schließen einander aus

Man fordert daher als Ereignismenge eine Teilmenge der Potenzmenge von \(\Omega \) mit bestimmten Abschlusseigenschaften.

\(\sigma \)-Algebra:  Sei \(\Omega \not = \emptyset \). Dann heißt \(\A \subset \P (\Omega )\) \(\sigma \)-Algebra über \(\Omega \), falls

  • \(\emptyset \in \A \)

  • \(A \in \A \;\Rightarrow \; \Omega \setminus A \in \A \)

  • \(A_n \in \A \) für \(n \in \natural \) \(\Rightarrow \;\) \(\bigcup _{n=1}^\infty A_n \in \A \)

In diesem Fall heißt \((\Omega , \A )\) Messraum und \(A \in \A \) heißt messbar.

Satz (Eigenschaften von Messräumen): Sei \((\Omega , \A )\) ein Messraum. Dann gilt:

  • \(\Omega \in \A \)

  • \(\bigcap _{n=1}^\infty A_n, \limsup _{n \in \natural } A_n, \liminf _{n \in \natural } A_n \in \A \) für \(A_n \in \A \) und \(n \in \natural \)

  • \(A \cup B, A \cap B, A \setminus B, A \vartriangle B \in \A \) für \(A, B \in \A \)

Ereignisraum:  Ein Ereignisraum über \(\Omega \not = \emptyset \) ist eine \(\sigma \)-Algebra \(\A \subset \P (\Omega )\) über \(\Omega \).
\(\emptyset \) heißt unmögliches Ereignis und \(\Omega \) heißt sicheres Ereignis.
Für \(\omega \in \Omega \) heißt \(\{\omega \}\) Elementarereignis.

Beispiel: Es gibt manchmal mehrere Möglichkeiten, ein Zufallsexperiment zu modellieren.

  • Wurf eines Würfels und „gerade Augenzahl“: \(\Omega = \{1, \dotsc , 6\}\), \(A = \{2, 4, 6\}\)

  • Wurf zweier Würfel und „Pasch“:
    \(\Omega _1 = \{(k, \ell ) \;|\; k, \ell \in \{1, \dotsc , 6\}\}\) für Beachtung der Reihenfolge, \(A_1 = \{(1, 1), \dotsc , (6, 6)\}\),
    \(\Omega _2 = \{\{k, \ell \} \;|\; k, \ell \in \{1, \dotsc , 6\}\}\) ohne Beachtung der Reihenfolge, \(A_2 = \{\{1\}, \dotsc , \{6\}\}\),
    \(\Omega _3 = \{2, \dotsc , 12\}\) mit Summe der Augenzahlen, hier ist das Ereignis nicht modellierbar

  • Mischen eines Kartenblatts mit 52 Karten: \(\Omega = \{\text {mögliche Anordnungen}\}\),
    \(|\Omega | = 52! \approx 8 \cdot 10^{67}\)

  • unendlicher Münzwurf mit Reihenfolge: \(\Omega = \{(\omega _k)_{k \in \natural } \;|\; \omega _k \in \{0, 1\}\}\) (0 = Kopf, 1 = Zahl),
    z. B. „der fünfte Wurf ist Zahl„ durch \(A = \{(\omega _k)_{k \in \natural } \;|\; \omega _5 = 1\}\)
    oder „es wird unendlich oft Zahl geworfen“ durch \(B = \{(\omega _k)_{k \in \natural } \;|\; \forall _{n \in \natural } \exists _{k \ge n}\; \omega _k = 1\}\)

  • Brechen eines Stabs der Länge \(L\) an einer zufälligen Stelle: \(\Omega = [0, L]\) überabzählbar,
    z. B. „Bruch ist ist linken Dritten“ durch \(A = [0, \frac {1}{3} L]\)
    oder „Bruch ist genau in der Mitte“ durch \(B = \{\frac {1}{2} L\}\)

  • Schadenshöhe bei einem Autounfall: \(\Omega = [0, \infty )\)

  • zufällige Bewegung eines Teilchens in einer Flüssigkeit (random walk):
    \(\Omega = \{\omega \in [0, \infty ) \rightarrow \real ^3 \;|\; \omega \text { stetig}\}\)

Wahrscheinlichkeitsmaße

Maß:  Sei \((\Omega , \A )\) ein Messraum.
Dann heißt eine Abbildung \(\mu \colon \A \rightarrow [0, \infty ]\) Maß auf \((\Omega , \A )\), falls

  • \(\mu (\emptyset ) = 0\) (Nulltreue)

  • \(\mu (\bigcup _{n=1}^\infty A_n) = \sum _{n=1}^\infty \mu (A_n)\) für \(A_n \in \A \) paarweise disjunkt (\(\sigma \)-Additivität)

Falls zusätzlich \(\mu (\Omega ) < \infty \) gilt, dann heißt \(\mu \) endlich.
Falls sogar \(\mu (\Omega ) = 1\) gilt, dann heißt \(\mu = P\) Wahrscheinlichkeitsmaß (W-Maß).

Wahrscheinlichkeitsraum: 
Ein Wahrscheinlichkeitsraum (W-Raum) ist ein Tripel \((\Omega , \A , P)\) mit

  • \(\Omega \not = \emptyset \) (Ergebnisraum)

  • \(\A \) eine \(\sigma \)-Algebra über \(\Omega \) (\(\sigma \)-Algebra der messbaren Ereignisse)

  • \(P\) ein Wahrscheinlichkeitsmaß auf \((\Omega , \A )\)

Satz (Eigenschaften von W-Räumen):
Seien \((\Omega , \A , P)\) ein W-Raum und \(A, B, A_k \in \A \) für \(k \in \natural \). Dann gilt:

  • \(P(B \setminus A) = P(B) - P(A \cap B)\)

  • \(A \subset B \;\Rightarrow \; P(A) \le P(B)\) (Monotonie)

  • \(0 \le P(A) \le 1\), \(P(\Omega \setminus A) = 1 - P(A)\)

  • \(P(A \cup B) = P(A) + P(B) - P(A \cap B) \le P(A) + P(B)\)

  • \(P(\bigcup _{k=1}^n A_k) = \sum _{k=1}^n (-1)^{k+1} \sum _{1 \le i_1 < \dotsb < i_k \le n} P(A_{i_1} \cap \dotsb \cap A_{i_k}) \le \sum _{k=1}^n P(A_k)\)
    (Poincaré-Sylvester-Formel, Formel des Ein- und Ausschließens)

  • \(A_1 \subset A_2 \subset \dotsb \;\Rightarrow \; P(\bigcup _{k=1}^\infty A_k) = \lim _{n \to \infty } P(A_n)\) (Stetigkeit von unten)

  • \(A_1 \supset A_2 \supset \dotsb \;\Rightarrow \; P(\bigcap _{k=1}^\infty A_k) = \lim _{n \to \infty } P(A_n)\) (Stetigkeit von oben)

  • \(P(\bigcup _{k=1}^\infty A_k) \le \sum _{k=1}^\infty P(A_k)\) (\(\sigma \)-Subadditivität)

  • \(\sum _{k=1}^\infty P(A_k) < \infty \;\Rightarrow \; P(\limsup _{k \to \infty } A_k) = 0\) (Satz von Borel-Cantelli, 1. Teil)

  • \(\lim _{k \to \infty } P(A_k) = 0,\; \sum _{k=1}^\infty P(A_k^c \cap A_{k+1}) < \infty \;\Rightarrow \; P(\limsup _{k \to \infty } A_k) = 0\)
    (Barndorff-Nielsens Verschärfung des Satzes von Borel-Cantelli)

Beispiel:

  • Für \(\Omega \not = \emptyset \) endlich ist \((\Omega , \P (\Omega ), P)\) mit \(P\colon \P (\Omega ) \rightarrow [0, 1]\), \(A \mapsto \frac {|A|}{n}\) ein W-Raum.
    \(P\) heißt Gleichverteilung.

  • Für \(\Omega \not = \emptyset \) beliebig ist \((\Omega , \P (\Omega ), \mu )\) mit dem Zählmaß \(\mu \colon \P (\Omega ) \rightarrow [0, \infty ]\), \(A \mapsto |A|\) für \(A\) endlich und \(A \mapsto \infty \) für \(A\) unendlich ein W-Raum.

  • Für \(\Omega \not = \emptyset \) beliebig und festes \(\omega \in \Omega \) ist \((\Omega , \P (\Omega ), P_{\{\omega \}})\) mit dem Diracmaß
    \(P_{\{\omega \}}\colon \P (\Omega ) \rightarrow [0, 1]\), \(A \mapsto 1\) für \(\omega \in A\) und \(A \mapsto 0\) für \(\omega \notin A\) ein W-Raum.

Diskrete Wahrscheinlichkeitsräume

diskreter W-Raum: 
Ein W-Raum \((\Omega , \A , P)\) heißt diskret, falls \(\Omega \) höchstens abzählbar ist und \(\A = \P (\Omega )\) gilt.

Zähldichte:  Wenn \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum ist, dann gilt für jedes Ereignis
\(A \subset \Omega \), dass \(P(A) = P(\bigcup _{\omega \in A} \{\omega \}) = \sum _{\omega \in A} P(\{\omega \}) = \sum _{\omega \in A} p_\omega \) für \(p_\omega := P(\{\omega \})\).
Für die \(p_\omega \) gilt \(p_\omega \in [0, 1]\) und \(\sum _{\omega \in \Omega } p_\omega = P(\Omega ) = 1\). Die Folge \((p_\omega )_{\omega \in \Omega }\) heißt Zähldichte.

Satz (Konstruktion von diskreten W-Räumen):

  • Sei \(\Omega \not = \emptyset \) höchstens abzählbar und \((p_\omega )_{\omega \in \Omega }\) eine Folge von Zahlen in \([0, 1]\) mit
    \(\sum _{\omega \in \Omega } p_\omega = 1\) (d. h. eine Zähldichte). Dann ist \((\Omega , \P (\Omega ), P)\) mit \(P\colon \P (\Omega ) \rightarrow [0, 1]\),
    \(A \mapsto \sum _{\omega \in A} p_\omega \) ein diskreter W-Raum mit \(P(\{\omega \}) = p_\omega \) für \(\omega \in \Omega \).

  • Ist \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum, so ist \((p_\omega )_{\omega \in \Omega }\) mit \(p_\omega := P(\{\omega \})\) eine Zähldichte auf \(\Omega \) und \(P\) entsteht aus \((p_\omega )_{\omega \in \Omega }\) durch die Konstruktion in (a).

diskrete Gleichverteilung:  Seien \(N \in \natural \), \(\Omega := \{1, \dotsc , N\}\) und \(p_k := \frac {1}{N}\) für \(k \in \Omega \). Dann ist \((p_k)_{k \in \Omega }\) eine Zähldichte und heißt Gleichverteilung oder Laplace-Verteilung. Dadurch ist ein diskreter W-Raum \((\Omega , \P (\Omega ), P)\), ein sog. Laplacescher W-Raum gegeben.
Für ein Ereignis \(A \subset \Omega \) gilt \(P(A) = \sum _{\omega \in A} p_\omega = \frac {|A|}{|\Omega |}\).

Beispiel:

  • Wurf eines fairen, sechsseitigen Würfels: \(\Omega = \{1, \dotsc , 6\}\), Laplace-W-Raum \((\Omega , \P (\Omega ), P)\).
    Für das Ereignis \(A :=\) „Augenzahl gerade“ \(= \{2, 4, 6\}\) gilt \(P(A) = \frac {|A|}{|\Omega |} = \frac {3}{6} = \frac {1}{2}\).

  • \(n\)-maliger Wurf einer fairen Münze:
    \(\Omega = \{0, 1\}^n = \{(\omega _1, \dotsc , \omega _n) \;|\; \omega _k \in \{0, 1\}\}\), Laplace-W-Raum \((\Omega , \P (\Omega ), P)\).
    Für \(n = 3\) und das Ereignis \(A\), dass mindestens einmal Zahl auftritt, gilt \(\Omega \setminus A = \{0, 0, 0\}\), d. h. \(P(A) = P(\Omega \setminus (\Omega \setminus A)) = 1 - P(\Omega \setminus A) = 1 - \frac {|\Omega \setminus A|}{|\Omega |} = 1 - \frac {1}{8} = \frac {7}{8}\).

  • Ziegenproblem: In einer Spielshow gibt es drei Tore. Hinter genau einem befindet sich ein Auto, hinter den anderen beiden sind Nieten. Nach Auswahl eines Tores durch einen Kandidaten öffnet der Showmaster ein anderes Tor, hinter dem sich eine Niete befindet, und fragt den Kandidaten, ob er das Tor wechseln möchte. Wie soll der Kandidat sich entscheiden, wenn er das Auto gewinnen will?
    Angenommen, der Kandidat wählt Tor 1 und es ist unbekannt, hinter welchem das Auto steht. Es liegt Gleichverteilung vor und es gibt drei Möglichkeiten:

    • Das Auto ist hinter Tor 1. Der Showmaster öffnet also Tor 2 oder Tor 3, aber in beiden Fällen sollte der Kandidat nicht wechseln.

    • Das Auto ist hinter Tor 2. Der Showmaster öffnet also Tor 3, in diesem Fall sollte der Kandidat wechseln.

    • Das Auto ist hinter Tor 3. Der Showmaster öffnet also Tor 2, in diesem Fall sollte der Kandidat ebenfalls wechseln.

    Mit einer Wahrscheinlichkeit von \(p = \frac {2}{3}\) ist es also ratsam, das Tor zu wechseln.

Bernoulli-Verteilung:  Seien \(\Omega := \{0, 1\}\), \(p \in [0, 1]\), \(p_0 := 1 - p\) und \(p_1 := p\). Dann ist \((p_k)_{k \in \Omega }\) eine Zähldichte und heißt Bernoulli-Verteilung. Sie definiert ein diskretes W-Maß.

Beispiel:

  • Wurf einer unfairen Münze: \(\Omega = \{0, 1\}\), Wahrscheinlichkeit für Zahl (1) sei \(p \in [0, 1]\)

  • \(n\)-maliger Wurf einer unfairen Münze: \(\Omega = \{0, 1\}^n = \{\omega = (\omega _1, \dotsc , \omega _n) \;|\; \omega _k \in \{0, 1\}\}\).
    Ein Ergebnis \(\omega \) hat die Wahrscheinlichkeit \(p_\omega = \prod _{k=1}^n\) \(\begin {cases}p & \omega _k = 1\\1 - p & \omega _k = 0\end {cases}\), da jeder Wurf unabhängig von allen anderen ist. Definiert man \(k(\omega ) = \sum _{k=1}^n \omega _k\) als die Anzahl von Zahl in \(\omega \), so gilt \(p_\omega = p^{k(\omega )} (1 - p)^{n - k(\omega )}\). Diese Zähldichte definiert ein diskretes W-Maß auf \(\Omega \). Wie groß ist die Wahrscheinlichkeit, genau \(k\)-mal Zahl zu werfen? Dazu sei
    \(A_k := \text {„es wird genau } k\text {-mal Zahl geworfen“} = \{\omega \in \Omega \;|\; k(\omega ) = k\}\). Für die Wahrscheinlichkeit gilt aufgrund der Diskretheit \(P(A_k) = \sum _{p_\omega \in A_k} p_\omega = p^k (1 - p)^{n-k} \cdot |A_k|\).
    Um \(|A_k|\) zu bestimmen, verteilt man in das \(n\)-Tupel \(\omega = (0, \dotsc , 0)\) \(k\) Einsen und zählt die verschiedenen möglichen Resultate. Allerdings darf es auf die Reihenfolge nicht ankommen (ob man zuerst \(\omega _1 = 1\) und dann \(\omega _2 = 1\) setzt oder andersherum muss egal sein). Daher muss man noch durch die Anzahl der verschiedenen Verteilungen mit gleichen Resultaten dividieren. Dies entspricht genau den \(k!\) Permutationen der Einsen, daher ist \(|A_k| = \frac {n (n - 1) \dotsm (n - k + 1)}{k (k - 1) \dotsm 1} = \frac {n!}{(n - k)! k!} = \binom {n}{k}\) ein Binomialkoeffizient.
    Damit gilt \(P(A_k) = \binom {n}{k} p^k (1 - p)^{n-k}\).

Binomialverteilung:  Seien \(n \in \natural \) und \(p \in [0, 1]\). Auf \(\Omega := \natural _0\) ist \(p_k := \binom {n}{k} p^k (1 - p)^{n-k}\) für \(0 \le k \le n\) und \(p_k := 0\) sonst mit \(k \in \Omega \) eine Zähldichte. Das zugehörige W-Maß heißt Binomialverteilung \(B(n, p)\). Man definiert \(B(n, p, k) := p_k\).

Poisson-Verteilung:  Sei \(\lambda > 0\). Auf \(\Omega := \natural _0\) ist \(p_k := \frac {\lambda ^k}{k!} e^{-\lambda }\) eine Zähldichte und heißt Poisson-Verteilung zum Parameter \(\lambda \). Man definiert \(\Pois (\lambda , k) := p_k\). Das zugehörige W-Maß heißt Poisson-Maß \(\Pois (\lambda )\).

Satz (Poisson-Verteilung als Grenzwert der Binomialverteilung):
Für \(\lambda > 0\) und \(k \in \natural _0\) gilt \(\lim _{n \to \infty } B(n, \frac {\lambda }{n}, k) = \Pois (\lambda , k)\).

Beispiel: Beim Roulette gibt es 37 mögliche Zahlen, die alle gleich wahrscheinlich sind. Die Gewinnwahrscheinlichkeit pro Spiel beträgt also \(p = \frac {1}{37}\).
Wie groß ist die Wahrscheinlichkeit für genau \(k\) Gewinne bei 37 Spielen?
Die Binomialverteilung ergibt \(B(37, \frac {1}{37}, k) = \binom {37}{k} p^k (1 - p)^{37-k} = \frac {37!}{(37 - k)! k!} \cdot \frac {36^{37-k}}{37^{37}}\).
Weil sich das nicht so leicht ausrechnen lässt, nutzt man die ungefähre Gleichheit zu
\(\Pois (1, k) = \frac {1}{e \cdot k!}\) aus. Die Abweichung beträgt nur \(0{,}005\).

Kombinatorik

Satz (Produktregel): Wenn eine Auswahl von Objekten in \(n\) Schritten getroffen werden soll, dabei die Reihenfolge wichtig ist und für die \(k\)-te Auswahl \(\alpha _k\) Möglichkeiten zur Verfügung stehen, so gibt es für die Gesamtauswahl \(\alpha _1 \dotsm \alpha _n\) verschiedene Möglichkeiten.

Satz (Summenregel): Wenn ein einzelnes Objekt in der Weise ausgewählt werden soll, dass zunächst eine Wahl unter \(n\) Sorten von Objekten getroffen und dann ein Objekt der gewählten Sorte ausgewählt wird, so gibt es, falls es jeweils \(\alpha _k\) verschiedene Objekte der \(k\)-ten Sorte gibt, insgesamt \(\alpha _1 + \dotsb + \alpha _n\) Möglichkeiten, ein Objekt auszuwählen.

Permutation:  Gegeben seien \(n\) Objekte \(a_1, \dotsc , a_n\) (nicht notwendigerweise verschieden).
Dann heißt ein \(n\)-Tupel \((a_{i_1}, \dotsc , a_{i_n})\) mit \(i_j \in \{1, \dotsc , n\}\) und \(i_j \not = i_k\) für \(j \not = k\) Permutation der gegebenen Objekte.

Beispiel: Es gibt \(6\) Permutationen der Zahlen \(1, 2, 3\), nämlich \((1, 2, 3)\), \((1, 3, 2)\), \((2, 1, 3)\), \((2, 3, 1)\), \((3, 1, 2)\) und \((3, 2, 1)\).
Dagegen gibt es nur die \(3\) Permutationen \((1, 2, 2)\), \((2, 1, 2)\) und \((2, 2, 1)\) der Zahlen \(1, 2, 2\).

Satz (Anzahl an Permutationen):

  • Es gibt \(n!\) viele Permutationen von \(n\) verschiedenen Objekten.

  • Es gibt \(\frac {n!}{n_1! \dotsm n_p!}\) viele Permutationen von \(n\) Objekten, unter denen es \(p \le n\) verschiedene Objekte gibt, falls das \(i\)-te Objekt insgesamt \(n_i\)-mal unter den gegebenen Objekten vorkommt (\(i = 1, \dotsc , p\)).

Beispiel: Die \(32\) Karten eines Skatblatts lassen sich in \(32! \approx 2{,}6 \cdot 10^{35}\) verschiedene Anordnungen bringen. Wenn es nur auf die \(8\) verschiedenen Symbole ankommt, die jeweils in \(4\) Farben vorkommen, so gibt es \(\frac {32!}{(4!)^8} \approx 2{,}4 \cdot 10^{24}\) Möglichkeiten. Bei der gleichen Frage für die Farben gibt es \(\frac {32!}{(8!)^4} \approx 1{,}0 \cdot 10^{16}\) Möglichkeiten.

Bemerkung: Bei wahrscheinlichkeitstheoretischen Fragen im Zusammenhang mit Kombinatorik müssen häufig aus \(n\) Objekten \(k\)-viele ausgewählt werden. Solche Sachverhalte werden durch Urnenmodelle veranschaulicht. Dabei stellt man sich vor, dass man eine Urne \(S\) gegeben hat, in der sich \(n\) Kugeln befinden. Aus dieser werden \(k\) Kugeln zufällig gezogen (Stichprobe).
Es gibt vier Möglichkeiten der Ziehung:

  • geordnete Stichprobe ohne Zurücklegen:
    Stichprobe ist \(k\)-Tupel \((\omega _1, \dotsc , \omega _k)\) mit \(\omega _1, \dotsc , \omega _k \in S\) paarweise verschieden

  • geordnete Stichprobe mit Zurücklegen:
    Stichprobe ist \(k\)-Tupel \((\omega _1, \dotsc , \omega _k)\) mit \(\omega _1, \dotsc , \omega _k \in S\)

  • ungeordnete Stichprobe ohne Zurücklegen:
    Stichprobe ist \(k\)-elementige Teilmenge \(\{\omega _1, \dotsc , \omega _k\}\) von \(S\)

  • ungeordnete Stichprobe mit Zurücklegen:
    Stichprobe ist „Sammlung“ \([\omega _1, \dotsc , \omega _k]\) von \(k\) Elementen aus \(S\), die mehrfach vorkommen können, hinsichtlich ihrer Reihenfolge aber nicht unterschieden werden (Multimenge)

Satz (Anzahl der Möglichkeiten beim Urnenmodell): Sei \(S\) eine \(n\)-elementige Menge und
\(k \in \natural _0\). Dann gilt für die Anzahl an Stichproben bei Ziehung von \(k\) Elementen aus \(S\):

  • geordnete Stichprobe ohne Zurücklegen: \(\frac {n!}{(n - k)!} = n \cdot (n - 1) \cdot \dotsm \cdot (n - k + 1)\)

  • geordnete Stichprobe mit Zurücklegen: \(n^k\)

  • ungeordnete Stichprobe ohne Zurücklegen: \(\binom {n}{k} = \frac {n!}{(n - k)! \cdot k!} = \frac {n \cdot (n - 1) \cdot \dotsm \cdot (n - k + 1)}{k!}\)

  • ungeordnete Stichprobe mit Zurücklegen: \(\binom {n + k - 1}{k}\)

Beispiel:

  • In einem Turnier mit \(20\) Teilnehmern sollen die ersten drei Podiumspläte zufällig ermittelt werden. Das entspricht einer geordneten Stichprobe ohne Zurücklegen mit \(n = 20\) und \(k = 3\). Es gibt daher \(20 \cdot 19 \cdot 18 = 6840\) Möglichkeiten.

  • Die Verteilung von Geburtstagen von \(k\) Schülern einer Klasse ist äquivalent zu einer geordneten Stichprobe mit Zurücklegen mit \(n = 365\). Hier gibt es \(365^k\) Möglichkeiten.

  • Beim Lotto (6 aus 49) ist das Ergebnis eine ungeordnete Stichprobe ohne Zurücklegen mit \(n = 49\) und \(k = 6\). Es gibt \(\binom {49}{6} = 13983816\) Möglichkeiten.
    Um die Wahrscheinlichkeit für genau \(\ell \) Richtige zu berechnen, zählt man die Anzahl der Möglichkeiten, aus 49 Zahlen \(\ell \) Richtige und \(6 - \ell \) Falsche zu ziehen. Es gibt genau \(\binom {6}{\ell } \binom {43}{6 - \ell }\) solche Möglichkeiten. Somit erhält man für die gesuchte Wahrscheinlichkeit
    \(p_\ell = \binom {6}{\ell } \binom {43}{6 - \ell } \left /\binom {49}{6}\right .\). Es gilt \(p_0 \approx 43{,}6\%\), \(p_1 \approx 41{,}5\%\), \(p_2 \approx 13{,}2\%\), …, \(p_6 \approx 0{,}0000072\%\).

hypergeometrische Verteilung:  Seien \(n, k \in \natural \) und \(m \in \natural _0\) mit \(m, k \le n\). Auf \(\Omega := \natural _0\) ist \(p_\ell := \binom {m}{l}\binom {n - m}{k - \ell } \left /\binom {n}{k}\right .\) für \(\ell \in \{\max \{0, k - (n - m)\}, \dotsc , \min \{m, k\}\}\) und \(p_\ell := 0\) sonst mit \(\ell \in \Omega \) eine Zähldichte. Das zugehörige W-Maß heißt hypergeometrische Verteilung \(H(n, m, k)\) mit Parametern \(n\), \(m\) und \(k\). Man definiert \(H(n, m, k, \ell ) := p_\ell \).
\(H(n, m, k, \ell )\) gibt die Wahrscheinlichkeit an, dass bei einer ungeordneten Ziehung von \(k\) Kugeln ohne Zurücklegen aus einer Urne mit \(m\) schwarzen Kugeln und \(n - m\) weißen Kugeln genau \(\ell \) schwarze Kugeln gezogen werden.

Satz (Grenzwert der hypergeometrischen Verteilung):
Sei \(n_0(n) \in \{0, \dotsc , n\}\) eine Folge mit \(\lim _{n \to \infty } \frac {n_0(n)}{n} = p \in (0, 1)\).
Dann gilt \(\lim _{n \to \infty } H(n, n_0(n), k, l) = \binom {k}{l} p^l (1 - p)^{k-l}\) für \(k \in \natural \) und \(l \in \{0, \dotsc , k\}\).

Beispiel: Die Wahrscheinlichkeit, dass in einer Klasse mit \(k\) Schülern mindestens zwei am selben Tag Geburtstag haben, lässt sich mit der Wahrscheinlichkeit des Komplementärereignisses berechnen, d. h. alle Schüler haben an unterschiedlichen Tagen Geburtstag. Dies entspricht einer geordneten Ziehung von \(k\) Kugeln aus einer Urne mit 365 Kugeln ohne Zurücklegen. Dementsprechend gibt es \(\frac {365!}{(365 - k)!}\) Möglichkeiten. Insgesamt gibt es \(365^k\) verschiedene Geburtstagsverteilungen, d. h. die gesuchte Wahrscheinlichkeit, dass alle an unterschiedlichen Tagen Geburtstag haben, beträgt \(1 - \frac {365!}{(365 - k)! 365^k}\). Schon für \(k = 23\) ist das ungefähr \(50{,}7\%\). Das erscheint intuitiv erstaunlich, was als Geburtstagsparadoxon bekannt ist.
Die auftretenden Fakultäten lassen sich mit der Stirling-Formel gut abschätzen:
\(n! \approx \sqrt {2\pi n} (n/e)^n e^{n/12}\).

Bedingte Wahrscheinlichkeiten

Beispiel: Einer Gruppe von \(66\) Menschen wird befragt, ob sie Sport machen und welches Geschlecht sie haben. Es stellt sich heraus, dass von den Männern \(12\) Sport machen und \(18\) nicht; bei den Frauen machen \(16\) Sport und \(20\) nicht. Nun wird zufällig eine Person ausgewählt. Dann ist die Wahrscheinlichkeit, dass diese Person weiblich ist, gleich \(\frac {38}{66} = \frac {19}{33}\).
Angenommen, man weiß schon, dass die Person Sport treibt. Wie hoch ist dann die Wahrscheinlichkeit, dass die Person eine Frau ist? Offensichtlich muss man nur noch die Befragten anschauen, die Sport machen. Von diesen sind \(12\) männlich und \(16\) weiblich, d. h. die Wahrscheinlichkeit ist jetzt gleich \(\frac {|\text {Frau} \cap \text {Sport}|}{|\text {Sport}|} = \frac {18}{30} = \frac {3}{5}\). Man kann das zu \(\frac {|\text {Frau} \cap \text {Sport}|/|\Omega |}{|\text {Sport}|/|\Omega |} = \frac {P(\text {Frau} \cap \text {Sport})}{P(\text {Sport})}\) umschreiben. Genau diese Darstellung verwendet man nun zur Verallgemeinerung von so einer bedingten Wahrscheinlichkeit auf allgemeine Wahrscheinlichkeitsräume.

bedingte Wahrscheinlichkeit:  Seien \((\Omega , \A , P)\) ein W-Raum und \(A, B \in \A \) mit \(P(A) > 0\).
Dann heißt \(P(B \,|\, A) := \frac {P(B \cap A)}{P(A)}\) die bedingte Wahrscheinlichkeit von \(B\) unter dem Vorwissen von \(A\).

Satz (Aussagen über bedingte Wahrscheinlichkeit):
Seien \((\Omega , \A , P)\) ein W-Raum und \(A \in \A \). Dann gilt:

  • \(P(\cdot \,|\, A)\colon \A \rightarrow [0, 1]\), \(B \mapsto P(B \,|\, A)\) ist ein W-Maß auf \(\Omega \) mit \(P(A \,|\, A) = 1\).

  • Für \(B \in \A \) mit \(P(B) > 0\) gilt \(P(A \,|\, B) = P(B \,|\, A) \cdot \frac {P(A)}{P(B)}\) (erste Formel von Bayes).

  • Für \(B_1, \dotsc , B_m \in \A \) mit \(P(B_1 \cap \dotsb \cap B_m) > 0\) gilt
    \(P(B_1 \cap \dotsb \cap B_m) = P(B_1) \cdot P(B_2 \,|\, B_1) \cdot P(B_3 \,|\, (B_1 \cap B_2)) \cdot \dotsm \cdot P(B_m \,|\, (B_1 \cap \dotsb B_{m-1}))\).

Satz (bedingte Wahrscheinlichkeit mit unendlich vielen Ereignissen):
Seien \((\Omega , \A , P)\) ein W-Raum und \(A_i, B \in \A \) mit \(P(A_i) > 0\) für \(i \in I\) mit \(I\) höchstens abzählbar. Die \(A_i\) sollen eine Zerlegung von \(\Omega \) bilden (d. h. \(A_i\) paarweise disjunkt, \(\bigcup _{i \in I} A_i = \Omega \)). Dann gilt:

  • \(P(B) = \sum _{i \in I} P(B \,|\, A_i) \cdot P(A_i)\) (Formel von der totalen Wahrscheinlichkeit)

  • \(P(A_j \,|\, B) = \frac {P(B \,|\, A_j) \cdot P(A_j)} {\sum _{i \in I} P(B \,|\, A_i) \cdot P(A_i)}\) für \(j \in I\) (zweite Formel von Bayes)

Beispiel:

  • Ein Ehepaar hat zwei Kinder. Man weiß, dass mindestens eines davon männlich ist.
    Wie hoch ist die Wahrscheinlichkeit, dass das Ehepaar sogar zwei Söhne hat?
    Mit \(A := \text {„mindestens ein Sohn“}\) und \(B := \text {„zwei Söhne“}\) gilt mithilfe der ersten Formel von Bayes \(P(B \,|\, A) = P(A \,|\, B) \cdot \frac {P(B)}{P(A)} = 1 \cdot \frac {1/4}{3/4} = \frac {1}{3}\), wieder ein unintuitives Ergebnis.

  • Ein Test auf eine Krankheit hat eine Zuverlässigkeit von \(99{,}9\%\). Die Krankheit tritt für eine einzelne Person mit einer Wahrscheinlichkeit von \(0{,}01\%\) auf. Nun ist der Test bei einer bestimmten Person positiv ausgefallen. Wie hoch ist die Wahrscheinlichkeit, dass die Person tatsächlich erkrankt ist?
    Mit \(A := \text {„Test positiv“}\) und \(B := \text {„Person krank“}\) ist zunächst mit der Formel von der totalen Wahrscheinlichkeit \(P(A) = P(A \,|\, B) \cdot P(B) + P(A \,|\, B^c) \cdot P(B^c)\)
    \(= (1 - 10^{-3}) \cdot 10^{-4} + 10^{-3} \cdot (1 - 10^{-4}) = \frac {10998}{10^7}\). Damit kann man nun
    \(P(B \,|\, A) = P(A \,|\, B) \cdot \frac {P(B)}{P(A)} = (1 - 10^{-3}) \cdot 10^{-4} \cdot \frac {10^7}{10998} = \frac {999}{10998} \approx 9{,}1\%\) errechnen. Diese geringe Wahrscheinlichkeit lässt sich damit erklären, dass die Krankheit im Vergleich zur Zuverlässigkeit des Tests zu selten auftritt. Ohne weitere Tests oder andere Anhaltspunkte lässt sich also nicht pauschal sagen, dass die Person krank ist.

  • Auch das Ziegenproblem lässt sich bedingten Wahrscheinlichkeiten erklären:
    Angenommen, der Kandidat wählt Tor 1. Seien \(A_k := \text {„Auto hinter Tor } k \text {“}\) und
    \(B := \text {„Showmaster öffnet Tor } 2 \text {“}\). Wenn der Showmaster nun tatsächlich Tor 2 öffnet, wie groß ist die Wahrscheinlichkeit, dass das Auto hinter Tor \(k\) ist? Es gilt \(P(A_k) = \frac {1}{3}\) sowie \(P(B \,|\, A_1) = \frac {1}{2}\), \(P(B \,|\, A_2) = 0\) und \(P(B \,|\, A_3) = 1\). Damit gilt mit der zweiten Formel von Bayes \(P(A_k \,|\, B) = \frac {P(A_k) \cdot P(B \,|\, A_k)} {\sum _{i=1}^3 P(A_i) \cdot P(B \,|\, A_i)} = \frac {1/3 \cdot P(B \,|\, A_k)}{1/2} = \frac {2}{3} \cdot P(B \,|\, A_k)\), d. h. \(P(A_1 \,|\, B) = \frac {1}{3}\), \(P(A_2 \,|\, B) = 0\) und \(P(A_3 \,|\, B) = \frac {2}{3}\), der Kandidat sollte also wechseln.

Unabhängigkeit von Ereignissen

Bemerkung: Man möchte einen Unabhängigkeitsbegriff für Ereignisse definieren. Für zwei unabhängige Ereignisse \(A\) und \(B\) soll \(P(B) = P(B \,|\, A)\) gelten, d. h. die Wahrscheinlichkeit von \(B\) soll sich mit dem Vorwissen von \(A\) nicht ändern (und umgekehrt). Wenn man die Definition von \(P(B \,|\, A)\) ausschreibt, kommt man auf \(P(A \cap B) = P(A) \cdot P(B)\), eine Definition, die auch für \(P(A) = 0\) oder \(P(B) = 0\) verwendet werden kann.

(stochastisch) unabhängig:  Seien \((\Omega , \A , P)\) ein W-Raum und \(A, B \in \A \).
\(A\) und \(B\) heißen (stochastisch) unabhängig, falls \(P(A \cap B) = P(A) \cdot P(B)\).

Beispiel: Man wirft einen Würfel zweimal unter Beachtung der Reihenfolge, \(\Omega = \{1, \dotsc , 6\}^2\). Seien \(A := \text {„erster Wurf gerade“}\), \(B := \text {„zweiter Wurf gerade“}\) und \(C := \text {„Summe gerade“}\).
Dann ist \(P(A) = P(B) = P(C) = \frac {1}{2}\) und \(P(A \cap B) = P(A \cap C) = P(B \cap C) = \frac {9}{36} = \frac {1}{4}\).
Somit sind \(A\) und \(B\), \(A\) und \(C\) bzw. \(B\) und \(C\) stochastisch unabhängig.

Bemerkung: Im Folgenden soll ein W-Raum \((\Omega , \A , P)\) konstruiert werden, der die Durchführung von zwei Experimenten, dargestellt von zwei W-Räumen \((\Omega _1, \A _1, P_1)\) und \((\Omega _2, \A _2, P_2)\), hintereinander darstellt. Es soll also \(\Omega = \Omega _1 \times \Omega _2\) sein. Für den Ereignisraum \(\A \) soll gelten, dass alle Ereignisse \(A_1 \times A_2\) mit \(A_1 \in \A _1\) und \(A_2 \in \A _2\) messbar sein sollen. Allerdings reichen diese „Rechtecke“ noch nicht, denn die Vereinigung von zwei disjunkten Rechtecken ist i. A. nicht wieder ein Rechteck. Somit wählt man \(\A \) als die kleinste \(\sigma \)-Algebra, die alle \(A_1 \times A_2\) enthält. Für das Wahrscheinlichkeitsmaß \(P\) soll \(P(A_1 \times A_2) = P_1(A_1) \times P_2(A_2)\) für alle \(A_1 \in \A _1\) und \(A_2 \in \A _2\) gelten, weil die beiden Experimente sich nicht beeinflussen sollen.

Satz (Existenz und Eindeutigkeit des Produktraums): Seien \((\Omega _1, \A _1, P_1)\) und \((\Omega _2, \A _2, P_2)\) zwei W-Räume. Dann gibt es eine kleinste \(\sigma \)-Algebra \(\A _1 \otimes \A _2\) auf \(\Omega _1 \times \Omega _2\) mit \(A_1 \times A_2 \in \A _1 \otimes \A _2\) für alle \(A_1 \in \A _1\) und \(A_2 \in \A _2\) und es gibt genau ein W-Maß \(P_1 \otimes P_2\) auf dem Messraum \((\Omega _1 \times \Omega _2, \A _1 \otimes \A _2)\) mit \((P_1 \otimes P_2)(A_1 \times A_2) = P_1(A_1) \cdot P_2(A_2)\) für alle \(A_1 \in \A _1\) und \(A_2 \in \A _2\).

Produktraum:  Seien \((\Omega _1, \A _1, P_1)\) und \((\Omega _2, \A _2, P_2)\) zwei W-Räume.
Dann heißt \(P_1 \otimes P_2\) Produktmaß und \((\Omega _1 \times \Omega _2, \A _1 \otimes \A _2, P_1 \otimes P_2)\) heißt Produktraum der beiden W-Räume \((\Omega _1, \A _1, P_1)\) und \((\Omega _2, \A _2, P_2)\).

(stochastisch) unabhängig für beliebige Familien:  Seien \((\Omega , \A , P)\) ein W-Raum und \(A_i \in \A \) für \(i \in I\). Die \((A_i)_{i \in I}\) heißen (stochastisch) unabhängig, falls \(P(\bigcap _{i \in K}) = \prod _{i \in K} P(A_i)\) für alle \(K \subset I\) endlich.

Bemerkung:
\((A_i)_{i \in I}\) sind unabhängig genau dann, wenn die Komplemente \((\Omega \setminus A_i)_{i \in I}\) unabhängig sind.

Satz (Satz von Borel-Cantelli, 2. Teil):
Seien \((\Omega , \A , P)\) ein W-Raum und \(A_k \in \A \) für \(k \in \natural \). Gilt \(\sum _{k=1}^\infty P(A_n) = \infty \) und sind die \((A_k)_{k \in \natural }\) stochastisch unabhängig, dann gilt \(P(\limsup _{k \to \infty } A_k) = 1\).

Bemerkung: Somit gilt für \((A_k)_{k \in \natural }\) stoch. unabhängig, dass entweder \(P(\limsup _{k \to \infty } A_k) = 0\) oder \(P(\limsup _{k \to \infty } A_k) = 1\) (Null-Eins-Gesetz für stochastisch unabhängige Ereignisse).

Zufallsvariablen in diskreten Wahrscheinlichkeitsräumen

Zufallsvariable:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(E\) eine Menge.
Dann heißt eine Abbildung \(X\colon \Omega \rightarrow E\) eine Zufallsvariable (ZV) mit Werten in \(E\).

Bemerkung: Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow E\) eine Zufallsvariable. Dann ist \((p_x)_{x \in \widetilde {E}}\) mit \(p_x := P(\{\omega \in \Omega \;|\; X(\omega ) = x\})\) eine Zähldichte auf dem Bild \(\widetilde {E} := X(\Omega )\), da \(p_x \ge 0\) für alle \(x \in \widetilde {E}\) und \(\sum _{x \in \widetilde {E}} p_x = 1\). Somit ist \(\widetilde {P}_X\colon \P (\widetilde {E}) \rightarrow [0, 1]\), \(B \mapsto \sum _{x \in B} p_x\) ein diskretes W-Maß auf \((\widetilde {E}, P(\widetilde {E}))\). Man kann dieses W-Maß auf \(E\) fortsetzen, indem man \(p_x := 0\) für \(x \in E \setminus \widetilde {E}\) setzt. Dann erhält man ein W-Maß auf \((E, \P (E))\) durch \(P_X\colon \P (E) \rightarrow [0, 1]\), \(B \mapsto \widetilde {P}_X(B \cap \widetilde {E}) = \sum _{x \in B \cap \widetilde {E}} p_x = P(\{\omega \in \Omega \;|\; X(\omega ) \in B\})\). Man beachte, dass die Summe zwar überabzählbar viele Glieder enthält, aber nur höchstens abzählbar viele davon können ungleich Null sein.

Notation:  Man definiert für \(B \subset E\) und \(x \in B\) die Schreibweisen
\(\{X \in B\} := \{\omega \in \Omega \;|\; X(\Omega ) \in B\}\) und \(\{X = x\} := \{\omega \in \Omega \;|\; X(\Omega ) = x\}\). Die Mengenklammern können weggelassen werden. (Für \(E \subset \real \) kann man auch „\(\le \)“ und „\(<\)“ statt „\(=\)“ verwenden.)

Verteilung einer Zufallsvariablen:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und
\(X\colon \Omega \rightarrow E\) eine Zufallsvariable. Dann heißt das W-Maß \(P_X\colon \P (E) \rightarrow [0, 1]\), \(B \mapsto P(X \in B)\) die Verteilung von \(X\) unter \(P\).

Beispiel:

  • Wurf von zwei fairen Würfeln mit Reihenfolge: \(\Omega = \{1, \dotsc , 6\}^2\) mit
    \(X\colon \Omega \rightarrow \natural \), \((\omega _1, \omega _2) \mapsto \omega _1 + \omega _2\) der Summe der Augenzahlen.
    Um \(P(X = n)\) für \(n \in \{2, \dotsc , 12\}\) zu berechnen, ermittelt man wegen
    \(P(X = n) = P(\{\omega \in \Omega \;|\; X(\omega ) = n\}) = \frac {|\{\omega \in \Omega \;|\; X(\omega ) = n\}|}{|\Omega |}\) die Mengen \(\{X = 2\} = \{(1, 1)\}\), \(\{X = 3\} = \{(1, 2), (2, 1)\}\) usw.
    Somit ist \(P(X = 2) = P_X(\{2\}) = \frac {1}{36}\), \(P(X = 3) = P_X(\{3\}) = \frac {2}{36}\) etc.

  • Angenommen, ein Kongress mit 500 Teilnehmern wird eröffnet. Zur Überraschung der Gäste sollen diejenigen ein Geschenk bekommen, die am Tag der Eröffnung Geburtstag haben. Wie viele Geschenke sollen gekauft werden, damit zu einer vorgegebenen Wahrscheinlichkeit (z. B. \(99\%\)) die Anzahl der Geschenke für die Gäste ausreichen?
    Sei \(\Omega = \{1, \dotsc , 365\}^{500}\), wobei \(\omega = (\omega _1, \dotsc , \omega _{500}) \in \Omega \) bedeutet, dass Gast Nummer \(k\) an Tag \(\omega _k\) Geburtstag hat (\(k = 1, \dotsc , 500\)). Außerdem sei \(h \in \{1, \dotsc , 365\}\) der Tag der Kongresseröffnung. Definiere nun \(X_k\colon \Omega \rightarrow \natural _0\), \(\omega \mapsto 1\) für \(\omega _k = h\) und \(\omega \mapsto 0\) sonst. Damit ist \(X\colon \Omega \rightarrow \natural _0\) mit \(\omega \mapsto \sum _{k=1}^{500} X_k(\omega )\) die Anzahl der Teilnehmer in \(\omega \), die am Tag \(h\) der Kongresseröffnung Geburtstag haben. Für die Anzahl der Blumensträuße \(n \in \natural _0\) ist nun \(P(X \le n)\) gesucht, d. h. die Wahrscheinlichkeit, dass weniger als \(n\) Leute am Tag \(h\) Geburtstag haben.
    Es gilt \(P_X(\{n\}) = P(X = n) = \frac {|\{X = n\}|}{|\Omega |} = \frac {1}{365^{500}} \cdot \binom {500}{n} \cdot 364^{500-n}\) (Binomialverteilung: Ziehen von \(500\) Kugeln aus einer Urne mit \(365\) Kugeln mit Zurücklegen ohne Beachtung der Reihenfolge). Damit ist \(P(X \le n) = P_X(\{0, \dotsc , n\}) = \sum _{k=0}^n P_X(\{k\}) = \frac {1}{365^{500}} \cdot \sum _{k=0}^n 364^{500-k} \cdot \binom {500}{k}\). Es gilt zum Beispiel \(P(X \le 4) \approx 98{,}7\%\) und \(P(X \le 5) \approx 99{,}7\%\).

Verteilungsfunktion:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und
\(X\colon \Omega \rightarrow E\) eine Zufallsvariable. Dann heißt \(F_X\colon \real \rightarrow [0, 1]\),
\(F_X(x) := P(X \le x) = P_X((-\infty , x])\) die Verteilungsfunktion von \(X\) unter \(P\).

Satz (Eigenschaften der Verteilungsfunktion): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und
\(X\colon \Omega \rightarrow E\) eine Zufallsvariable. Dann gilt:

  • \(F_X\) ist monoton wachsend und rechtsseitig stetig.

  • \(\lim _{x \to -\infty } F_X(x) = 0\), \(\lim _{x \to +\infty } F_X(x) = 1\)

  • Es gilt \(F_X(x) - \lim _{y \to x - 0} F_X(y) = P(X = x)\), d. h. \(P\) kann aus \(P_X\) rekonstruiert werden und \(F_X\) hat höchstens abzählbar viele Sprungstellen.

  • \(F_X(x) = \sum _{y \le x} P(X = y)\)

geometrische Verteilung:  Sei \(p \in (0, 1]\). Auf \(\Omega := \natural \) ist \(p_k := p \cdot (1 - p)^{k-1}\) eine Zähldichte. Das zugehörige W-Maß heißt geometrische Verteilung \(G(p)\) mit Parameter \(p\). Man definiert \(G(p, k) := p_k\).
\(G(p, k)\) gibt die Wahrscheinlichkeit an, dass bei unabhängigen Würfen auf eine Dartscheibe mit \(p = \frac {1}{4}\) im \(k\)-ten Wurf erstmals das rechte obere Viertel trifft.

Satz (Zufallsvariable geometrisch verteilt \(\iff \) gedächtnislos):
Eine Zufallsvariable \(X\colon \Omega \rightarrow \natural \) auf einem diskreten W-Raum \((\Omega , \P (\Omega ), P)\) ist geometrisch verteilt genau dann, wenn sie gedächtnislos ist, d. h. \(P(\{X > n + k\} \;|\; \{X > n\}) = P(X > k)\) für alle \(n, k \in \natural \).

Erwartungswert in diskreten Wahrscheinlichkeitsräumen

Erwartungswert:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow E\) eine Zufallsvariable mit \(\sum _{\omega \in \Omega } |X(\omega )| \cdot P(\{\omega \}) < \infty \) (d. h. \(X\) hat endlichen Erwartungswert).
Dann heißt \(\EW (X) := \sum _{\omega \in \Omega } X(\omega ) \cdot P(\{\omega \})\) Erwartungswert (EW) von \(X\).
(Für \(X \ge 0\) sei auch \(\EW (X) = \infty \) zugelassen.)

Beispiel:

  • Wurf eines fairen Würfels: Sei \(X\colon \Omega \rightarrow \real \) die Zufallsvariable, die jedem \(\omega \in \Omega \) die Augenzahl zuordnet. Dann gilt \(\EW (X) = 1 \cdot \frac {1}{6} + \dotsb + 6 \cdot \frac {1}{6} = \frac {7}{2}\).

  • Wurf zweier Würfel: Sei \(X\colon \Omega \rightarrow \real \), \((\omega _1, \omega _2) \mapsto \omega _1 + \omega _2\) die Zufallsvariable, die jedem Ergebnis die Summe der Augenzahlen zuordnet.
    Dann gilt \(\EW (X) = X((1, 1)) \cdot P(\{(1, 1)\}) + X((1, 2)) \cdot P(\{(1, 2)\}) + \dotsb = 7\).
    Dies lässt sich allerdings einfacher bestimmen, wenn man die Summanden mit gleichem Wert der Zufallsvariablen \(X\) zusammenfasst. Mit dieser Methode ist
    \(\EW (X) = \sum _{n=2}^{12} n \cdot P(X = n) = 2 \cdot \frac {1}{36} + 2 \cdot \frac {2}{36} + \dotsb + 12 \cdot \frac {1}{36} = 7\).

Satz (diskreter Transformationssatz): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow E\) eine Zufallsvariable mit Verteilung \(P_X\). Dann sind äquivalent:

  • \(X\) hat endlichen Erwartungswert.

  • \(\sum _{x \in X(\Omega )} |x| \cdot P_X(\{x\}) < \infty \)

In diesem Fall gilt \(\EW (X) = \sum _{x \in X(\Omega )} x \cdot P_X(\{x\})\).

Satz (Rechenregeln für den Erwartungswert):
Seien \(X, Y\colon \Omega \rightarrow \real \) zwei reelle Zufallsvariablen mit endlichen Erwartungswerten. Dann gilt:

  • \(X + Y\) hat endlichen Erwartungswert \(\EW (X + Y) = \EW (X) + \EW (Y)\).

  • Für \(\alpha \in \real \) hat \(\alpha \cdot X\) endlichen Erwartungswert \(\EW (\alpha \cdot X) = \alpha \cdot \EW (X)\).

  • Für \(A \in \P (\Omega )\) hat die Indikatorfunktion von \(A\) \(\1_A\colon \Omega \rightarrow \real \) mit \(\omega \mapsto 1\) für \(\omega \in A\) und \(\omega \mapsto 0\) für \(\omega \notin A\) endlichen Erwartungswert \(\EW (\1_A) = P(A)\).

  • Aus \(X \le Y\) folgt \(\EW (X) \le \EW (Y)\).

  • \(|X|\) hat endlichen Erwartungswert mit \(|\EW (X)| \le \EW (|X|)\).

Beispiel: Wenn man den Erwartungswert etwas umschreibt, lässt er sich oft leichter berechnen.

  • Wurf zweier Würfel: Hier kann man die Zufallsvariable „Summe der Augenzahlen“ als Summe \(X = X_1 + X_2\) der beiden Zufallsvariablen \(X_k\colon \Omega \rightarrow \real \), \((\omega _1, \omega _2) \mapsto \omega _k\) für \(k = 1, 2\) schreiben. Somit gilt \(\EW (X) = \EW (X_1) + \EW (X_2) = \frac {7}{2} + \frac {7}{2} = 7\).

  • Kongresseröffnung: Es gilt \(X = X_1 + \dotsb + X_{500}\), wobei \(X_k\colon \Omega \rightarrow \{0, 1\}\) mit \(\omega \mapsto 1\) für \(\omega _k = h\) und \(\omega \mapsto 0\) sonst (also \(X_k = \1_{\{\omega _k = h\}}\)). Den Erwartungswert \(\EW (X_k)\) kann man einfach ausrechnen, da \(\EW (X_k) = P(\{\omega _k = h\}) = \frac {1}{365}\). Damit gilt \(\EW (X) = \frac {500}{365} = \frac {100}{73}\).

Satz (Erwartungswert von elementaren Verteilungen): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter
W-Raum und \(X\colon \Omega \rightarrow E\) eine Zufallsvariable mit Verteilung \(P_X\). Dann gilt:

  • Für \(X \equiv c\) hat \(X\) endlichen Erwartungswert \(\EW (X) = c\).

  • Ist \(n := |X(\Omega )| < \infty \) und \(P_X\) die Gleichverteilung auf X(\(\Omega )\) (\(X\) ist diskret gleichverteilt), dann hat \(X\) endlichen Erwartungswert \(\EW (X) = \frac {1}{n} \cdot \sum _{x \in X(\Omega )} x\).

  • Ist \(P_X\) die Binomialverteilung auf \(X(\Omega ) = \natural _0\) zu den Parametern \(n\) und \(p\), dann hat \(X\) endlichen Erwartungswert \(\EW (X) = np\).

  • Ist \(P_X\) die Poissonverteilung auf \(X(\Omega ) = \natural _0\) zum Parameter \(\lambda > 0\), dann hat \(X\) endlichen Erwartungswert \(\EW (X) = \lambda \).

  • Ist \(P_X\) die hypergeometrische Verteilung auf \(X(\Omega ) = \natural _0\) zu den Parametern \(k\), \(n\) und \(s\), dann hat \(X\) endlichen Erwartungswert \(\EW (X) = \frac {ks}{n}\).

Bemerkung: Im Allgemeinen gilt \(\EW (X \cdot Y) \not = \EW (X) \cdot \EW (Y)\) für zwei reelle Zufallsvariablen \(X\) und \(Y\). Es gilt nämlich
\(\EW (X \cdot Y) = \sum _{\omega \in \Omega } X(\omega ) \cdot Y(\omega ) \cdot P(\{\omega \}) = \sum _{x \in X(\Omega )} \sum _{y \in Y(\Omega )} x \cdot y \cdot P(\{X = x\} \cap \{Y = y\})\),
aber \(\EW (X) \cdot \EW (Y) = \left (\sum _{x \in X(\Omega )} x \cdot P(X = x)\right ) \cdot \left (\sum _{y \in Y(\Omega )} y \cdot P(Y = y)\right )\)
\(= \sum _{x \in X(\Omega )} \sum _{y \in Y(\Omega )} x \cdot y \cdot P(X = x) \cdot P(Y = y)\).
Wenn also \(P(\{X = x\} \cap \{Y = y\}) = P(X = x) \cdot P(Y = y)\) für alle \(x \in X(\Omega )\) und \(y \in Y(\Omega )\) gelten würde, dann würde \(\EW (X \cdot Y) = \EW (X) \cdot \EW (Y)\) gelten (das ist i. A. aber nicht der Fall). Dies ist äquivalent zur stochastischen Unabhängigkeit von \(\{X = x\}\) und \(\{Y = y\}\). Man erweitert diese Bedingung noch etwas, um zu einer Definition von stochastischer Unabhängigkeit für Zufallsvariablen zu kommen.

(stochastisch) unabhängig für ZV: 
Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X_i\colon \Omega \rightarrow E_i\) Zufallsvariablen für \(i \in I\) (\(I \not = \emptyset \)).
Die \((X_i)_{i \in I}\) heißen (stochastisch) unabhängig, falls für jede Wahl von Teilmengen \(B_i \subset E_i\) für \(i \in I\) die Familie von Ereignissen \((\{X_i \in B_i\})_{i \in I}\) stochastisch unabhängig ist.

Satz (Produktregel für unabhängige ZV): Seien \(X, Y\colon \Omega \rightarrow \real \) reelle Zufallsvariablen mit endlichen Erwartungswerten. Wenn \(X\) und \(Y\) unabhängig sind, dann hat \(X \cdot Y\) endlichen Erwartungswert \(\EW (X \cdot Y) = \EW (X) \cdot \EW (Y)\).

Bemerkung: Der Satz lässt sich auf eine beliebige endliche Zahl von Zufallsvariablen verallgemeinern.

Varianz in diskreten Wahrscheinlichkeitsräumen

Bemerkung: Im Folgenden soll eine Größe für die „Schwankungsbreite“ einer reellen Zufallsvariable eingeführt werden. Dafür betrachtet man den Fehler \(X - \EW (X)\). Um den absoluten Fehler zu berücksichtigen und die Rechnung nicht unnötig zu verkomplizieren, verwendet man das Quadrat \((X - \EW (X))^2\). Dies ist wieder eine Zufallsvariable, von der man unter gewissen Umständen den Erwartungswert berechnen kann, d. h. der „durchschnittliche“ Fehler, den die Zufallsvariable \(X\) gegenüber dem Erwartungswert \(\EW (X)\) macht.

Lemma (Varianz): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow \real \) eine reelle ZV.
Wenn \(X^2\) einen endlichen Erwartungswert besitzt, dann auch \(X\) und \((X - \EW (X))^2\). In diesem Fall gilt \(\EW ((X - \EW (X))^2) = \EW (X^2) - \EW (X)^2\).

Varianz:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow \real \) eine reelle ZV mit \(\EW (X^2) < \infty \). Dann heißt \(\Var (X) := \EW ((X - \EW (X))^2) = \EW (X^2) - \EW (X)^2\) die Varianz von \(X\).

Satz (Aussagen über Varianz): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und
\(X, X_1, \dotsc , X_n\colon \Omega \rightarrow \real \) reelle ZV mit \(\EW (X^2), \EW (X_i^2) < \infty \) für \(i = 1, \dotsc , n\). Dann gilt:

  • \(\Var (\alpha X) = \alpha ^2 \Var (X)\) und \(\Var (X + c) = \Var (X)\) für \(\alpha , c \in \real \)

  • \(\Var (X_1 + \dotsb + X_n) = \Var (X_1) + \dotsb + \Var (X_n)\), falls \(X_1, \dotsc , X_n\) unabhängig sind
    (Satz von Bienaymé)

  • \(\Var (X) = 0 \;\Rightarrow \; P(X = \EW (X)) = 1\)

Satz (Varianz von elementaren Verteilungen): Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow \real \) eine reelle Zufallsvariable mit Verteilung \(P_X\). Dann gilt:

  • Ist \(X\) konstant, so gilt \(\Var (X) = 0\).

  • Ist \(n := |X(\Omega )| < \infty \) und \(P_X\) die Gleichverteilung auf \(X(\Omega )\), dann gilt
    \(\Var (X) = \frac {1}{n} \cdot \sum _{x \in X(\Omega )} (x - \EW (X))^2\).

  • Ist \(P_X\) die Binomialverteilung auf \(X(\Omega ) = \natural _0\) zu den Parametern \(n\) und \(p\), dann gilt \(\Var (X) = np(1 - p)\).

  • Ist \(P_X\) die Poissonverteilung auf \(X(\Omega ) = \natural _0\) zum Parameter \(\lambda > 0\), dann gilt \(\Var (X) = \lambda \).

  • Ist \(P_X\) die hypergeometrische Verteilung auf \(X(\Omega ) = \natural _0\) zu den Parametern \(k\), \(n\) und \(s\), dann gilt \(\Var (X) = \frac {ks}{n} \cdot (1 - \frac {s}{n}) \cdot \frac {n - k}{n - 1}\).

standarisiert:  Seien \((\Omega , \P (\Omega ), P)\) ein diskreter W-Raum und \(X\colon \Omega \rightarrow \real \) eine reelle Zufallsvariable mit \(\EW (X^2) < \infty \). Dann heißt \(X\) standarisiert, falls \(\EW (X) = 0\) und \(\Var (X) = 1\).

Standarisierung:  Sei \(X\colon \Omega \rightarrow \real \) eine reelle Zufallsvariable mit \(\EW (X^2) < \infty \) und \(\Var (X) \not = 0\). Dann ist \(X^\ast := \frac {X - \EW (X)}{\sqrt {\Var (X)}}\) eine standarisierte Zufallsvariable, die sog. Standarisierung von \(X\).