Bemerkung: Man sucht nach optimalen Tests basierend auf Likelihood-Quotienten für

  • einfache Hypothesen \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta = \theta _1\),

  • für einseitige (zusammengesetzte) Hypothesen, z. B. \(H_0\colon \theta \le \theta _0\) vs. \(H_1\colon \theta > \theta _0\), und

  • für zweiseitige Hypothesen \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta \not = \theta _0\), wobei in diesem Fall die Klasse der betrachteten Tests eingeschränkt wird.

Das Neyman-Pearson-Lemma

UMP-Test:  Ein Test \(\delta ^\ast \) zum Niveau \(\alpha \in [0, 1]\) heißt gleichmäßig bester Test (uniformly most powerful test, UMP-Test), für das Testproblem \(H_0\colon \theta \in \Theta _0\) vs. \(H_1\colon \theta \in \Theta _1\), falls für jeden weiteren Test \(\delta \) zum selben Niveau \(\alpha \) gilt, dass \(\forall _{\theta \in \Theta _1}\; G_\delta (\theta ) \le G_{\delta ^\ast }(\theta )\).

Bemerkung: Da \(G_\delta (\theta )\) für \(\theta \in \Theta _1\) gleich \(1\) minus der Fehlerwahrscheinlichkeit 2. Art entspricht, sind UMP-Tests charakterisiert durch Minimierung der Fehlerwahrscheinlichkeit 2. Art unter allen Tests zum Niveau \(\alpha \).

Likelihood-Quotienten-Statistik: 
Sei \(p\) Zähl- oder L.-B.-Dichte von \(X\), wobei \(X\) Werte in \(\real ^n\) annehme.
Dann heißt \(L(x, \theta _0, \theta _1) := \frac {p(x, \theta _1)}{p(x, \theta _0)}\) Likelihood-Quotienten-Statistik zur Beobachtung \(x\).
Man definiert \(L(x, \theta _0, \theta _1) := 0\) für \(p(x, \theta _1) = p(x, \theta _0) = 0\) und \(L(x, \theta _0, \theta _1) := \infty \) für \(p(x, \theta _1) > 0\) und \(p(x, \theta _0) = 0\).

Bemerkung: Große Werte von \(L\) sprechen eher für \(\theta _1\), kleine eher für \(\theta _0\).

Satz (Neyman-Pearson-Lemma):
Seien \((\X , \A , \P )\) ein statistischer Raum mit einem regulären statistischen Modell
\(\P = \{p(\cdot , \theta ) \;|\; \theta \in \Theta \}\) und \(\Theta = \{\theta _0, \theta _1\}\) mit Testproblem \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta = \theta _1\).
Dann gibt es für alle \(\alpha \in [0, 1]\) Zahlen \(k \in [0, \infty ]\) und \(\gamma \in [0, 1]\), sodass \(\delta \colon \X \rightarrow [0, 1]\) ein UMP-Test zum Niveau \(\alpha \) ist, wobei \(\delta \) definiert ist durch \(\delta (x) := \begin {cases}0 & L(x, \theta _0, \theta _1) < k,\\ \gamma & L(x, \theta _0, \theta _1) = k,\\1 & L(x, \theta _0, \theta _1) > k.\end {cases}\)

Bemerkung: Im Beweis betrachtet man die Verteilungsfunktion \(g\) von \(Y\colon \X \rightarrow [0, \infty )\) mit \(Y(x) := L(x, \theta _0, \theta _1)\) für \(p(x, \theta _0) > 0\) und \(Y(x) := 0\) sonst. Für den Fall, dass es ein \(\overline {k} \in [0, \infty )\) gibt mit \(g(\overline {k}) = 1 - \alpha \), wählt man \(k := \overline {k}\) und \(\gamma := 0\). Sonst (falls es kein solches \(\overline {k}\) gibt) gibt es ein \(\overline {k}\), sodass \(\lim _{k \to \overline {k}-0} g(k) \le 1 - \alpha < \lim _{k \to \overline {k}+0} g(k)\). In diesem Fall wählt man \(k := \overline {k}\) und \(\gamma \in [0, 1]\), sodass \(P_{\theta _0}(\{x \;|\; Y(x) \le \overline {k}\}) - \gamma P_{\theta _0}(\{x \;|\; Y(x) = \overline {k}\}) = 1 - \alpha \).

Die Randomisierung bewirkt, dass das vorgegebene Niveau \(\alpha \) voll ausgeschöpft wird, d. h. \(\EE _{\theta _0}(\delta (X)) = \alpha \). Dies hat aber auch zur Folge, dass die Gütefunktion für \(\theta = \theta _1\) größer (oder gleich) und damit die Fehlerwahrscheinlichkeit 2. Art kleiner (oder gleich) wird im Vergleich zum nicht-randomisierten Test.

Beispiel: Es wird ein nicht-randomisierter Test zum Niveau \(\alpha = 0.05\) gesucht für \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta = \theta _1\), wobei \(X \sim \Bin (20, \theta )\) und \(n := 20\) mit \(\theta \in \{0.2, 0.8\}\) und \(\theta _0 = 0.2\), \(\theta _1 = 0.8\).
Der Test ist definiert durch \(\delta _{\text {nr}}(x) := \1_{\{p(x, 0.8)/p(x, 0.2) \ge k\}}\). Dabei ist
\(\frac {p(x, 0.8)}{p(x, 0.2)} = \frac {\binom {n}{x} 0.8^x 0.2^{n-x}}{\binom {n}{x} 0.2^x 0.8^{n-x}} = 4^x (1/4)^{n-x} = 4^{2x} 4^{-n}\) monoton in \(x\), d. h. \(\frac {p(x, 0.8)}{p(x, 0.2)} \ge k \iff x \ge k’\).
Wegen \(\PP _{0.2}(X \le 6) \approx 0.913\) und \(\PP _{0.2}(X \le 7) \approx 0.968\) wird \(H_0\colon \theta = 0.2\) abgelehnt, falls \(x > 7\), denn dann ist \(\PP (H_0 \text { abl.} | H_0 \text { wahr}) = \PP _{0.2}(X > 7) = 1 - 0.968 = 0.032 < \alpha \). Außerdem gilt \(\PP (H_0 \text { abl.} | H_1 \text { wahr}) = \PP _{0.8}(X > 7) = 1 - \PP _{0.8}(X \le 7) = 1 - 1.5 \cdot 10^{-5}\), d. h. die Fehlerwahrscheinlichkeit 2. Art ist sehr klein.

Nun betrachtet man den randomisierten Test \(\delta _{\text {r}}(x) := 0\) für \(\frac {p(x, 0.8)}{p(x, 0.2)} < k\), \(\delta _{\text {r}}(x) := \gamma \) für \(\frac {p(x, 0.8)}{p(x, 0.2)} = k\) und \(\delta _{\text {r}}(x) := 1\) für \(\frac {p(x, 0.8)}{p(x, 0.2)} > k\). Dies entspricht den Fällen \(x < 7\), \(x = 7\) und \(x > 7\) (sonst kein Test zum Niveau \(\alpha \)). Nach dem Beweis des Satzes muss \(\gamma \in [0, 1]\) so gewählt werden, dass \(\PP _{0.2}(X > 7) + \gamma \PP _{0.2}(X = 7) = \alpha = 0.05\), also \(\gamma = \frac {\alpha - \PP _{0.2}(X > 7)}{\PP _{0.2}(X = 7)} \approx 0.327\). Damit ergibt sich \(\PP (H_0 \text { abl.} | H_1 \text { wahr}) = \EE _{0.8}(\delta _{\text {r}}) = \gamma \cdot \PP _{0.8}(X = 7) + 1 \cdot \PP _{0.8}(X > 7) \approx 0.99999\). Damit gilt für die beiden zu \(\delta _{\text {nr}}\) und \(\delta _{\text {r}}\) zugehörigen Gütefunktionen, dass \(G_{\delta _{\text {nr}}}(\theta ) < G_{\delta _{\text {r}}}(\theta )\) für \(\theta = \theta _0, \theta _1\). Also ist \(\delta _{\text {r}}\) ein besserer Test zum Niveau \(\alpha = 0.05\) als \(\delta _{\text {nr}}\) (sogar optimal zum Niveau \(\alpha = 0.05\) nach dem Neyman-Pearson-Lemma).

Optimale einseitige Tests

monotoner Dichtequotient:  Sei \(\P = \{p(\cdot , \theta ) \;|\; \theta \in \Theta \}\) ein reguläres, einparametriges statistisches Modell (d. h. \(\Theta \subset \real \)). Dann besitzt \(\P \) einen monotonen Dichtequotienten bzgl. der Statistik \(T\), falls es für alle \(\theta _1, \theta _2 \in \Theta \) mit \(\theta _1 < \theta _2\) eine streng monoton wachsende Funktion \(q_{\theta _1,\theta _2}\colon \real \rightarrow [0, \infty ]\) gibt mit \(q_{\theta _1,\theta _2}(T(x)) = \frac {p(x, \theta _2)}{p(x, \theta _1)}\) für alle \(x \in \X \).

Beispiel: Einparametrige Exp.familien mit Dichte \(p(x, \theta ) = \1_A(x) \cdot \exp (c(\theta )T(x) + d(\theta ) + S(x))\) besitzen einen monotonen Dichtequotienten bzgl. der Statistik \(T\), wenn \(c\colon \Theta \rightarrow \real \) streng monoton wachsend ist, da \(q_{\theta _1,\theta _2}(T(x)) := \exp ((c(\theta _2) - c(\theta _1)) T(x) + d(\theta _2) - d(\theta _1))\) in \(T(x)\) streng monoton wachsend ist (für \(\theta _1 < \theta _2\)).

Satz (UMP-Tests bei rechtsseitigen Hypothesen): \(\P = \{p(\cdot , \theta ) \;|\; \theta \in \Theta \}\) (\(\Theta \subset \real \)) besitze einen monotonen Dichtequotienten bzgl. der Statistik \(T\) und \(H_0\colon \theta \le \theta _0\) vs. \(H_1\colon \theta > \theta _0\).
Dann gibt es für alle \(\alpha \in (0, 1)\) Zahlen \(c \in \real \) und \(\gamma \in [0, 1]\), sodass \(\delta \colon \X \rightarrow [0, 1]\) ein UMP-Test zum Niveau \(\alpha \) ist, wobei \(\delta \) definiert ist durch \(\delta (x) := \begin {cases}0 & T(x) < c,\\ \gamma & T(x) = c,\\1 & T(x) > c.\end {cases}\)

Bemerkung: \(\delta \) ist sogar ein Level-\(\alpha \)-Test.
\(\gamma \) und \(c\) ergeben sich genauso wie beim Beweis vom Neyman-Pearson-Lemma, wenn man \(Y(x)\) durch \(T(x)\) ersetzt. Der im Satz definierte Test \(\delta \) ist ein UMP-Test für jedes \(c \in \real \) und \(\gamma \in [0, 1]\), sodass \(\PP _{\theta _0}(T(X) \le c) - \gamma \PP _{\theta _0}(T(X) = c) = 1 - \alpha \). Im Fall \(\PP _{\theta _0}(T(X) = c) = 0\) ist jedes \(\gamma \) erlaubt und \(c\) ist dann das \((1 - \alpha )\)-Quantil der Verteilung von \(T(X)\) unter \(\theta = \theta _0\).
Ist \(H_0\colon \theta \ge \theta _0\) vs \(H_1\colon \theta < \theta _0\) zu testen, so gibt es unter den Voraussetzungen des Satzes von eben für alle \(\alpha \in (0, 1)\) Zahlen \(c \in \real \) und \(\gamma \in [0, 1]\), sodass \(\delta \colon \X \rightarrow [0, 1]\) ein UMP-Test zum Niveau \(\alpha \) ist, wobei \(\delta \) definiert ist durch \(\delta (x) := \begin {cases}0 & T(x) > c,\\ \gamma & T(x) = c,\\1 & T(x) < c.\end {cases}\)

Beispiel: Seien \(X_1, \dotsc , X_n \sim \N (\mu , \sigma ^2)\) i.i.d. mit \(\mu \) unbekannt und \(\sigma ^2\) bekannt, wobei \(X = (X_1, \dotsc , X_n)\). Zu testen ist \(H_0\colon \mu \le \mu _0\) vs. \(H_1\colon \mu > \mu _0\). Für die Dichte \(p(\cdot , \mu )\) von \(X\) gilt
\(\ln p(x, \mu ) = -\frac {1}{2\sigma ^2} \sum _{i=1}^n (x_i - \mu )^2 - \frac {n}{2} \ln (2\pi \sigma ^2) = c(\mu ) T(x) - \frac {n}{2} \left (\frac {\mu ^2}{\sigma ^2} + \ln (2\pi \sigma ^2)\right ) - \frac {n\overline {x}}{2\sigma ^2}\)
mit \(T(x) := \frac {\overline {x}}{\sigma /\sqrt {n}}\) und \(c(\mu ) := \frac {\mu }{\sigma /\sqrt {n}}\). Also gehört die Verteilung von \(X\) zu einer \(1\)-parametrigen Exponentialfamilie. \(c\colon \real \rightarrow \real \) ist streng monoton wachsend, d. h. \(\P \) besitzt nach obiger Bemerkung einen monotonen Dichtequotienten bzgl. \(T\).

Wegen \(\PP _\mu (T(X) = c) = 0\) für alle \(c \in \real \) kann \(\gamma \) beliebig gewählt werden, z. B. \(\gamma = 1\). Der nicht-randomisierte Test \(\delta (x) := \1_{\{T(X) \ge c\}}\) aus dem Satz hat die Gütefunktion
\(G_\delta (\mu ) = \EE _\mu (\delta (X)) = \PP _\mu (\delta (X) = 1) = \PP _\mu \!\left (\frac {\overline {X}}{\sigma /\sqrt {n}} \ge c\right ) = \PP _\mu \!\left (\frac {\overline {X} - \mu }{\sigma /\sqrt {n}} \ge c - \frac {\mu }{\sigma /\sqrt {n}}\right )\)
\(= 1 - \Phi \!\left (c - \frac {\mu }{\sigma /\sqrt {n}}\right )\). Für einen Level-\(\alpha \)-Test muss
\(\sup _{\mu \le \mu _0} G_\delta (\mu ) = \sup _{\mu \le \mu _0} \left [1 - \Phi \!\left (c - \frac {\mu }{\sigma /\sqrt {n}}\right )\right ] \overset {!}{=} \alpha \) gelten. Der Ausdruck in eckigen Klammern ist monoton wachsend in \(\mu \), daher ist dies äquivalent zu
\(1 - \Phi \!\left (c - \frac {\mu _0}{\sigma /\sqrt {n}}\right ) = \alpha \iff \Phi \!\left (c - \frac {\mu _0}{\sigma /\sqrt {n}}\right ) = 1 - \alpha \iff c = z_{1-\alpha } + \frac {\mu _0}{\sigma /\sqrt {n}}\).

Nach dem Satz ist daher \(\delta (X) = \1_{\left \{\frac {\overline {X} - \mu _0} {\sigma /\sqrt {n}} \,\ge \, z_{1-\alpha }\right \}}\) ein UMP-Test für \(H_0\colon \mu \le \mu _0\) vs. \(H_1\colon \mu > \mu _0\) (einseitiger Gauß-Test).

Optimale zweiseitige Tests

Bemerkung: Im Folgenden werden verschiedene Arten von zweiseitigen Hypothesen betrachtet:

  • \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta \not = \theta _0\)

  • \(H_0\colon \theta \in [\theta _1, \theta _2]\) vs. \(H_1\colon \theta \notin [\theta _1, \theta _2]\)

  • \(H_0\colon \theta \notin (\theta _1, \theta _2)\) vs. \(H_1\colon \theta \in (\theta _1, \theta _2)\)

UMP-Tests zu diesen Hypothesen existieren nur unter speziellen Bedingungen.

Beispiel: Seien wieder \(X_1, \dotsc , X_n \sim \N (\mu , \sigma ^2)\) i.i.d. mit \(\mu \) unbekannt und \(\sigma ^2\) bekannt. Das Testproblem sei \(H_0\colon \mu = \mu _0\) vs. \(H_1\colon \mu \not = \mu _0\).
Dann ist der zweiseitige Gauß-Test \(\delta (X) := \1_{\{|T(X)| \ge z_{1-\alpha /2}\}}\) zum Niveau \(\alpha \) mit \(T(X) := \frac {\overline {X} - \mu _0}{\sigma /\sqrt {n}}\) kein UMP-Test für dieses Testproblem, da die Gütefunktion des Neyman-Pearson-Tests für \(H_0\colon \mu = \mu _0\) vs. \(H_1\colon \mu = \mu _1\) für ein beliebiges (aber festes) \(\mu _1 > \mu _0\) für \(\mu = \mu _1\) größer ist.
Alternativ kann man auch argumentieren, dass die Gütefunktion des einseitigen Gauß-Tests für \(H_0\colon \mu \le \mu _0\) vs. \(H_1\colon \mu > \mu _0\) für alle \(\mu > \mu _0\) besser ist als die des zweiseitigen Gauß-Tests. Jedoch ist der einseitige Gauß-Test zum zweiseitigen Testproblem ein verfälschter Test, da für \(\mu < \mu _0\) (Spezialfall der Alternativhypothese) die Wahrscheinlichkeit \(H_0\) abzulehnen kleiner ist als die Wahrscheinlichkeit \(H_0\) abzulehnen, wenn \(H_0\) wahr ist (also die Fehlerw.keit 1. Art).

unverfälscht: 
Ein statistischer Hypothesentest \(\delta \) zum Niveau \(\alpha \) heißt unverfälscht, falls \(\forall _{\theta \in \Theta _1}\; G_\delta (\theta ) \ge \alpha \).

Bemerkung: Für spezielle \(1\)-parametrige Exponentialfamilien mit monotonem Dichtequotienten können unter gewissen weiteren Regularitätsvoraussetzungen gleichmäßig beste Tests (unter allen unverfälschten Tests) konstruiert werden.

Diese hier angesprochenen Tests erhält man auch als Kombination zweier einseitiger Tests. Im Folgenden seien die Annahmen des Satzes zu optimalen einseitigen Tests erfüllt.

  • Bestimme die Konstanten \(\gamma _r\) und \(c_r\) zum rechtsseitigen Testproblem
    \(H_0\colon \theta \le \theta _0\) vs. \(H_1\colon \theta > \theta _0\).

  • Bestimme die Konstanten \(\gamma _\ell \) und \(c_\ell \) zum linksseitigen Testproblem
    \(H_0\colon \theta \ge \theta _0\) vs. \(H_1\colon \theta < \theta _0\).

Dadurch erhält man zwei UMP-Tests \(\delta _\ell (x) := \begin {cases}0 & T(x) > c_\ell ,\\ \gamma _\ell & T(x) = c_\ell ,\\1 & T(x) < c_\ell ,\end {cases}\) und \(\delta _r(x) := \begin {cases}0 & T(x) < c_r,\\ \gamma _r & T(x) = c_r,\\1 & T(x) > c_r,\end {cases}\)
Falls \(\alpha < 1\) ist, so gilt stets \(c_\ell \le c_r\). Für \(c_\ell < c_r\) können \(\delta _\ell \) und \(\delta _r\) zu einem einzigen Test kombiniert werden: \(\delta (x) := \begin {cases}0 & T(x) \in (c_\ell , c_r),\\ \gamma _\ell & T(x) = c_\ell ,\\\gamma _r & T(x) = c_r,\\ 1 & T(x) \notin [c_\ell , c_r].\end {cases}\)
Man kann zeigen, dass dies ein UMP-Test unter allen unverfälschten Tests zum Niveau \(\alpha \) für das zweiseitige Testproblem \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta \not = \theta _0\) ist.

Likelihood-Quotienten-Tests

Bemerkung: Das Ziel ist die Verallgemeinerung der Neyman-Pearson-Teststatistik \(L(x, \theta _0, \theta _1)\) für das Testproblem \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta = \theta _1\) auf allgemeine Testprobleme der Form
\(H_0\colon \theta \in \Theta _0\) vs. \(H_1\colon \theta \in \Theta _1\).

verallgemeinerte Likelihood-Quotienten-Statistik: 
Sei \(\P = \{p(\cdot , \theta ) \;|\; \theta \in \Theta \}\) ein reguläres statistisches Modell.
Dann heißt \(L(X) := \frac {\sup _{\theta \in \Theta _1} p(X, \theta )} {\sup _{\theta \in \Theta _0} p(X, \theta )}\) verallgemeinerte Likelihood-Quotienten-Statistik.

verallgemeinerter Likelihood-Quotienten-Test:  Der Hypothesentest \(\delta (X) := \1_{\{L(X) \ge c\}}\)
heißt verallgemeinerter Likelihood-Quotienten-Test zu einem kritischen Wert \(c \in [0, \infty ]\).

Bemerkung: Der Zähler der verallg. L.-Q.-Statistik ist häufig schwer zu berechnen. Daher geht man in der Praxis häufig wie folgt vor:

  • Berechne den MLS \(\widehat {\theta }\) von \(\theta \in \Theta \).

  • Berechne den MLS \(\widehat {\theta }_0\) von \(\theta \in \Theta _0\).

  • Berechne \(\lambda (x) := \frac {p(x, \widehat {\theta })}{p(x, \widehat {\theta }_0)} = \frac {\sup _{\theta \in \Theta } p(x, \theta )}{\sup _{\theta \in \Theta _0} p(x, \theta )}\) (leichter zu berechnender Zähler).

  • Finde eine strikt monotone Funktion \(h\) auf dem Bild von \(\lambda \), sodass die Verteilung von \(h(\lambda (X))\) unter \(H_0\) bekannt ist.

Dadurch erhält man einen verallg. L.-Q.-Test der Form \(\delta (X) := \1_{\{h(\lambda (X)) \ge h_{1-\alpha }\}}\) mit \(h_{1-\alpha }\) dem \((1-\alpha )\)-Quantil der Verteilung von \(h(\lambda (X))\) unter \(H_0\). Der Zusammenhang zwischen \(\lambda \) und \(L\) wird durch \(\lambda (x) = \frac {\max \{\sup _{\theta \in \Theta _1} p(x, \theta ),\; \sup _{\theta \in \Theta _0} p(x, \theta )\}}{\sup _{\theta \in \Theta _0} p(x, \theta )} = \max \{L(x), 1\}\) ersichtlich. Wenn \(\lambda (x)\) bzw. \(L(x)\) „deutlich“ größer als \(1\) ist, so spricht dies eher gegen \(H_0\).

Bemerkung: Basierend auf der Dualität zwischen Hypothesentests und Konfidenzintervallen lassen sich Konfidenzbereiche für den unbekannten Parameter \(\theta \in \Theta \subset \real ^d\) konstruieren.
Man betrachtet dazu das Testproblem \(H_0\colon \theta = \theta _0\) vs. \(H_1\colon \theta \not = \theta _0\). Bestimme \(c(\theta _0)\) durch \(\alpha = \PP _{\theta _0}\!\left (\frac {\sup _{\theta \in \Theta } p(X, \theta )}{p(X, \theta _0)} \ge c(\theta _0)\right ) = \PP _{\theta _0}(\lambda (X) \ge c(\theta _0))\).
Falls der Annahmebereich \(C(x) := \left \{\theta \in \Theta \;|\; p(x, \theta ) > \frac {\sup _{\theta \in \Theta } p(x, \theta )}{c(\theta _0)}\right \}\) des verallg. L.-Q.-Tests
\(\delta (X) := \1_{\{\lambda (X) \ge c(\theta _0)\}}\) in der Form \([\underline {C}_1(x), \overline {C}_1(x)] \times \dotsb \times [\underline {C}_d(x), \overline {C}_d(x)]\) geschrieben werden kann, so ist \(C(x)\) ein \((1-\alpha )\)-Konfidenzbereich für den unbekannten Parameter \(\theta \in \Theta \).

Beispiel: Seien \(X_1, \dotsc , X_n \sim \N (\mu , \sigma ^2)\) i.i.d. mit \(\theta = (\mu , \sigma ^2) \in \Theta := \real \times \real ^+\) unbekannt. Das zu testende Hypothesenpaar lautet \(H_0\colon \mu = \mu _0\) vs. \(H_1\colon \mu \not = \mu _0\), also \(\Theta _0 := \{(\mu _0, \sigma ^2) \;|\; \sigma ^2 \in \real ^+\}\) und \(\Theta _1 := \Theta \setminus \Theta _0\). Die Dichte von \(X := (X_1, \dotsc , X_n)\) ist gleich
\(p(x, \theta ) = \prod _{i=1}^n \frac {1}{\sqrt {2\pi \sigma ^2}} \exp \!\left (-\frac {(x_i - \mu )^2}{2\sigma ^2}\right ) = \frac {1}{(2\pi \sigma ^2)^{n/2}} \exp \!\left (-\frac {1}{2\sigma ^2} \sum _{i=1}^n (x_i - \mu )^2\right )\).
Man berechnet nun den MLS \(\widehat {\theta } := (\overline {X}, \widehat {\sigma }^2)\) für \(\theta \in \Theta \), wobei \(\widehat {\sigma }^2 := \frac {n-1}{n} S^2(X)\) die unkorrigierte Stichprobenvarianz ist. Für \(\mu = \mu _0\) ergibt sich als MLS für \(\sigma ^2\) der Schätzer \(\widehat {\sigma }_0^2 := {S^\ast }^2(X) = \frac {1}{n} \sum _{i=1}^n (X_i - \mu _0)^2\), also ist \(\widehat {\theta }_0 := (\mu _0, \widehat {\sigma }_0^2)\) der MLS für \(\theta \in \Theta _0\).

Somit erhält man den verallg. L.-Q.-Test \(\delta (X) = \1_{\{h(\lambda (X)) \ge h_{1-\alpha }\}}\) mit \(\lambda (x) := \frac {p(x, \widehat {\theta })}{p(x, \widehat {\theta }_0)}\).
Also gilt \(\ln \lambda (x) = \ln p(x, \widehat {\theta }) - \ln p(x, \widehat {\theta }_0)\)
\(= -\frac {1}{2\widehat {\sigma }^2} \sum _{i=1}^n (x_i - \overline {x})^2 - \frac {n}{2} \ln (2\pi \widehat {\sigma }^2) + \frac {1}{2\widehat {\sigma }_0^2} \sum _{i=1}^n (x_i - \mu _0)^2 - \frac {n}{2} \ln (2\pi \widehat {\sigma }_0^2) = \frac {n}{2} \ln (\widehat {\sigma }_0^2/\widehat {\sigma }^2)\).
Wegen der strengen Monotonie von \(\ln \) kann der Test auch durch \(\delta (X) = \1_{\{\widehat {\sigma }_0^2(X)/\widehat {\sigma }^2(X) > c\}}\) definiert werden, wobei der kritische Wert \(c\) so gewählt wird, dass das vorgegebene Niveau \(\alpha \) eingehalten wird.

Zur Bestimmung der Verteilung von \(\widehat {\sigma }_0^2/\widehat {\sigma }^2\) berechnet man \(\widehat {\sigma }_0^2/\widehat {\sigma }^2 = \frac {\widehat {\sigma }^2 + (\overline {X} - \mu _0)^2}{\widehat {\sigma }^2} = 1 + \frac {(\overline {X} - \mu _0)^2}{\widehat {\sigma }^2}\)
\(= 1 + \frac {1}{n-1} T(X)^2\) mit \(T(X) := \frac {\overline {X} - \mu _0}{S(X)/\sqrt {n}} \sim t_{n-1}\) unter \(H_0\colon \mu = \mu _0\). Damit ist \(\delta \) äquivalent zu einem Test \(\widetilde {\delta }(X) := \1_{\{|T(X)| > \widetilde {c}\}}\) mit \(\widetilde {c} := t_{n-1,1-\alpha /2}\).

Die Gütefunktion berechnet sich zu \(G_{\widetilde {\delta }}(\theta ) = \EE _\theta (\widetilde {\delta }(X)) = \PP _\theta (|T(X)| > t_{n-1,1-\alpha /2})\)
\(= \PP _\theta \!\left (\left |\frac {\overline {X} - \mu }{S(X)/\sqrt {n}} + \frac {\mu - \mu _0}{S(X)/\sqrt {n}}\right | > t_{n-1,1-\alpha /2}\right )\), denn \(T(X)\) besitzt eine nicht-zentrale \(t\)-Verteilung mit Nichtzentralitätsparameter \(\Delta = \Delta (\theta ) = \frac {\mu - \mu _0}{\sigma /\sqrt {n}}\).

Der Annahmebereich \(C(X)\) des Tests \(\widetilde {\delta }\) ist ein \((1-\alpha )\)-Konfidenzintervall für \(\mu \), dabei gilt \(C(X) = \{\mu \in \real \;|\; |T(X)| \le t_{n-1,1-\alpha /2}\} = \overline {X} \pm \frac {S(X)}{\sqrt {n}} t_{n-1,1-\alpha /2}\).