U04.4 – Maximum-Likelihood und Erwartungstreue

 

Es liegt das folgende statistische Modell vor: Stichprobenraum \Psi  = \mathbb{N}_0  = \left\{ {0,1,2, \ldots } \right\},
Parameterbereich \Theta  = \left\langle {0,1} \right\rangle  = \left] {0,1} \right[, für \vartheta  \in \Theta sei w_\vartheta die durch die W-Funktion

f_\vartheta  \left( x \right) = \left( {x+1} \right)\left( {1-\vartheta } \right)^x \vartheta ^2 \quad ,\quad x \in \mathbb{N}_0

bestimmte Wahrscheinlichkeitsverteilung auf \Psi.

a) Weisen Sie nach, das g:\Psi  \to \mathbb{R} gemäß g\left( x \right): = \frac{2} {{2+x}},\quad x \in \Psi die Maximum-Likelihood-Schätzfunktion für den unbekannten Parameter \vartheta ist.

b) Zeigen Sie, das h:\Psi  \to \mathbb{R} gemäß h\left( x \right): = \frac{1} {{1+x}},\quad x \in \Psi eine erwartungstreue
Schätzfunktion für \vartheta ist.

c) Zeigen Sie, dass h(0) = g(0) und h(x) < g(x) für alle x = 1, 2, 3, ..., und schließen Sie
daraus, dass E_\vartheta  \left( g \right) > \vartheta für alle \vartheta  \in \Theta ist.

Hinweis zu a): Log-Likelihood maximieren!

Lösung

a)

g\left( x \right): = \frac{2} {{2+x}}

\mathcal{L}\left( {x,\vartheta } \right): = \ln L\left( {x,\vartheta } \right) = \ln f_\vartheta  \left( x \right) = \ln \left[ {\left( {x+1} \right)\left( {1-\vartheta } \right)^x \vartheta ^2 } \right]

\Rightarrow \quad \mathcal{L}\left( {x,\vartheta } \right) = \ln \left( {x+1} \right)+x\ln \left( {1-\vartheta } \right)+2\ln \vartheta

Da wir die Wahrscheinlichkeit \vartheta maximieren (also das Maximum finden) wollen bilden wir die Ableitung nach \vartheta und setzen diese = 0.

\mathcal{L}\:^\prime  \left( {x,\vartheta } \right) = -\frac{x} {{1-\vartheta }}+\frac{2} {\vartheta } = 0

\frac{x} {{1-\vartheta }} = \frac{2} {\vartheta }

\vartheta x = 2-2\vartheta

\vartheta \left( {x+2} \right) = 2

\vartheta  = \frac{2} {{x+2}}

\Rightarrow \quad \frac{2} {{x+2}} = g\left( x \right) = Maximum-Likelihood

b)

h\left( x \right): = \frac{1} {{1+x}},\quad x \in \Psi

Erinnerung:

Ein Schätzer g(X) heißt erwartungstreu für ein Funktional \gamma (\vartheta ), wenn gilt:

E_\vartheta  [g(X)] = \gamma (\vartheta )\quad \forall \vartheta  \in \Theta

.

Erinnerung:
Für den Erwartungswert im diskreten Fall gilt: E\left( {g\left( x \right)} \right) = \sum\limits_{x \in T} {g\left( x \right)f\left( x \right)}

E_\vartheta  [h(x)] = \sum\limits_{x \in \Psi } {h\left( x \right)f\left( x \right)}  = \sum\limits_{x = 0}^\infty  {\frac{1} {{1+x}}\left( {x+1} \right)\left( {1-\vartheta } \right)^x \vartheta ^2 }  = \vartheta ^2 \sum\limits_{x = 0}^\infty  {\left( {1-\vartheta } \right)^x }

wegen \vartheta  \in \Theta  = \left\langle {0,1} \right\rangle handelt es sich hierbei um eine geometrische Reihe

Erinnerung:

Die geometrische Reihe \sum\nolimits_n {x^n } konvergiert auf ]-1,1[ bekanntlich punktweise gegen \frac{1} {{1-x}}.

Damit gilt also:

E_\vartheta  [h(x)] = \vartheta ^2 \sum\limits_{x = 0}^\infty  {\left( {1-\vartheta } \right)^x }  = \vartheta ^2 \frac{1} {{1-\left( {1-\vartheta } \right)}} = \vartheta

\Rightarrow \quad E_\vartheta  [h(x)] = \vartheta

Damit ist h also eine erwartungstreue Schätzfunktion für \vartheta.

q.e.d.

c)

Die erste Behauptung gilt, da:

h\left( 0 \right) = \frac{1} {{1+0}} = 1 = \frac{2} {{2+0}} = g\left( 0 \right)

Auch die zweite Behauptung gilt, da:

h\left( x \right) < g\left( x \right)

\Rightarrow \quad \frac{1} {{1+x}} < \frac{2} {{2+x}}

\Rightarrow \quad 2+x < 2+2x

\Rightarrow \quad x < 2x

\Rightarrow \quad \underline{\underline {0 < x}}

Wenn gilt g > h, dann wird auch die Summe und somit der Erwartungswert größer:

\Rightarrow \quad E_\vartheta  \left( g \right) > E_\vartheta  \left( h \right) = \vartheta

\mathcal{J}\mathcal{K}

Ähnliche Artikel

Kommentar verfassen