.Umfassendes Einführungsbeispiel zur Wahrscheinlichkeitsrechnung

 

2 Würfel werden in einem Laplaceexperiment geworfen (die Wahrscheinlichkeit für jede Augenzahl sei gleich).

D.h. die Ergebnismenge ist \Omega  = \left\{ {1,2,3,4,5,6} \right\}^2

X sei die Anzahl der Einsen und Y die Anzahl der ungeraden Zahlen, welche beim Würfeln mit 2 Würfeln vorkommen, also mathematisch ausgedrückt:

X:\Omega  \to \mathbb{R}\quad ,\quad X\left( {\omega _1 ,\omega _2 } \right) = \left| {\left\{ {i \in \left\{ {1,2} \right\}|\omega _i  = 1} \right\}} \right|

Y:\Omega  \to \mathbb{R}\quad ,\quad Y\left( {\omega _1 ,\omega _2 } \right) = \left| {\left\{ {i \in \left\{ {1,2} \right\}|\omega _i  = 1 \cup \omega _i  = 3 \cup \omega _i  = 5} \right\}} \right|

In Worten: Y bildet von der Ergebnismenge in die Menge der reellen Zahlen ab (und ist somit ein Funktional). Y von den beiden Würfen \omega _1 ,\omega _2 ist der Betrag (die Anzahl) der Elemente, die nach den beiden Würfen den Ergebnisse 1, 3 oder 5 entsprechen.

Somit können X und Y also nur die Werte 0, 1, oder 2 annehmen.


Wahrscheinlichkeitsfunktion:

Gesucht wird nun eine Wahrscheinlichkeitsfunktion von Z = \left( {X,Y} \right) mit Z \in T: = \left\{ {0,1,2} \right\}^2

T bezeichnet einen Träger, also eine höchstens abzählbare Menge mit P\left( {X \in T} \right) = 1welcher in diesem Fall \left\{ {0,1,2} \right\}^2 ist, da andere Werte nicht vorkommen können.

Die Funktion besitzt dann folgende Form:

f\left( {x,y} \right) = P\left( {X = x,Y = y} \right)\quad \forall \left( {x,y} \right) \in \left\{ {0,1,2} \right\}^2

Nun berechnen wir die Werte für jedes der möglichen Ereignisse

f(0,0) bedeutet, beim Würfeln kommt keine 1 und keine ungerade Zahl vor. Somit bleiben nur die Zahlen 2, 4, 6 übrig. Da wir mit 2 unabhängigen Würfeln werfen werden die Wahrscheinlichkeiten multipliziert:

f\left( {0,0} \right) = \frac{3} {6} \cdot \frac{3} {6} = \frac{1} {4}

f(0,1) bedeutet, beim Würfeln kommen keine 1 und genau eine ungerade Zahl vor. Das heißt, z.B. beim ersten Wurf eine 2, 4 oder 6 und beim zweiten Wurf eine 3 oder 5. Da es aber auch genau anders herum passieren kann, muss die Wahrscheinlichkeit zusätzlich noch mit 2 multipliziert werden:

f\left( {0,1} \right) = \frac{3} {6} \cdot \frac{2} {6} \cdot 2 = \frac{1} {3}

Bei f(0,2) muss beide Male eine 3 oder 5 gewürfelt werden:

f\left( {0,2} \right) = \frac{2} {6} \cdot \frac{2} {6} = \frac{1} {9}

Die Wahrscheinlichkeit dafür, dass eine 1, aber keine ungerade Zahl geworfen wird, ist 0. Da die 1 selbst eine ungerade Zahl ist, ist dieses Ereignis unmöglich:

f\left( {1,0} \right) = 0

f\left( {1,1} \right) = \frac{1} {6} \cdot \frac{3} {6} \cdot 2 = \frac{1} {6}

f\left( {1,2} \right) = \frac{1} {6} \cdot \frac{2} {6} \cdot 2 = \frac{1} {9}

f\left( {2,0} \right) = 0

f\left( {2,1} \right) = 0

f\left( {2,2} \right) = \frac{1} {6} \cdot \frac{1} {6} = \frac{1} {{36}}

Als Tabelle dargestellt sieht f also so aus:

\begin{array}{*{20}c}    {X\backslash Y} &\vline &  0 &\vline &  1 &\vline &  2 &\vline &  {f_x }  \\ \hline    0 &\vline &  {\frac{1} {4}} &\vline &  {\frac{1} {3}} &\vline &  {\frac{1} {9}} &\vline &  {\frac{{25}} {{36}}}  \\ \hline    1 &\vline &  0 &\vline &  {\frac{1} {6}} &\vline &  {\frac{1} {9}} &\vline &  {\frac{5} {{18}}}  \\ \hline    2 &\vline &  0 &\vline &  0 &\vline &  {\frac{1} {{36}}} &\vline &  {\frac{1} {{36}}}  \\ \hline    {f_y } &\vline &  {\frac{1} {4}} &\vline &  {\frac{1} {2}} &\vline &  {\frac{1} {4}} &\vline &  1  \\   \end{array}

In der Spalte fx stehen die addierten Wahrscheinlichkeiten für die Anzahl der Einsen. So liegt (unabhängig von der Wahrscheinlichkeit für eine ungerade Zahl) die Wahrscheinlichkeit dafür, dass kein Mal eine 1 gewürfelt wird bei \frac{1} {4}+\frac{1} {3}+\frac{1} {9} = \frac{5} {6} \cdot \frac{5} {6} = \frac{{25}} {{36}}

Die Wahrscheinlichkeit dafür, dass genau ein mal eine Eins geworfen wird, beträgt \frac{1} {6}+\frac{1} {9} = \frac{1} {6} \cdot \frac{5} {6} \cdot 2 = \frac{5} {{18}}. Hier musste wieder mit 2 multipliziert werden, da die “1″ sowohl beim ersten, als auch beim zweiten Würfel auftreten kann.

Erwartungswert:
Der Erwartungswert E\left( X \right) einer Zufallsvariablen (X) ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen eines Zufallsexperiments als Mittelwert der Ergebnisse ergibt. Er muss selbst aber nicht unbedingt Ergebnis des Experimentes sein.

Der Erwartungswert lässt sich im stetigen Fall berechnen mit: \int {x\:f\left( x \right)dx}
und im diskreten Fall (wie wir ihn hier vorliegen haben) mit: \sum\limits_{x \in T} {x\:f\left( x \right)}

Somit erhalten wir für die mittlere Anzahl der Einsen beim Wurf von 2 Würfeln:

E\left( X \right) = \sum\limits_x {x\:f_x \left( x \right)}  = 0 \cdot \frac{{25}} {{36}}+1 \cdot \frac{5} {{18}}+2 \cdot \frac{1} {{36}} = \frac{1} {3}

Und für die mittlere Anzahl der ungeraden Zahlen beim Wurf von 2 Würfeln:

E\left( Y \right) = 0 \cdot \frac{1} {4}+1 \cdot \frac{1} {2}+2 \cdot \frac{1} {4} = 1

(Es wird also im Schnitt beim Wurf von 2 Würfeln genau einer von beiden eine ungerade Zahl zeigen.)

Die Mittlere Anzahl der Ereignisse, bei denen wenigstens eine der beiden Bedingungen („1“ oder ungerade) erfüllt ist:

E\left( {XY} \right) = \sum\limits_{} {x\:y\:f\left( {x,y} \right) = 1 \cdot 1 \cdot \frac{1} {6}+1 \cdot 2 \cdot \frac{1} {9}+2 \cdot 2 \cdot \frac{1} {{36}} = \frac{1} {2}}

Varianz:
In der Stochastik ist die Varianz ein Streuungsmaß, also ein Maß für die zu erwartende Abweichung einer Zufallsvariable (X) von ihrem Erwartungswert E(X).

Sie berechnet sich zu:

\operatorname{var} \left( X \right): = E\left( {\left( {X-E\left( X \right)} \right)^2 } \right)\quad \left( { = \sigma ^2 \left( X \right)} \right)

und ist das sog. zweite zentrale Moment einer Zufallsvariable.

Mit dem Verschiebungssatz folgt daraus:

\operatorname{var} \left( X \right) = E\left( {X^2 } \right)-\left( {E\left( X \right)} \right)^2

Standardabweichung:

Die Quadratwurzel der Varianz heißt Standardabweichung:

\sigma \left( X \right) = \sqrt {\operatorname{var} \left( X \right)}

Sie kann bei einer Normalverteilungskurve an den Wendepunkten abgelesen werden. Dementsprechend hat in folgendem Graph die orange Kurve eine geringere Varianz als die grüne.

Grafik

In unserem Beispiel berechnet sich die Varianz also wie folgt:

Für X:

E\left( {X^2 } \right) = \sum\limits_x {x^2 \:f_x \left( x \right)}  = 1 \cdot \frac{5} {{18}}+4 \cdot \frac{1} {{36}} = \frac{7} {{18}}

\operatorname{var} \left( X \right) = E\left( {X^2 } \right)-\left( {E\left( X \right)} \right)^2  = \frac{7} {{18}}-\frac{1} {9} = \frac{5} {{18}}

Für Y:

E\left( {Y^2 } \right) = \sum\limits_y {y^2 \:f_y \left( y \right)}  = 1 \cdot \frac{1} {2}+4 \cdot \frac{1} {4} = \frac{3} {2}

\operatorname{var} \left( Y \right) = E\left( {Y^2 } \right)-\left( {E\left( Y \right)} \right)^2  = \frac{3} {2}-1 = \frac{1} {2}

Kovarianz:
Die Kovarianz ist eine Maßzahl für den Zusammenhang zweier statistischer Merkmale (X und Y). Sie ist positiv, wenn X und Y einen gleichsinnigen linearen Zusammenhang besitzen, negativ, wenn sie einen gegensinnigen linearen Zusammenhang besitzen, und 0, wenn kein (linearer) Zusammenhang vorherrscht:

  1. \operatorname{cov} \left( {X,Y} \right): = E\left[ {\left( {X-E\left( X \right)} \right)\left( {Y-E\left( Y \right)} \right)} \right] = E\left( {XY} \right)-E\left( X \right)E\left( Y \right)
  2. Die Kovarianz ist eine symmetrische Bilinearform, d.h.:

    \operatorname{cov} \left( {X,Y} \right) = \operatorname{cov} \left( {Y,X} \right)

    \operatorname{cov} \left( {aX,Y} \right) = a\operatorname{cov} \left( {X,Y} \right)

    \operatorname{cov} \left( {X+Y,Z} \right) = \operatorname{cov} \left( {X,Z} \right)+\operatorname{cov} \left( {Y,Z} \right)

  3. X,Yunabhängig \Rightarrow X,Y unkorreliert
  4. Ungleichung von Cauchy-Schwarz:

    \operatorname{cov} \left( {X,Y} \right)^2  \leq \operatorname{var} \left( X \right) \cdot \operatorname{var} \left( Y \right)

Des Weiteren ist die Kovarianz eine Verallgemeinerung der Varianz, da gilt:

\operatorname{Var} (X) = \operatorname{Cov} (X,X)

In unserem Beispiel müsste die Kovarianz also positiv sein, da 1 eine ungerade Zahl ist und somit beim Vorkommen einer ungeraden Zahl die Wahrscheinlichkeit steigt, dass dieses die 1 sein könnte.

Rechnerisch ergibt sich:
\operatorname{cov} \left( {X,Y} \right) = E\left( {XY} \right)-E\left( X \right)E\left( Y \right) = \frac{1} {2}-\frac{1} {3} \cdot 1 = \frac{1} {6}\quad  \Rightarrow X, Y nicht ganz unabhängig.

Kovarianzmatrix:
Sei X_1 , \ldots ,X_n  \in \mathcal{L}^2 ,\quad Z = \left( {X_1 , \ldots ,X_n } \right)^T (n-dim. Zufallsvektor).

Dann lautet die Kovarianzmatrix von Z:

C\left( Z \right): = \left( {\operatorname{cov} \left( {X_i ,X_j } \right)} \right)_{i,j = 1, \ldots ,n}

Die Kovarianzmatrix enthält somit die Informationen über die Streuung eines Zufallsvektors und über Korrelationen zwischen dessen Komponenten.

Die Kovarianzmatrix in unserem Beispiel lautet somit:

C\left( Z \right) = \left( {\begin{array}{*{20}c}    {\operatorname{cov} \left( {X,X} \right)} & {\operatorname{cov} \left( {X,Y} \right)}  \\    {\operatorname{cov} \left( {Y,X} \right)} & {\operatorname{cov} \left( {Y,Y} \right)}  \\   \end{array} } \right) = \left( {\begin{array}{*{20}c}    {\operatorname{var} \left( X \right)} & {\operatorname{cov} \left( {X,Y} \right)}  \\    {\operatorname{cov} \left( {Y,X} \right)} & {\operatorname{var} \left( Y \right)}  \\   \end{array} } \right) = \left( {\begin{array}{*{20}c}    {\frac{5} {{18}}} & {\frac{1} {6}}  \\    {\frac{1} {6}} & {\frac{1} {2}}  \\   \end{array} } \right)

Korrelationskoeffizient:
Darunter Versteht man das normierte Maß der Kovarianz, dessen Maßzahl sich im Intervall [-1,1] bewegt:

\rho \left( {X,Y} \right): = \frac{{\operatorname{cov} \left( {X,Y} \right)}} {{\sqrt {\operatorname{var} \left( X \right)}  \cdot \sqrt {\operatorname{var} \left( Y \right)} }}

Für unser Beispiel ergibt sich:

\rho \left( {X,Y} \right) = \frac{{\frac{1} {6}}} {{\sqrt {\frac{5} {{18}} \cdot \frac{1} {2}} }} = \frac{1} {{\sqrt 5 }}

——
\mathcal{J}\mathcal{K}