Skip to Tutorial Content

Unabhängigkeit

Ein wichtiges Grundkonzept von zufälligen Ereignissen ist die Unabhängigkeit, dass also dass Eintreten eines Ereignisses \(A\) nicht das Eintreten eines anderen Ereignisses \(B\) beeinflußt.

Interessanter ist in der Regel die Abhängigkeit von Ereignissen. In diesem Fall ändert sich die Wahrscheinlichkeit für das Eintreten von \(B\) durch das Eintreten von \(A\). Bayesianisch betrachtet gewinnen wir durch das Eintreten von \(A\) Information über das Eintreten von \(B\).

Stochastische Unabhängigkeit

Zwei Ereignisse heißen stochastisch unabhängig, wenn gilt

\[ P(A\cap B)=P(A)\cdot P(B) \]

Dabei meint \(A\cap B\), dass beide Ereignisse eintreten.

Zwei Zufallsvariablen heißen stochastisch unabhängig, wenn gilt

\[ P(X=x, Y=y) =P(X=x)\cdot P(Y=y) \]

für alle möglichen Werte von \(x\) und \(y\). Dabei meint “\(X=x, Y=y\)”, dass beide Ereignisse eintreten, also das \(X\) den Wert \(x\) annimmt und \(Y\) den Wert \(y\).

Beispiel: Fairer Würfel

Sei A: “Es fällt eine 5 oder 6”, B: “Es fällt eine gerade Zahl”. Dann ist \(A\cap B\): “Es fällt eine 6”. Es gilt

\[ P(A)\cdot P(B) = \frac{1}{3} \cdot \frac{1}{2} = \frac{1}{6} = P(A\cap B) \]

Die beiden Ereignisse sind also voneinander unabhängig!

Wir nennen

  • \(P(A\cap B)\) gemeinsame Wahrscheinlichkeit
  • \(P(A)\) bzw. \(P(B)\) Rand- oder marginale Wahrscheinlichkeit

Bedingte Wahrscheinlichkeit

Ist dagegen \(A\) von \(B\) abhängig, ändert das Eintreten von \(B\) die Wahrscheinlichkeit für das Eintreten von \(A\). Wir können dann die bedingte Wahrscheinlichkeit \(P(A|B)\) für das Eintreten eines Ereignisses \(A\) unter der Bedingung, das ein Ereignis \(B\) eingetreten ist, definieren.

Definition

Wir nennen

\[ P (A|B) := \frac{P(A\cap B)}{P(B)} \]

bedingte Wahrscheinlichkeit von \(A\) gegeben \(B\). \(P(B)\) heißt Rand- oder marginale Wahrscheinlichkeit von \(B\).

Beispiel: Fairer Würfel

Sei A: “Es fällt eine 4, 5 oder 6”, B: “Es fällt eine gerade Zahl”. Dann ist

\[ P(A|B)=\frac{P(A\cap B)}{P(B)}=\frac{P(\{4,6\})}{P(\{2,4,6\})}=\frac{2}{3} \]

Unabhängigkeit

Sind \(A\) und \(B\) unabhängig, gilt

\[ P (A|B) = \frac{P(A\cap B)}{P(B)} = \frac{P(A)P(B)}{P(B)}=P(A) \] Unter Unabhängigkeit verändert sich die Wahrscheinlichkeit von \(A\) nicht, egal ob \(B\) eintritt oder nicht.

Satz von Bayes

Aus der Definition der bedingten Wahrscheinlichkeit \(P (A|B) = \frac{P(A\cap B)}{P(B)}\) ergeben sich folgende Zusammenhänge:

\[ \begin{eqnarray*} P(A\cap B) &=& P(A|B)P(B)\\ P(A\cap B) &=& P(B|A)P(A)\\ \Rightarrow P(A|B)P(B) &=& P(B|A)P(A) \end{eqnarray*} \]

Satz von Bayes

Daraus folgt direkt der für uns zentrale Satz von Bayes:

\[ P(A|B) = \frac{P(B|A)P(A)}{P(B)} \]

Satz von der totalen Wahrscheinlichkeit

\(P(B)\) können wir dabei mit dem Satz von der totalen Wahrscheinlichkeit berechnen:

\[ P(B) = P(B\cap A) + P(B\cap\bar{A}) = P(B|A) P(A) + P(B|\bar{A})P(\bar{A}) \]

Wir erhalten eine weitere Version des Satzes von Bayes:

\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B|A)P(A)+P(B|\overline{A})P(\overline{A})} \]

Beispiel: unfairer Würfel?

Als erstes Beispiel überlegen wir uns folgende Situation. Ein Bekannter von Ihnen besitzt zwei identische aussehende Würfel. Einer davon ist fair, einer Würfel immer die 6. Der Bekannte würfelt mit einem der beiden Würfel, es fällt die sechs. Ist das nun der unfaire Würfel?

Wir definieren uns folgende Ereignisse und Wahrscheinlichkeiten:

  • Ereignis \(A\): Der Würfel ist fair.
  • Ereignis \(B\): Eine 6 fällt".

Die Wahrscheinlichkeit von \(B\) hängt von \(A\) ab!

\[\begin{array}{lll} A: & \text{Würfel ist fair;} & \to P(B|A)=1/6\\ \bar{A}: & \text{Würfel ist unfair;} & \to P(B|\bar{A})=1 \end{array}\]

Nach Laplace gehen wir außerdem von \(P(A)=P(\bar{A})=1/2\) aus; sprich: der Bekannte hat zufällig einen Würfel ausgewählt. (Das ist eine Vorannahme oder Vorwissen. Sie kennen den Bekannten besser, können diese Wahrscheinlichkeit vielleicht besser einschätzen!)

Anwendung des Satz von Bayes

Dann gilt mit dem Satz von Bayes:

\[\begin{eqnarray*} P(A|B)&=&\frac{P(B|A)\cdot P(A)}{P(B|A)P(A)+P(B|\overline{A})P(\overline{A})}\\ &=&\frac{\frac{1}{6}\cdot\frac{1}{2}}{\frac{1}{6}\cdot\frac{1}{2}+1\cdot\frac{1}{2}}=\frac{1}{7}\\ P(A|\bar{B})&=&\frac{\frac{5}{6}\cdot\frac{1}{2}}{\frac{5}{6}\cdot\frac{1}{2}+0\cdot\frac{1}{2}}=1 \end{eqnarray*}\]

Weiter

Ursprünglich wurde für den Satz von Bayes der Begriff Inverse Wahrscheinlichkeit benutzt. Die bedingte Wahrscheinlichkeit wird hier nämlich invertiert: Aus \(P(B|A)\) berechnen wir \(P(A|B)\)!

Inverse Wahrscheinlichkeit