Skip to Tutorial Content

Beispiel

Ein einfaches Beispiel soll die Wirkungsweise des Satz von Bayes verdeutlichen:

Medizinischer Test

Ein medizinischer Test soll das vorliegen einer Krankheit feststellen. Solche Tests sind nicht ganz fehlerfrei, es kommt zu falsch positiven und falsch negativen Ergebnissen.

Wir definieren uns folgende Ereignisse:

  • A: Eine Person ist krank
  • B: Der Test zeigt ein positives Ergebnis

Der Test wird durchgeführt, wenn gewisse Symptome auftreten. Aus Erfahrung weiß man, dass 2% derjenigen, die den Test machen, wirklich die Krankheit haben. Bevor jemand den Test macht, nehmen wir also an, dass sie Wahrscheinlichkeit für \(A\) 2% ist. Wir nennen diese auch Priori-Wahrscheinlichkeit - Wahrscheinlichkeit vor der Beobachtung (lateinisch a priori, etwa ‘’von vorher’’):

  • \(P(A)=0.02\) (Wahrscheinlichkeit, die Krankheit zu haben)
  • \(P(\bar{A})=0.98\) (Wahrscheinlichkeit, die Krankheit nicht zu haben)

Liegt die Krankheit vor, zeigt der Test in 95% der Fälle ein (korrektes) positives Ergebnis, in 5% der Fälle ein (falsches) negatives Ergebnis:

  • \(P(B|A) = 0.95\) (korrekt positiv)
  • \(P(\bar{B}|A) = 0.05\) (falsch negativ)

Liegt keine Krankheit vor, zeigt der Test in 90% der Fälle ein (korrektes) negatives Ergebnis, in 10% der Fälle ein (falsches) positives Ergebnis:

  • \(P(\bar{B}|\bar{A}) = 0.9\) (korrekt negativ)
  • \(P(B|\bar{A}) = 0.1\) (falsch positiv)

Die Annahmen über die Wahrscheinlichkeit von \(B\) gegeben \(A\) nennen wir Modell-Annahmen. Ihnen liegt ein stochastisches Modell zugrunde, hier die Bernoulli-Verteilung (Binomial-Verteilung mit \(n=1\)).

Fragestellung

Frage: Wie groß ist die Wahrscheinlichkeit, krank zu sein, wenn der Test positiv ausfällt?

Wir nennen diese gesuchte Wahrscheinlichkeit die Posteriori-Wahrscheinlichkeit, von lateinisch a posteriori, etwa ‘’von nachher’’.

Für die Beantwortung dieser Frage brauchen wir den Satz von Bayes.

Der Satz von Bayes

Der Satz von Bayes ermöglicht es uns, die bedingte Wahrscheinlichkeit ‘’umzudrehen’’ (bis ins 20. Jahrhundert sprach man auch von inverser Wahrscheinlichkeit). Wir wissen die bedingte Wahrscheinlichkeit eines Ereignisses \(B\) gegeben das Ereignis \(A\) eingetreten ist. Daraus können wir schliessen, wie die Wahrscheinlichkeit des Ereignisses \(A\) gegeben das Ereignis \(B\) eingetreten ist.

Der Satz von Bayes lautet in der einfachsten Form

\[ P(A|B) = \frac{P(B|A)\cdot P(A)}{P(B)} \]

oder auch:

\[ \text{Posteriori}=\frac{\text{Bedingte Wahrscheinlichkeit d. Beobachtung}\cdot\text{Priori}}{\text{Marginale Wahrscheinlichkeit d. Beobachtung}} \]

Kennen wir \(P(B)\) nicht, so können wir die Wahrscheinlichkeit wie folgt über die bedingten Wahrscheinlichkeiten berechnen. Zusammengenommen lautet der Satz von Bayes dann

\[ P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B|A)P(A)+P(B|\overline{A})P(\overline{A})} \]

Medizinischer Test

Zurück zum Beispiel medizinischer Test. Unsere Frage war: Wie groß ist die Wahrscheinlichkeit, krank zu sein, wenn der Test positiv ausfällt?

Priori-Annahmen:

  • \(P(A)=0.02\) (Person ist krank)
  • \(P(\bar{A})=0.98\) (Person ist gesund)

Modell-Annahmen

  • \(P(B|A) = 0.95\) (richtig positiv)
  • \(P(\bar{B}|A) = 0.05\) (falsch negativ)
  • \(P(\bar{B}|\bar{A}) = 0.9\) (richtig negativ)
  • \(P(B|\bar{A}) = 0.1\) (falsch positiv)

Wir setzen die Priori-Wahrscheinlichkeit \(P(A)\) und die bedingten Wahrscheinlichkeiten \(P(B|A)\) und \(P(B|\bar{A})\) in den Satz von Bayes ein:

\[ \begin{eqnarray} P(A|B) &=& \frac{P(B|A) \cdot P(A)}{P(B|A)P(A)+P(B|\bar{A})P(\bar{A})}\\ &=& \frac{0.95\cdot 0.02}{0.95\cdot 0.02 + 0.1\cdot 0.98}\\ &=& \frac{0.019}{0.019+0.098} = 0.162\ldots \end{eqnarray} \]

Interpretation

Nach Beobachtung des positiven Testergebnisses ist also die Wahrscheinlichkeit, dass die Person krank ist etwa 16,2%. Aus unserer Priori-Wahrscheinlichkeit wurde durch die Beobachtung die Posteriori-Wahrscheinlichkeit.

Die Posteriori-Wahrscheinlichkeit \(P(A|B)\) ist hier relativ gering, weil schon die Priori-Wahrscheinlichkeit \(P(A)\) sehr gering war.

Auch der Effekt eines negativen Tests lässt sich berechnen:

\[ \begin{eqnarray} P(A|\bar{B}) &=& \frac{P(\bar{B}|A) \cdot P(A)}{P(\bar{B}|A)P(A)+P(\bar{B}|\bar{A})P(\bar{A})}\\ &=&\frac{0.05\cdot 0.02}{0.05\cdot 0.02 + 0.9\cdot 0.98}\\ &=&\frac{0.002}{0.001+0.882} = 0.00340\ldots \end{eqnarray} \]

Ist der Test also negativ, ist die Wahrscheinlichkeit, dass die Person krank ist, bei etwa 0,34%. Praktisch können wir in diesem Fall also mit großer Wahrscheinlichkeit ausschließen, dass die Person die Krankheit hat.

Zusammenspiel von Priori, Modell und Posteriori

Die Posteriori-Wahrscheinlichkeit hängt also von unseren zwei Arten von Annahmen ab:

  • Der Priori-Wahrscheinlichkeit(en)
  • Der bedingten Wahrscheinlichkeiten der Beobachtungen (Modell)

Im Folgenden können Sie für unser Beispiel das Zusamenspiel von Priori, Modell-Wahrscheinlichkeiten und der daraus resultierenden Posteriori-Wahrscheinlichkeiten selbst ausprobieren:



Wahrscheinlichkeit für positiven Test:

Wahrscheinlichkeit für Krankheit bei positivem Test:

Bemerkungen

  • Ist die Priori-Wahrscheinlichkeit (für \(A\)) gleich 0, dann ist auch die Posteriori-Wahrscheinlichkeit unabhängig vom Modell immer gleich 0 - wir schließen ja schon a priori aus, dass die Person krank ist.
  • Ist die Priori-Wahrscheinlichkeit gleich 1, dann ist auch die Posteriori-Wahrscheinlichkeit unabhängig vom Modell immer gleich 1 - wir sind ja schon a priori sicher, dass die Person krank ist.

  • Ist die Wahrscheinlichkeit für einen falsch positiven Test gleich 0, dann ist die Posteriori-Wahrscheinlichkeit bei positivem Test gleich 1
  • Ist die Wahrscheinlichkeit für den falsch positiven Test und die Wahrscheinlichkeit für einen richtig positiven Test jeweils gleich 0.5, dann ist die Posteriori-Wahrscheinlichkeit gleich der Priori-Wahrscheinlichkeit - der Test sagt dann ja nicht aus, das Testergebnis (\(B\)) ist stochastisch unabhängig von \(A\).

  • Mit größerer Priori-Wahrscheinlichkeit ist auch die Posteriori-Wahrscheinlichkeit größer - wir “glauben” ja schon vorher eher daran, dass die Person krank ist.
  • Bei positivem Testergebnis ist die Posteriori-Wahrscheinlichkeit größer (oder gleich) als die Priori-Wahrscheinlichkeit - die Beobachtung des Testergebnisses “drückt” die Wahrscheinlichkeit also in eine Richtung; wir lernen aus der Beobachtung
  • Analog ist bei negativem Testergebnis die Posteriori-Wahrscheinlichkeit kleiner (oder gleich) als die Priori-Wahrscheinlichkeit
  • Für “schlechte Test” (also geringe Wahrscheinlichkeit für richtig positiven Test oder hohe Wahrscheinlichkeit für falsch positive Tests) ist der Unterschied zwischen Priori- und Posteriori-Wahrscheinlichkeit geringer - wir lernen weniger aus der Beobachtung.

Weiter

Das Bayesianische Lernen vertiefen wir im nächsten Beispiel, in dem wir einen Frosch springen lassen.

Der Satz von Bayes