Skip to Tutorial Content

Wahrscheinlichkeit

Dieses Kapitel gibt eine kurze Einführung bzw. Wiederholung in die Theorie der Wahrscheinlichkeit.

Wir interessieren uns (vorerst) für zufällige Ergebnisse in einem Ergebnisraum \(\Omega\). Jedem Ereignis \(A\subseteq \Omega\) kann eine Wahrscheinlichkeit \(P(A)\) zugeordnet werden, für die die Axiome von Kolmogorov gelten:

  • \(0\leq P(A)\leq1\) (Wahrscheinlichkeiten liegen zwischen 0 und 1)
  • Für das das sichere Ereignis \(\Omega\) gilt: \(P(\Omega)=1\) (irgendein Ergebnis aus \(\Omega\) tritt sicher ein)
  • Für beliebige disjunkte (nicht überschneidene) Ereignisse \(A\) und \(B\) gilt \(P(A\cup B)=P(A)+P(B)\) (die Wahrscheinlichkeit, dass \(A\) oder \(B\) eintritt ist Summe der einzelnen Wahrscheinlichkeiten, wenn beide nicht gleichzeitig eintreten können)

Beispiel: Wir interessieren uns für das zufällige Ereignis Niederschlag am morgigen Tag. Unser Ergebnisraum sei:

\(\Omega=(\)“Es regnet”, “Es schneit”, “Es regnet und schneit nicht”)

Ein Ergebnis wäre dann zum Beispiel \(A=\)(“Es regnet”, “Es schneit”)=“Es gibt Niederschlag”. Aus den Axiomen von Komogorov folgt:

\(P(A)=P(\)“Es regnet”\()+P(\)“Es schneit”)

Folgerungen

Daraus folgt direkt:

  • Die Wahrscheinlichkeit für das unmögliche Ereignis \(\emptyset\) (leere Menge) ist: \(P(\emptyset)=0\)
  • Die Wahrscheinlichkeit des Gegenereignisses \(\overline{A}\) zu \(A\) (d.h. \(A\) tritt nicht ein) ist: \(P(\overline{A})=1-P(A)\)

Beispiel: Würfel

Wir werfen einen fairen sechsseitigen Würfel.

Die Annahme “fairer Würfel” entspricht dabei der Annahme, dass jede Seite die selbe Wahrscheinlichkeit hat. Zum Beispiel gilt für die Wahrscheinlichkeit des Ereignisses A: “Es fällt eine 6”

\[P(A) = \frac{\text{1}}{\text{6}}\]

Oder allgemein:

\[ P(A) = \frac{|A|}{|\Omega|} \]

wobei \(|A|\) die “Mächtigkeit” von \(A\), also die Anzahl der Element in \(A\) ist. Man nennt diese Definition einer Wahrscheinlichkeit auch Laplace-Wahrscheinlichkeit (nach Pierre-Simon Laplace - Link zur Wikipedia).

Odds

Alternativ lassen sich Wahrscheinlichkeiten auch als Odds oder Chance darstellen:

Definition

\[ \text{Odds}(A)=\frac{P(A)}{P(\overline{A})} \]

wobei \(\overline{A}\) das Gegenereignis zu \(A\) ist. Es gilt \(P(\overline{A})=1-P(A)\).

Ein Odds von 1 entspricht also einer Wahrscheinlichkeit von 50%.

Fortsetzung Beispiel: Würfel

Der Odds für \(A:\) “Der Würfel zeigt die Zahl 6” ist \[ \text{Odds}(A)=\frac{1/6}{5/6}=1:5 \]

Man kennt den Odds auch als Wettquote. Bei einer Wahrscheinlichkeit \(P(A)=1/6\) ist die Wettquote für das Eintreten von \(A\) dementsprechend \(5:1\). Wettet man auf \(A\), erhält man - neben dem Einsatz - das Fünffache des Einsatzes zurück, zusammen also das Sechsfache des Einsatzes.

Interpretation

Der mathematische Begriff Wahrscheinlichkeit kann dabei unterschiedlich interpretiert werden:

  • klassisch: Alle Elementarereignisse haben die selbe Wahrscheinlichkeit (Laplace-Wahrscheinlichkeit)
  • als relative Häufigkeit bei unendlicher Wiederholung (Frequentistischer Wahrscheinlichkeitsbegriff)
  • subjektiv als Maß für den Glauben an das Eintreten (Bayesscher Wahrscheinlichkeitsbegriff)
  • als Eigenschaft eines physikalischen Systems (z.B. Propensität nach Karl Popper)

Frequentistischer Wahrscheinlichkeitsbegriff

Die Frequentistische Interpretation basiert auf dem Gesetz der großen Zahlen:

Wiederholt man ein Experiment, bei dem das Ereignis \(A\) mit Wahrscheinlichkeit \(\pi\) eintritt, \(n\)-mal, dann nähert sich die relative Häufigkeit \(p=\frac{a_n}{n}\) mit steigendem \(n\) immer näher dem Wert \(\pi\) an. Dabei bezeichne \(a_n\) die Anzahl der Experimente, in denen \(A\) eingetreten ist.

Bayesscher Wahrscheinlichkeitsbegriff

Der Bayessche Wahrscheinlichkeitsbegriff ist subjektiv. Er versteht Wahrscheinlichkeit als Grad persönlicher Überzeugung, dass ein Ereignis eintritt.

Dieser Grad lässt sich z.B. dadurch messen, wieviel man darauf wetten würde, dass ein Ereignis eintritt (welchen Odds man geben würde). Bei einem fairen Würfel würde man für das Würfeln der 6 z.B. einen Odds von 5:1 geben.

Die persönliche Überzeugung wird dabei durch Informationen gebildet. Das kann z.B. das Wissen sein, dass ein industriell gefertigter Würfel in der Regel fair ist (Vorwissen). Alternativ kann das Wissen auch durch Beobachtung (Daten) entstehen, z.B. in dem man die relative Häufigkeit bei \(n\) Wiederholungen betrachtet.

Der Bayessche Wahrscheinlichkeitsbegriff ist nicht notwendig für die Benutzung Bayesianischer Statistik. Aber er verdeutlicht schon einen ersten Aspekt der Bayesianischen Statistik:

Wahrscheinlichkeit entspricht Wissen gleich Information.

Lesen Sie dazu auch diesen xkcd-Comic

Verteilung und Zufallsvariablen

Verteilung

Wenn wir für jedes mögliche Ereignis \(A\subseteq \Omega\) die Wahrscheinlichkeit \(P(A)\) definieren, sprechen wir insgesamt von einer Verteilung.

Im Beispiel des fairen Würfels haben wir eine Gleich-Verteilung angenommen; jedes gleichgroße Ereignis \(A\) hat die selbe Wahrscheinlichkeit.

Zufallsvariablen

Unter einer Zufallsvariablen verstehen wir die Zuordnung von Zahlen, zu jedem möglichen Ereignis zuordnen. Tritt ein Ereignis ein, dann sprechen wir von der Realisation der Zufallsvariable.

Beispiel Würfel

  • Ereignis \(A_1\): “Die Seite mit einem Auge liegt oben”
  • Ereignis \(A_2\): “Die Seite mit zwei Augen liegt oben”
  • Ereignis \(A_3\): “Die Seite mit drei Augen liegt oben”
  • Ereignis \(A_4\): “Die Seite mit vier Augen liegt oben”
  • Ereignis \(A_5\): “Die Seite mit fünf Augen liegt oben”
  • Ereignis \(A_6\): “Die Seite mit sechs Augen liegt oben”

Sei die Zufallsvariable \(X\) “Anzahl der Augen”, dann gilt für alle \(i=1,\ldots,6\):

  • tritt \(A_i\) ein, dann ist \(X=i\)

Damit lassen sich auch für Zufallsvariablen Wahrscheinlichkeiten und damit Verteilungen definieren:

  • \(P(X=1)=P(A_1)=\frac{1}{6}\)
  • \(P(X>5)=P(A_5)+P(A_6)=\frac{1}{3}\)

Verteilung einer Zufallsvariablen

Die Verteilung einer Zufallsvariablen wird dadurch spezifiziert, dass alle Wahrscheinlichkeiten für alle möglichen Realisation angegeben werden.

Binomialverteilung

Sei \(Y\) die Zufallsvariable "Bei \(n\)-maligen Würfeln wir \(y\)-mal die 6 gewürfelt. Dann ist \(Y\) Binomialverteilt, wir schreiben \(Y\sim B(n,p)\), und es gilt für \(0\leq y \leq n\)

\[ P(Y=y)=\binom ny p^y (1-p)^{n-y} \]

wobei hier \(p=\frac{1}{6}\).

Weiter

Wahrscheinlichkeit