Skip to Tutorial Content

Poisson-Model

In unserem Beispiel zu den Unfallzahlen von Kindern in Linz hatten wir folgende Posteriori erhalten:

\[ \lambda|x \sim \text{Ga}(0.001+192\cdot1.8385,0.001+192) \sim \text{Ga}(352.993,192.001) \]

Es stellt sich nun die Frage, ob wir denn aus den gegebenen Beobachtungen auch Schlüsse für zukünftige Zeitpunkte ziehen können (unter der Annahme, dass das zugrundeliegende Modell zeitunabhängig ist).

Prädiktion

  • Wir wollen also Information über die Fallzahlen z.B. im Monat \(z>n\).
  • Bayesianisch heißt Information Verteilung
  • Wir haben die Beobachtungen bis zum Monat \(n\) gegeben, wir suchen also die Verteilung von \(X_z\) gegeben \(x_1,\ldots,x_n\)

Zur Erinnerung unser Modell:

  • Datendichte: \(X_t|\lambda \sim \text{Po}(\lambda)\)
  • Priori: \(\lambda\sim\)Ga\((a,b)\)
  • Daraus ergibt sich die Posteriori \(\lambda|x\sim\)Ga\((\tilde{a},\tilde{b})\)

Prädiktive Posteriori-Verteilung

Wir suchen nun Aussagen über \(X_{z}\) gegeben \(X=x\). Wir nennen diese die prädiktive Posteriori-Verteilung \(X_{z}|X=x\)

Die Idee zur Herleitung der prädiktiven Posteriori-Verteilung basiert darauf, dass wir die zukünftige Beobachtung \(x_z\) als unbekannt annehmen. Wir nehmen dabei an, dass die Datendichte auch zum Zeitpunkt \(z\) gilt (wir kennen sie also). Dann gilt nach Definition der bedingten Dichte.

\[ f(x_z|\lambda) = \frac{f(x_z,\lambda|x)}{p(\lambda|x)} \Leftrightarrow f(x_z,\lambda|x)=f(x_z|\lambda)p(\lambda|x) \]

Auch \(p(\lambda|x)\), die Posteriori-Dichte von \(\lambda\), kennen wir. Wir setzen diese bekannten Dichten ein:

\[ \begin{eqnarray} f(x_z,\lambda|x) &=&f(x_z|\lambda)p(\lambda|x) \\ &=& \frac{\lambda^{x_z}}{x_z!}\exp(-\lambda)\cdot \frac{\tilde{b}^\tilde{a}}{\Gamma(\tilde{a})}\lambda^{\tilde{a}-1}\exp(-\tilde{b}\lambda) \\ &=&\frac{\tilde{b}^\tilde{a}}{\Gamma(\tilde{a})\Gamma(x_z+1)}\lambda^{\tilde{a}+x_z-1}\exp\left(-(\tilde{b}+1)\lambda\right) \end{eqnarray} \]

  • \(f(x_z,\lambda|x)\) ist die gemeinsame Dichte von \(x_z\) und \(\lambda\).
  • Uns interessiert aber die prädiktive Dichte \(f(x_z,\lambda|x)\), also ohne \(\lambda\).
  • Diese erhalten wir, indem wir die gemeinsame Dichte über \(\lambda\) integrieren:

\[ f(x_z|x) = \int f(x_z,\lambda|x) d\lambda \]

Hier kann man aus der Definition der Gamma-Funktion erhalten:

\[ \int_0^\infty \lambda^{\tilde{a}+x_z-1}\exp\left(-(\tilde{b}+1)\lambda\right) d\lambda = \frac{\Gamma(x_z+\tilde{a})}{(\tilde{b}+1)^{x_z+\tilde{a}}} \]

und damit

\[ \begin{eqnarray} f(x_z|\lambda) &=&\int_0^\infty f(x_z,\lambda|x) d\lambda \\& =& \frac{\tilde{b}^\tilde{a}}{\Gamma(\tilde{a})\Gamma(x_z+1)}\frac{\Gamma(x_z+\tilde{a})}{(\tilde{b}+1)^{x_z+\tilde{a}}} \\ &=&\frac{\Gamma(x_z+\tilde{a})}{\Gamma(\tilde{a})\Gamma(x_z+1)}\left(\frac{\tilde{b}}{\tilde{b}+1}\right)^\tilde{a}(\tilde{b}+1)^{-x_z} \end{eqnarray} \]

Das Ergebnis ist die Dichte einer Negativ-Binomialverteilung mit

  • \(r=\tilde{a}\)
  • \(p=1-1/(\tilde{b}+1)\)

Es handelt sich dabei um eine verallgemeinerte Version der Negativ-Binomial-Verteilung.

Klassischerweise ist die Interpretation der Negativ-Binomial-Verteilung: Anzahl der Versuche \(n\) (hier gleich \(x_z+\tilde{a}\)) bis zum \(r\)-ten Erfolg bei Erfolgswahrscheinlichkeit \(p\). Hier sind jedoch sowohl \(n\) als auch der Verteilungsparameter \(r\) reele Zahlen (deswegen “verallgemeinerte Version”).

Schlüsse aus der Posteriori-Prädiktiven Verteilung

Die Anzahl \(X_z\) im Monat \(z\) ist also NegBin(\(\tilde{a},1/(\tilde{b}+1)\))-verteilt. Was können wir daraus schließen?

Wir können die erwartete Anzahl von Fällen angeben, also den Punktschätzer für die Prädiktion:

\[ E(x_z) = \frac{r(1-p)}{p} = \frac{\tilde{a}}{\tilde{b}} \approx 1.834 \] Das entspricht hier dem Erwartungswert von \(\lambda|x\)!

Prädiktiver Erwartungswert allgemein

Der posteriori-prädiktive Erwartungswert lässt sich leicht berechnen, in dem man den Posteriori-Erwartungswert des Parameters in die Datendichte einsetzt und dafür den Erwartungswert berechnet:

\[ E(X_z|x) = E\left [X_z|\Theta=E(\theta|x)\right]\] Beweis:

\[ \begin{eqnarray} E(X_z|x)&=&\int x_z f(x_z|x) dx_z \\ &=& \int x_z \int f(x_z,\theta|x) d\theta dx_z\\ &=& \int x_z \int f(x_z|\theta) p(\theta|x) d\theta dx_z \\ &=& \int p(\theta|x) \underbrace{\int x_z f(x_z|\theta) dx_z}_{=E(X_z|\theta)} d\theta \text{ (Satz von Fubini)} \\ &=& \int p(\theta|x) E(X_z|\theta) d\theta\\ &=& E_{\theta|x}(E(X_z|\Theta)) \end{eqnarray} \]

Im obigen Poisson-Beispiel ist es also kein Zufall, dass die erwartete Anzahl von Fällen genau gleich dem Posterior-Erwartungswert von \(\lambda|x\) ist; \(\lambda\) ist ja der Erwartungswert von \(X_z\sim Po(\lambda)\).

Prädiktionsintervalle

Interessanter als prädiktive Erwartungswerte sind Prognoseintervalle:

  • \(90\)%-Prognose-Intervall: \([0,4]\)
  • \(95\)%-Prognose-Intervall: \([0,5]\)
  • \(99\)%-Prognose-Intervall: \([0,6]\)

oder die Standardabweichung der Prädiktion:

\[ sd(x_Z) = \sqrt{\frac{r(1-p)}{p^2}} = 0.097485 \]

Quiz

Prädiktion

Betrachten wir wieder Mal ein Binomial-Modell \(x\sim\)B\((98,\pi)\) mit Priori \(\pi\sim\)Beta(1,1). Wir beobachten \(x=24\). Wieviele Erfolge würden wir bei \(n_z=8\) weiteren Versuchen erwarten? (\(z\) steht hier für Zukunft):

Quiz

Weiter

Prädiktion