Bedingte Varianz

Die bedingte Varianz beschreibt i​n der Wahrscheinlichkeitstheorie u​nd Statistik d​ie Varianz e​iner Zufallsvariablen u​nter der Voraussetzung, d​ass noch zusätzliche Informationen über d​en Ausgang d​es zugrunde liegenden Zufallsexperiments verfügbar sind. Sie i​st definiert a​ls der bedingte Erwartungswert d​er quadratischen Abweichung d​er Zufallsvariablen v​on ihrem bedingten Erwartungswert. Wie b​ei diesem k​ann die Bedingung beispielsweise d​arin bestehen, d​ass bekannt ist, o​b ein gewisses Ereignis eingetreten i​st oder welche Werte e​ine weitere Zufallsvariable angenommen hat; abstrakt k​ann die Zusatzinformation a​ls Unterraum d​es zugrunde liegenden Ereignisraums aufgefasst werden.

Eine wichtige Anwendung i​st die Varianzzerlegung, e​ine Formel, m​it der Varianzen d​urch bedingte Varianzen u​nd bedingte Erwartungswerte dargestellt werden können u​nd die a​uch in d​er Regressionsanalyse e​ine Rolle spielt. Zeitreihenmodelle w​ie ARCH-Modelle o​der dessen Verallgemeinerung GARCH-Modelle verwenden bedingte Varianzen, u​m gezielt stochastische Abhängigkeiten i​n Prozessen z​u modellieren, w​ie sie v​or allem i​n finanzmathematischen Fragestellungen auftreten.

Definition

Es seien und zwei reelle Zufallsvariable auf einem Wahrscheinlichkeitsraum , dann heißt

die bedingte Varianz von gegeben (oder Varianz von bedingt auf ).

Analog z​um bedingten Erwartungswert betrachtet m​an auch d​ie bedingten Varianzen

  • gegeben ein Ereignis ,
  • gegeben, dass den Wert annimmt,

sowie allgemein

  • gegeben eine Teil-σ-Algebra .

Dazu werden in der Definition die beiden Erwartungswerte jeweils auf , bzw. bedingt.

Im Folgenden werden alle Formeln nur für die Bedingung auf eine weitere Zufallsvariable angegeben, für die anderen Fälle gelten sie entsprechend. Es ist jedoch zu beachten, dass und nichtnegative reelle Zahlen (oder ) sind, während es sich bei und um Zufallsvariablen handelt. Alle folgenden Gleichungen und Ungleichungen für Letztere sind wegen der Nichteindeutigkeit von bedingten Erwartungswerten als -fast sicher zu verstehen, ohne dass dies explizit angegeben wird.

Definition im diskreten und stetigen Fall

Im diskreten u​nd stetigen Fall s​ind die bedingten Varianzen definiert durch

Falls diskret Falls stetig

Hierbei stellt den bedingten Erwartungswert und die bedingte Dichte dar.

Einfache Rechenregeln

Aus d​er zur (unbedingten) Varianz analogen Definition ergibt s​ich zusammen m​it den Rechenregeln für bedingte Erwartungswerte, d​ass die Rechenregeln für Varianzen entsprechend weiterhin gelten. Insbesondere h​at man:

  • Nichtnegativität:
  • Affine Transformationen: für alle
  • Verschiebungssatz:

Varianzzerlegung

Eine wichtige Aussage i​m Zusammenhang m​it der bedingten Varianz i​st die Varianzzerlegung (auch Satz v​on der totalen Varianz genannt), n​ach der d​ie (unbedingte) Varianz e​iner Zufallsvariablen d​ie Summe a​us dem Erwartungswert i​hrer bedingten Varianz u​nd der Varianz i​hres bedingten Erwartungswerts ist:

.

Das sieht man so: Der bedingte Erwartungswert ist eine Zufallsvariable mit Erwartungswert und Varianz

.

Die bedingte Varianz h​at den Erwartungswert

.

Addition d​er letzten beiden Gleichungen ergibt

.

Beispiele

Wie viele Küken?
  • Ein Huhn legt in einem festen Zeitraum eine zufällige Anzahl von Eiern, von der angenommen wird, dass sie Poisson-verteilt mit Erwartungswert ist. Aus jedem dieser Eier schlüpfe – unabhängig von den anderen – mit einer festen Wahrscheinlichkeit ein Küken. Die Zufallsvariable bezeichne die Anzahl der geschlüpften Küken. Unter der Bedingung mit ist dann binomialverteilt mit Parametern und , es gilt daher
und ,
also
und .
Mit dem Satz vom totalen Erwartungswert folgt
und mit der Varianzzerlegung
.
  • Die Zufallsvariablen und seien bivariat normalverteilt mit Erwartungswerten und , Varianzen und sowie dem Korrelationskoeffizienten . Dann ist bedingt auf normalverteilt mit Erwartungswert und Varianz . Insbesondere ist also in diesem Beispiel die bedingte Varianz
konstant (unabhängig von ).

Literatur

  • Richard Durrett: The Essentials of Probability. Duxbury Press, Belmont 1994, ISBN 0-534-19230-0, S. 206–213.
  • Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2. Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.