Bedingte Varianz
Die bedingte Varianz beschreibt in der Wahrscheinlichkeitstheorie und Statistik die Varianz einer Zufallsvariablen unter der Voraussetzung, dass noch zusätzliche Informationen über den Ausgang des zugrunde liegenden Zufallsexperiments verfügbar sind. Sie ist definiert als der bedingte Erwartungswert der quadratischen Abweichung der Zufallsvariablen von ihrem bedingten Erwartungswert. Wie bei diesem kann die Bedingung beispielsweise darin bestehen, dass bekannt ist, ob ein gewisses Ereignis eingetreten ist oder welche Werte eine weitere Zufallsvariable angenommen hat; abstrakt kann die Zusatzinformation als Unterraum des zugrunde liegenden Ereignisraums aufgefasst werden.
Eine wichtige Anwendung ist die Varianzzerlegung, eine Formel, mit der Varianzen durch bedingte Varianzen und bedingte Erwartungswerte dargestellt werden können und die auch in der Regressionsanalyse eine Rolle spielt. Zeitreihenmodelle wie ARCH-Modelle oder dessen Verallgemeinerung GARCH-Modelle verwenden bedingte Varianzen, um gezielt stochastische Abhängigkeiten in Prozessen zu modellieren, wie sie vor allem in finanzmathematischen Fragestellungen auftreten.
Definition
Es seien und zwei reelle Zufallsvariable auf einem Wahrscheinlichkeitsraum , dann heißt
die bedingte Varianz von gegeben (oder Varianz von bedingt auf ).
Analog zum bedingten Erwartungswert betrachtet man auch die bedingten Varianzen
- gegeben ein Ereignis ,
- gegeben, dass den Wert annimmt,
sowie allgemein
- gegeben eine Teil-σ-Algebra .
Dazu werden in der Definition die beiden Erwartungswerte jeweils auf , bzw. bedingt.
Im Folgenden werden alle Formeln nur für die Bedingung auf eine weitere Zufallsvariable angegeben, für die anderen Fälle gelten sie entsprechend. Es ist jedoch zu beachten, dass und nichtnegative reelle Zahlen (oder ) sind, während es sich bei und um Zufallsvariablen handelt. Alle folgenden Gleichungen und Ungleichungen für Letztere sind wegen der Nichteindeutigkeit von bedingten Erwartungswerten als -fast sicher zu verstehen, ohne dass dies explizit angegeben wird.
Definition im diskreten und stetigen Fall
Im diskreten und stetigen Fall sind die bedingten Varianzen definiert durch
Falls diskret | Falls stetig |
Hierbei stellt den bedingten Erwartungswert und die bedingte Dichte dar.
Einfache Rechenregeln
Aus der zur (unbedingten) Varianz analogen Definition ergibt sich zusammen mit den Rechenregeln für bedingte Erwartungswerte, dass die Rechenregeln für Varianzen entsprechend weiterhin gelten. Insbesondere hat man:
- Nichtnegativität:
- Affine Transformationen: für alle
- Verschiebungssatz:
Varianzzerlegung
Eine wichtige Aussage im Zusammenhang mit der bedingten Varianz ist die Varianzzerlegung (auch Satz von der totalen Varianz genannt), nach der die (unbedingte) Varianz einer Zufallsvariablen die Summe aus dem Erwartungswert ihrer bedingten Varianz und der Varianz ihres bedingten Erwartungswerts ist:
- .
Das sieht man so: Der bedingte Erwartungswert ist eine Zufallsvariable mit Erwartungswert und Varianz
- .
Die bedingte Varianz hat den Erwartungswert
- .
Addition der letzten beiden Gleichungen ergibt
- .
Beispiele
- Ein Huhn legt in einem festen Zeitraum eine zufällige Anzahl von Eiern, von der angenommen wird, dass sie Poisson-verteilt mit Erwartungswert ist. Aus jedem dieser Eier schlüpfe – unabhängig von den anderen – mit einer festen Wahrscheinlichkeit ein Küken. Die Zufallsvariable bezeichne die Anzahl der geschlüpften Küken. Unter der Bedingung mit ist dann binomialverteilt mit Parametern und , es gilt daher
- und ,
- also
- und .
- Mit dem Satz vom totalen Erwartungswert folgt
- und mit der Varianzzerlegung
- .
- Die Zufallsvariablen und seien bivariat normalverteilt mit Erwartungswerten und , Varianzen und sowie dem Korrelationskoeffizienten . Dann ist bedingt auf normalverteilt mit Erwartungswert und Varianz . Insbesondere ist also in diesem Beispiel die bedingte Varianz
- konstant (unabhängig von ).
Literatur
- Richard Durrett: The Essentials of Probability. Duxbury Press, Belmont 1994, ISBN 0-534-19230-0, S. 206–213.
- Klaus D. Schmidt: Maß und Wahrscheinlichkeit. 2. Auflage. Springer, Berlin/Heidelberg 2011, ISBN 978-3-642-21025-9.