Kumulante
Kumulanten sind in der Wahrscheinlichkeitstheorie und Statistik Kenngrößen der Verteilung einer Zufallsvariablen, die in Bezug auf die Summenbildung von stochastisch unabhängigen Zufallsvariablen einfachen Rechengesetzen genügen. Die Folge der Kumulanten beginnt mit dem Erwartungswert und der Varianz.
Definition
Ist die momenterzeugende Funktion der Zufallsvariablen , d. h., es ist
- ,
so heißt die Funktion
kumulantenerzeugende Funktion. Die -te Kumulante der Zufallsvariablen ist dann definiert durch
- .
Alternativ lassen sich Kumulanten auch durch die charakteristische Funktion einer Zufallsvariablen definieren.
Die -te Kumulante ist dann definiert durch
Die ersten vier Kumulanten einer Zufallsvariablen sind, wie unten noch umfassender dargelegt wird:
- (drittes zentrales Moment) und
Eigenschaften
Kumulanten können aufgrund der für sie geltenden Rechengesetze oft einfach berechnet werden:
Verschiebungs-Invarianz
Die Kumulanten werden auch als Semiinvarianten der Dichtefunktion bezeichnet, da sie sich, mit Ausnahme von , bei einer Verschiebung des Erwartungswertes nicht ändern. Sei eine Zufallsvariable, dann gilt für eine beliebige Konstante :
Additivität
Seien und stochastisch unabhängige Zufallsvariablen, dann gilt für
Analog gilt für die Summe aus stochastisch unabhängigen Zufallsvariablen :
Die Additivität beruht darauf, dass für die charakteristische Funktionen einer Summe unabhängiger Zufallsvariablen die Produktdarstellung gilt. Für die Logarithmen gilt somit eine Additivität:
Besonderheit der Normalverteilung
Für eine Normalverteilung mit Erwartungswert und Varianz ist die charakteristische Funktion gleich und somit die Kumulanten:
- für .
Alle Kumulanten größer als 2. Ordnung verschwinden. Diese Eigenschaft charakterisiert die Normalverteilung.
Man kann zeigen, dass
- entweder alle Kumulanten außer den ersten beiden verschwinden
- oder unendlich viele nichtverschwindende Kumulanten existieren.
Anders ausgedrückt: Die Kumulanten generierende Funktion kann kein endliches Polynom von Grad größer 2 sein.
Kumulanten und Momente
Kumulanten als Funktion der Momente
Bezeichne das n-te Moment einer Zufallsvariablen . Durch lässt sich darstellen als
Folglich lassen sich die Kumulanten durch die Momente bzw. folgendermaßen ausdrücken:
Im Allgemeinen lässt sich die Abhängigkeit der Kumulanten von den Momenten durch folgende Rekursionsformel beschreiben:
Alternativ lässt sich aus der Formel von Faà di Bruno die k-te Kumulante mittels der Bell-Polynome und der Momente darstellen als
- .
Mit den zentralen Momenten sind die Formeln meist kürzer:
Von besonderer Bedeutung sind die ersten beiden Kumulanten: ist der Erwartungswert und ist die Varianz . Ab der vierten Ordnung stimmen Kumulante und zentrales Moment nicht mehr überein.
Herleitung der ersten Kumulanten
Man entwickelt um
und setzt die Reihendarstellung von
in obige Entwicklung ein
Sortiert man noch nach Potenzen von , so erhält man die Kumulanten:
Momente als Funktion der Kumulanten
Das -te Moment ist ein Polynom -ten Grades der ersten Kumulanten. Hier die ersten sechs Momente:
Die Koeffizienten entsprechen genau denjenigen in der Formel von Faà di Bruno. Allgemeiner ist das -te Moment genau das -te vollständige Bell-Polynom , ausgewertet an der Stelle :
- .
Um die zentralen Momente als Funktion der Kumulanten auszudrücken, vernachlässige in obigen Polynomen für die Momente alle Terme, bei denen als Faktor auftaucht:
Kumulanten und Mengenpartitionen
Oben haben wir die Momente als Polynome in den Kumulanten ausgedrückt. Diese Polynome haben eine interessante kombinatorische Interpretation: ihre Koeffizienten zählen Mengenpartitionen. Die allgemeine Form dieser Polynome kann folgendermaßen geschrieben werden
wobei
- die Menge aller Partitionen einer n-elementigen Menge durchläuft;
- "" bedeutet, dass einer der Blöcke ist, in welche die Menge zerlegt wurde; und
- ist die Größe des Blocks .
Multivariate Kumulanten
Die multivariaten (oder gemeinsamen) Kumulanten von mehreren Zufallsvariablen X1, ..., Xn kann auch durch eine Kumulanten-erzeugende Funktion definiert werden:
Diese Formel kann wieder in kombinatorischer Form interpretiert werden gemäß
wobei alle Partitionen von { 1, ..., n } durchläuft, läuft durch die Menge aller Blöcke der Partition , und ist die Anzahl der Blöcke in . Zum Beispiel haben wir
Dieser kombinatorische Zusammenhang zwischen Kumulanten und Momenten erhält eine einfachere Form, wenn man Momente durch Kumulanten ausdrückt:
Zum Beispiel haben wir dann:
Die erste Kumulante einer Zufallsvariable ist ihr Erwartungswert, die gemeinsame zweite Kumulante von zwei Zufallsvariablen ist ihre Kovarianz. Sind einige der Zufallsvariablen unabhängig voneinander, so verschwindet jede gemischte Kumulante welche mindestens zwei der unabhängigen Variablen enthält. Sind alle Zufallsvariablen gleich, so reduziert sich die gemeinsame Kumulante auf die gewöhnliche n-te Kumulante von .
Eine weitere wichtige Eigenschaft der multivariaten Kumulanten ist Multilinearität in den Variablen:
Folgerungen
Gegeben seien die identisch verteilten und stochastisch unabhängigen Zufallsvariablen .
Zentraler Grenzwertsatz
Für die Zufallsvariable
ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:
Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten von der Ordnung ist. Hier die Ordnungen der ersten Kumulanten:
Für ist die Ordnung hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:
D. h., es bleiben nur die beiden ersten Kumulanten übrig. Die einzige Verteilung, die nur die erste und zweite Kumulante besitzt, ist die Gauß-Verteilung. Damit wird plausibel, dass die Summe beliebiger Zufallsvariablen geteilt durch die Wurzel der Anzahl gegen die Gauß-Verteilung konvergiert; dies ist der Zentrale Grenzwertsatz. Um diese Plausibilitätsbetrachtung zu einem Beweis zu vervollständigen, bedarf es der Verwendung allgemeiner Gesetzmäßigkeiten von charakteristischen Funktionen. Die Gauß-Verteilung nimmt also eine besondere Stellung unter allen Verteilungen ein. Wirken bei einem Experiment viele stochastisch unabhängige Einflüsse, so kann man die Gesamtheit der Einflüsse durch eine Gaußsche Zufallsvariable darstellen.
Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch mit Mittelwert 0, Varianz und beliebigen höheren Momenten.
Für die Zufallsvariable
kann man gegenüber die Verschiebungsinvarianz der Kumulanten der Ordnung größer gleich 2 ausnutzen. Der einzige Unterschied zur Zufallsvariablen ist, dass Erwartungswert von Null ist, auch dann wenn die Erwartungswerte der nicht verschwinden.
Gesetz der großen Zahlen
Für die Zufallsvariable
ergeben sich unter Ausnutzung der Eigenschaften Homogenität und Additivität folgende Kumulanten:
Die Ordnung ergibt sich, da die Summe über die Einzelkumulanten von der Ordnung ist. Hier die Ordnungen der ersten Kumulanten:
Für ist die Ordnung hoch einem negativen Exponenten und somit gilt im Grenzwert unendlich vieler Zufallsvariablen:
D. h., es bleibt nur die erste Kumulante bzw. das erste Moment übrig. Mit wachsendem erhält man eine Gauß-Verteilung um den Mittelwert
- ,
wobei die Breite von der Ordnung ist, und im Grenzfall einen scharfen (Delta-förmigen) Peak bei .
Als einfachen Spezialfall betrachte alle Zufallsvariablen als identisch mit Mittelwert , Varianz und beliebigen höheren Momenten.
Somit ist eine Zufallsvariable mit demselben Mittelwert wie (man nennt erwartungstreuer Schätzer für den Mittelwert von ). Die für wachsende immer schmaler werdende Breite der Gauß-Verteilung (Standardabweichung um Mittelwert) beträgt .
Geschichte
Kumulanten und ihre Eigenschaften wurden erstmals 1889 von dem dänischen Mathematiker Thorvald Nicolai Thiele in einem in dänischer Sprache erschienenen Buch beschrieben.[1] Obwohl dieses Buch im gleichen Jahr im Jahrbuch über die Fortschritte der Mathematik ausführlich referiert wurde,[2] blieben die Ergebnisse zunächst weitgehend unbeachtet, so dass Felix Hausdorff noch 1901 diese Kenngrößen in einer Arbeit als (von ihm) „neueingeführt“ bezeichnete.[3]
Freie Kumulanten
In obiger kombinatorischer Momenten-Kumulanten-Formel
summiert man über alle Partitionen der Menge . Wenn man stattdessen nur über nicht-kreuzende Partitionen summiert, so erhält man die freien Kumulanten. Diese wurden von Roland Speicher[4] eingeführt und spielen in der freien Wahrscheinlichkeitstheorie eine analoge Rolle wie die üblichen Kumulanten in der klassischen Wahrscheinlichkeitstheorie.[5] Insbesondere sind die freien Kumulanten additiv für freie Zufallsvariable. Die Wignersche Halbkreisverteilung, welche das freie Gegenstück zur Normalverteilung ist, ist dadurch charakterisiert, dass nur die freie Kumulante zweiter Ordnung nicht verschwindet.
Literatur
- Jörg Bewersdorff: Statistik – wie und warum sie funktioniert. Ein mathematisches Lesebuch. Vieweg+Teubner Verlag 2011, ISBN 978-3-8348-1753-2, doi:10.1007/978-3-8348-8264-6, S. 68–70.
- Crispin W. Gardiner: Stochastic methods: a handbook for the natural and social sciences. Springer, 2009. ISBN 978-3-540-70712-7, S. 33–35.
- M. Abramowitz, I. A. Stegun: Handbook of Mathematical Functions with Formulas, Graphs, and Mathematical Tables. Dover, 1965. ISBN 978-0-486-61272-0
Einzelnachweise
- Thorvald Nicolai Thiele: Forelæsninger over almindelig Iagttagelseslære: Sandsynlighedsregning og mindste Kvadraters Methode, Kopenhagen 1889.
- Jahrbuch über die Fortschritte der Mathematik JFM 21.0210.01.
- Felix Hausdorff: Gesammelte Werke, Band V: Astronomie, Optik und Wahrscheinlichkeitstheorie. 2006, ISBN 978-3-540-30624-5, S. 544, 577, doi:10.1007/3-540-30669-2_8.
- Speicher, Roland (1994), "Multiplicative functions on the lattice of non-crossing partitions and free convolution", Mathematische Annalen, 298 (4): 611–628
- Jonathan Novak, Piotr Śniady: What Is a Free Cumulant?. In: Notices of the American Mathematical Society. 58, Nr. 2, 2011, ISSN 0002-9920, S. 300–301.