Kullback-Leibler-Divergenz

Die Begriffe Kullback-Leibler-Divergenz (kurz KL-Divergenz) u​nd Kullback-Leibler-Abstand (auch Kullback-Leibler-Entropie o​der Kullback-Leibler-Information, n​ach Solomon Kullback u​nd Richard Leibler; englisch Information Gain) bezeichnen e​in Maß für d​ie Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen. Typischerweise repräsentiert d​abei eine d​er Verteilungen empirische Beobachtungen o​der eine präzise Wahrscheinlichkeitsverteilung, während d​ie andere e​in Modell o​der eine Approximation darstellt.

Die KL-Divergenz w​ird auch relative Entropie genannt, w​obei der Begriff relative Entropie gelegentlich a​uch für d​ie Transinformation verwendet wird.

Formal lässt sich die KL-Divergenz für die Wahrscheinlichkeitsfunktionen und diskreter Werte folgendermaßen bestimmen:

Werden die Verteilungen und für kontinuierliche Werte durch die Wahrscheinlichkeitsdichtefunktionen und dargestellt, wird hingegen ein Integral berechnet:

Die Kullback-Leibler-Divergenz gibt aus informationstheoretischer Sicht an, wie viel Platz pro Zeichen im Mittel verschwendet wird, wenn eine auf basierende Kodierung auf eine Informationsquelle angewendet wird, die der tatsächlichen Verteilung folgt. Somit besteht ein Zusammenhang zur Kanalkapazität. Mathematisch ist dies verträglich mit der Aussage, dass die KL-Divergenz ist und Gleichheit nur dann gilt, wenn P und Q identisch sind.

Die konkrete Wahl der Basis des Logarithmus in der Berechnung hängt dabei davon ab, in welcher Informationseinheit gerechnet werden soll. In der Praxis gibt man die KL-Divergenz häufig in Bit bzw. Shannon an und verwendet dafür die Basis 2, seltener werden auch Nit (Basis ) und Ban (Basis 10) gebraucht.

Anstatt der Kullback-Leibler-Divergenz wird auch oft die Kreuzentropie verwendet. Diese liefert qualitativ vergleichbare Werte, kann jedoch ohne die genaue Kenntnis von geschätzt werden. In praktischen Anwendungen ist dies vorteilhaft, da die tatsächliche Hintergrundverteilung der Beobachtungsdaten meist unbekannt ist.

Obwohl die Kullback-Leibler-Divergenz teilweise auch als Kullback-Leibler-Distanz bezeichnet wird, erfüllt sie eine fundamentale Anforderung an Distanzmaße nicht: Sie ist nicht symmetrisch, es gilt also im Allgemeinen . Um Symmetrie herzustellen, kann alternativ die Summe der beiden Divergenzen verwendet werden, die offensichtlich symmetrisch ist:

Multivariate Normalverteilungen

Für zwei Mehrdimensionale Normalverteilungen (mit Dimension ), mit Mittelwerten und (nicht-singulären) Kovarianzmatrizen ist die Kullback-Leibler-Divergenz gegeben durch:[1]

Belege

Einzelnachweise

  1. J. Duchi: Derivations for Linear Algebra and Optimization. S. 13.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.