Maximum-a-posteriori-Schätzung
Die Maximum-a-posteriori-Methode (= MAP) ist in der mathematischen Statistik ein Schätzverfahren, genauer ein spezieller Bayes-Schätzer. Das Verfahren schätzt einen unbekannten Parameter durch den Modalwert der A-posteriori-Verteilung. Somit besteht eine gewisse Ähnlichkeit zur Maximum-Likelihood-Methode.
Beschreibung
Folgende Situation ist gegeben: ist ein unbekannter Parameter einer Grundgesamtheit, der auf der Basis von Beobachtungen geschätzt werden soll. Weiterhin sei die Stichprobenverteilung von , also die Wahrscheinlichkeit von , wenn der (wahre) Parameter der Grundgesamtheit den Wert hat.
Die Funktion
ist als Likelihood-Funktion bekannt, und der Schätzwert
als Maximum-Likelihood-Schätzer von .
Nun stehe aber zusätzlich eine A-priori-Verteilung von zur Verfügung. Dadurch lässt sich als eine Zufallsvariable betrachten, wie es in der bayesschen Statistik üblich ist. Die A-posteriori-Verteilung von erhält man mit Hilfe des Satzes von Bayes durch:
Die Maximum-a-Posteriori-Methode verwendet jetzt den Modalwert der A-posteriori-Verteilung als Schätzwert für . Da das Integral im Nenner nicht von abhängt, braucht es bei der Maximierung nicht berücksichtigt zu werden:
- .
Der MAP-Schätzer von ist identisch zum Maximum-Likelihood-Schätzer (= ML-Schätzer), wenn eine nichtinformative A-priori-Verteilung (z. B. Gleichverteilung) verwendet wird.
Vergleich mit anderen bayesschen (Punkt-)Schätzmethoden
In der Literatur wird der MAP-Schätzer als das Äquivalent der bayesschen Statistik zum ML-Schätzer beschrieben[1].
Allerdings spielt die MAP-Schätzung in der bayesschen Statistik nicht die gleiche Rolle wie der ML-Schätzer in der frequentistischen Statistik:
- Bayessche Statistiker drücken in der Regel die (A-posteriori-)Information über einen unbekannten Parameter in einer Wahrscheinlichkeitsverteilung aus, und nicht in einem Punktschätzer.[2]
- Der Erwartungswert der A-posteriori-Verteilung ist dem MAP-Schätzer überlegen, wenn man, wie in der bayesschen Statistik üblich, die A-posteriori-Varianz eines Schätzers als Gütemaß verwendet.[3]
- In vielen Fällen ist zudem auch der Median ein besserer Schätzer als der MAP-Schätzer.[4]
In der bayesschen Entscheidungstheorie sind für die gebräuchlichsten Verlustfunktionen andere Schätzer als der MAP-Schätzer optimal:[5]
- Bei einer quadratischen Verlustfunktion ist der Erwartungswert der A-posteriori-Verteilung die optimale Schätzfunktion.
- Wenn man den Absolutbetrag des Schätzfehlers als Verlustfunktion verwendet (also: , mit a als beliebiger Schätzfunktion), ist der Median der A-posteriori-Verteilung die optimale Schätzfunktion.
Vergleich mit der Maximum-Likelihood-Methode
Im Unterschied zur ML-Methode wird bei der MAP-Methode Vorwissen in Form von A-priori-Wahrscheinlichkeiten berücksichtigt. Diese A-priori-Wahrscheinlichkeiten ergeben zusammen mit der Stichprobe nach dem Satz von Bayes die A-posteriori-Wahrscheinlichkeit. Die MAP-Methode verwendet den wahrscheinlichsten Parameterwert unter der A-posteriori-Verteilung, während die ML-Methode den Parameter mit der höchsten Likelihood (d. h. ohne Vorwissen) verwendet. Allerdings ist für einen streng frequentistischen Statistiker die Verwendung einer A-priori-Verteilung inakzeptabel. Daher wird in der klassischen Statistik die ML-Methode statt der MAP-Methode verwendet.
Der Maximum-Likelihood-Schätzer kann als Spezialfall eines Maximum-a-Posteriori-Schätzers angesehen werden, bei dem die A-priori-Verteilung uninformativ ist (für beschränkte Wertebereiche von etwa eine Gleichverteilung). Umgekehrt ist jeder Maximum-a-Posteriori-Schätzer für Stichprobenverteilung und A-priori-Verteilung ein Maximum-Likelihood-Schätzer für die Stichprobenverteilung mit
- .
Beide Verfahren können sich also gegenseitig simulieren und sind in diesem Sinne „gleichmächtig“.
Beispiel
In einer Urne befinden sich rote und schwarze Kugeln. Durch Ziehen mit Zurücklegen soll ermittelt werden, wie hoch der (wahre) Anteil der roten Kugeln in der Urne ist. Die Anzahl der roten Kugeln kann dann durch eine Binomialverteilung mit Stichprobengröße N=10 und unbekanntem Parameter (d. h. einer -Verteilung) beschrieben werden. Im Folgenden nehmen wir an, dass bei solch einem Test 7 rote Kugeln gezogen wurden.
Maximum-Likelihood-Schätzung
Mit der ML-Methode schätzt man den Anteil der roten Kugeln auf 70 %.
Nichtinformative A-priori-Verteilung
Als nichtinformative A-priori-Verteilung für eine binomialverteilte Zufallsgröße kann die Beta(1,1)-Verteilung (äquivalent zur stetigen Gleichverteilung auf dem Intervall ) verwendet werden. Dieses Vorwissen nimmt alle möglichen Werte als gleich wahrscheinlich an.
A-posteriori-Verteilung ist dann die -Verteilung, deren Modalwert bei 0,7 liegt. Durch MAP-Schätzung schätzt man daher den Anteil roter Kugeln ebenfalls auf 70 %. Der Erwartungswert der -Verteilung liegt bei . Daher würde man bei Verwendung des A-posteriori-Erwartungswertes als Schätzfunktion den Anteil roter Kugeln auf 66,67 % schätzen.
Unter der Annahme, dass das Vorwissen (gleiche Wahrscheinlichkeit für alle ) die Verteilung des wahren Werts über viele solcher Urnen korrekt beschreibt, minimiert der A-posteriori-Erwartungswert die mittlere quadratische Abweichung des Schätzers vom jeweiligen wahren Wert.
Informative A-priori-Verteilung
Jetzt sei angenommen, dass ein gewisses Vorwissen über den Anteil der roten Kugeln bekannt ist, das sich in einer -Verteilung ausdrücken lässt. Das entspricht beispielsweise dem Vorwissen, dass schon einmal 4 von 8 gezogenen Kugeln rot waren.
A-posteriori-Verteilung ist in diesem Fall die -Verteilung, deren Modalwert 0,611 ist. Mittels der MAP-Methode schätzt man daher den Anteil roter Kugeln auf 61,1 %. In diesem Fall liegt der MAP-Schätzer zwischen dem Modalwert der A-priori-Verteilung und dem Maximum-Likelihood-Schätzer.
Erwartungswert der A-posteriori-Verteilung wäre 0,6, d. h. man würde bei Verwendung des A-posteriori-Erwartungswertes als Schätzfunktion den Anteil roter Kugeln auf 60 % schätzen.
Literatur
- Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler. R. Oldenbourg Verlag, München Wien 1988. ISBN 3-486-20535-8
- James O. Berger: Statistical decision theory and Bayesian analysis. Springer Series in Statistics, Springer-Verlag, New York Berlin Heidelberg 1985. ISBN 0-387-96098-8
Einzelnachweise
- Bernhard Rüger: Induktive Statistik. Einführung für Wirtschafts- und Sozialwissenschaftler, S. 161f
- James O. Berger: Statistical decision theory and Bayesian analysis, S. 133
- James O. Berger: Statistical decision theory and Bayesian analysis, S. 136
- James O. Berger: Statistical decision theory and Bayesian analysis, S. 134
- James O. Berger: Statistical decision theory and Bayesian analysis, S. 161f.