Prädiktionsmatrix

In der Statistik ist die Prädiktionsmatrix (englisch prediction matrix) eine symmetrische und idempotente Matrix und damit eine Projektionsmatrix. Die Prädiktionsmatrix wird gelegentlich Hut-Matrix oder Dach-Matrix genannt, da sie auf abbildet. Dementsprechend wird sie entweder mit oder notiert. Der Begriff „Prädiktionsmatrix“ bzw. „Vorhersagematrix“ wurde von Hoaglin & Welsh (1978)[1] sowie Chatterjee & Hadi (1986)[2] geprägt und rührt daher, dass wenn man die Matrix auf die -Werte anwendet sie die vorhergesagten Werte (-Werte) generiert.[2] Eine weitere in der Statistik wichtige Matrix ist die Residualmatrix, die durch die Prädiktionsmatrix definiert wird und ebenfalls eine Projektionsmatrix ist.

Definition

Gegeben ein typisches multiples lineares Regressionsmodell , mit dem Vektor der unbekannten Regressionsparameter, der Versuchsplanmatrix , dem Vektor der abhängigen Variablen und dem Vektor der Störgrößen . Dann ist die Prädiktionsmatrix definiert durch

mit .

Die Matrix wird auch Moore-Penrose-Inverse von genannt.

Die mithilfe der Methode der kleinsten Quadrate geschätzte Regressions(hyper)ebene ist dann gegeben durch die Stichproben-Regressionsfunktion , wobei der Kleinste-Quadrate-Schätzvektor ist. Die Prädiktionsmatrix ist die Matrix der Orthogonalprojektion auf den Spaltenraum von und hat maximal den Rang ( ist die Anzahl der Parameter des Regressionsmodells). Falls eine Matrix mit ist, dann ist . Da eine Projektionsmatrix ist, gilt . Die Idempotenz- und die Symmetrieeigenschaft ( und ) implizieren, dass ein orthogonaler Projektor auf den Spaltenraum ist.[3] Die Projektionsrichtung ergibt sich aus der Matrix , deren Spalten senkrecht auf stehen. Die Matrix wird Prädiktionsmatrix genannt, da sich die Vorhersagewerte durch die linksseitige Multiplikation des Vektors mit dieser Matrix ergeben. Dies kann durch Einsetzen des KQ-Parameterschätzers wie folgt gezeigt werden:[4]

.

Die Vorhersagewerte von (die -Werte) können also als eine Funktion der beobachteten -Werte verstanden werden. Zahlreiche statistische Resultate lassen sich auch mit der Prädiktionsmatrix darstellen. Beispielsweise lässt sich der Residualvektor mittels der Prädiktionsmatrix darstellen als: .[5] Die (nichttriviale) Kovarianzmatrix des Residualvektors lautet und spielt für die Analyse von Hebelwerten eine Rolle.

Eigenschaften

Idempotenz

Die Prädiktionsmatrix i​st idempotent. Dies k​ann so interpretiert werden, d​ass „zweimaliges Anwenden d​er Regression z​um gleichen Ergebnis führt“. Die Idempotenzeigenschaft d​er Prädiktionsmatrix k​ann wie f​olgt gezeigt werden:

,

wobei die Einheitsmatrix ist.

Symmetrie

Die Prädiktionsmatrix i​st symmetrisch. Die Symmetrieeigenschaft d​er Prädiktionsmatrix k​ann wie f​olgt gezeigt werden

Hebelwerte

Die Diagonalelemente der Prädiktionsmatrix können als Hebelwerte interpretiert werden und spielen in der Regressionsdiagnostik eine große Rolle. Sie sind gegeben durch

.

Diese Hebelwerte werden bei der Berechnung des Cook-Abstands verwendet und können genutzt werden, um einflussreiche Beobachtungen zu identifizieren. Es gilt , wobei die Anzahl der Zeilen in der Versuchsplanmatrix darstellt, die unterschiedlich sind. Wenn alle Zeilen unterschiedlich sind, dann gilt .[6]

Einzelnachweise

  1. David C. Hoaglin & Roy E. Welsch: The Hat Matrix in Regression and ANOVA. In: The American Statistician, 32(1), 1978, S. 17–22, doi:10.1080/00031305.1978.10479237, JSTOR 2683469.
  2. Samprit Chatterjee & Ali S. Hadi: Influential observations, high leverage points, and outliers in linear regression. In: Statistical Science, 1(3), 1986, S. 379–393, doi:10.1214/ss/1177013622, JSTOR 2245477.
  3. Wilhelm Caspary: Fehlertolerante Auswertung von Messdaten, S. 124
  4. Rainer Schlittgen: Regressionsanalysen mit R., ISBN 978-3-486-73967-1, S. 27 (abgerufen über De Gruyter Online).
  5. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 122.
  6. Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 108.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.