Wilcoxon-Vorzeichen-Rang-Test
Der Wilcoxon-Vorzeichen-Rang-Test ist ein nichtparametrischer statistischer Test. Er prüft anhand zweier gepaarter Stichproben die Gleichheit der zentralen Tendenzen der zugrundeliegenden (verbundenen) Grundgesamtheiten. Im Anwendungsbereich ergänzt er den Vorzeichentest, da er nicht nur die Richtung (d. h. das Vorzeichen) der Differenzen, sondern auch die Höhe der Differenzen zwischen zwei gepaarten Stichproben berücksichtigt.[1]
Der Wilcoxon-Vorzeichen-Rang-Test wurde von dem Chemiker und Statistiker Frank Wilcoxon (1892–1965)[2] im Jahr 1945 vorgeschlagen und durch Sidney Siegels Lehrbuch Nonparametric Statistics for the Behavioural Sciences populär.
Hypothesen und Voraussetzungen
Für den Test bzgl. der beiden Mediane und gibt es drei mögliche Hypothesenpaare:
- zweiseitig: vs. .
- einseitige: vs. bzw. vs. .
Eine Voraussetzung ist, dass die Stichprobenvariablen
unabhängig, identisch verteilt, stetig und symmetrisch sind. Die letzte Voraussetzung wird jedoch oft vernachlässigt. Wenn die Verteilung stetig ist, treten keine Bindungen auf. In der Praxis ist das häufig nicht der Fall. Es müssen Korrekturen durchgeführt werden und es ist nicht mehr möglich die Verteilung der Prüfgröße exakt zu bestimmen.[3]
Teststatistik
Zunächst wird für die Teststatistik der Rang der absoluten Differenzen berechnet:
Die Teststatistik berechnet sich als das Minimum der negativen und der positiven Rangsummen:
Dabei bezeichnet die Indikatorfunktion.
Im Fall, dass eine oder mehrere Differenzen sind, gibt es zwei Möglichkeiten:
- Die zugehörigen Rangwerte werden zur Hälfte und zur Hälfte zugeordnet.[4]
- Die Beobachtungen fließen nicht in den Test ein, d. h., muss korrigiert werden. Eine größere Anzahl von gleichen Beobachtungswerten deutet allerdings auf die Gültigkeit der Nullhypothese hin.
Die Teststatistik ist approximativ normalverteilt für :
- .
Außerdem sollte für noch eine Stetigkeitskorrektur durchgeführt werden
- .
Für Werte kleiner gleich 50 liegen die kritischen Werte auch tabelliert vor.[5]
n | ||||||||||||||||||||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
zweiseitig | einseitig | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18 | 19 | 20 | 25 | 30 | 35 | 40 | 45 | 50 |
0,1000 | 0,0500 | 0 | 2 | 3 | 5 | 8 | 10 | 13 | 17 | 21 | 25 | 30 | 35 | 41 | 47 | 53 | 60 | 100 | 151 | 213 | 286 | 371 | 466 | |
0,0500 | 0,0250 | 0 | 2 | 3 | 5 | 8 | 10 | 13 | 17 | 21 | 25 | 29 | 34 | 40 | 46 | 52 | 89 | 137 | 195 | 264 | 343 | 434 | ||
0,0200 | 0,0100 | 0 | 1 | 3 | 5 | 7 | 9 | 12 | 15 | 19 | 23 | 27 | 32 | 37 | 43 | 76 | 120 | 173 | 238 | 312 | 397 | |||
0,0100 | 0,0050 | 0 | 1 | 3 | 5 | 7 | 9 | 12 | 15 | 19 | 23 | 27 | 32 | 37 | 68 | 109 | 159 | 220 | 291 | 373 | ||||
0,0050 | 0,0025 | 0 | 1 | 3 | 5 | 7 | 9 | 12 | 15 | 19 | 23 | 27 | 32 | 60 | 98 | 146 | 204 | 272 | 350 | |||||
0,0010 | 0,0005 | 0 | 1 | 2 | 4 | 6 | 8 | 11 | 14 | 18 | 21 | 45 | 78 | 120 | 172 | 233 | 304 |
Bindungen bei den Rängen
Im Fall, dass Bindungen bei den Rängen der auftreten (d. h., mehrere absolute Differenzen den gleichen Rang bekommen), werden jeder Differenz die Mittelwerte der entsprechenden Ränge zugeordnet (siehe Beispiel unten).
Bezeichnet die Anzahl der Beobachtungen mit dem gleichen Rang wie das Beobachtungspaar , so gilt
und für die Approximation
Lässt man den Korrekturfaktor weg, so ist der Test zu konservativ, d. h., er entscheidet zu oft für die Nullhypothese.
Beispiel
Ein Beispiel für dessen Anwendung: Ein statistisch versierter Bauer möchte feststellen, ob Rinder Heu oder Stroh vorziehen. Er teilt eine Fläche in zwei Bereiche ein, zwischen denen die Tiere frei hin und her wechseln können. Im einen Bereich bietet er den fünf Rindern Stroh resp. im anderen Heu an. Jede halbe Stunde notiert er, wie viele Tiere sich in welchem Bereich aufhalten, und erhält n = 6 Paare von Stichproben.
Das Ergebnis seiner Beobachtungen ist eine Tabelle incl. Differenzen aus den Werten:
Tiere beim Heu | Tiere beim Stroh | Differenz |
---|---|---|
4 | 1 | +3 |
3 | 2 | +1 |
2 | 3 | −1 |
5 | 0 | +5 |
5 | 0 | +5 |
3 | 2 | +1 |
Beitrag zu | |||
---|---|---|---|
Differenz | Rang | ||
+1 | 2 | 2 | |
+1 | 2 | 2 | |
−1 | 2 | 2 | |
+3 | 4 | 4 | |
+5 | 5,5 | 5,5 | |
+5 | 5,5 | 5,5 | |
19 | 2 |
Rang: Die drei 1er Werte müssten die Ränge 1 bis 3 belegen, da sie aber gleichwertig sind, wird der Mittelwert ihrer Ränge eingetragen, also (1+2+3)/3=2. Bei den 5er Werten ebenso: (5+6)/2=5,5.
Dann werden die Differenzen nach der Größe geordnet (das Vorzeichen wird dabei nicht berücksichtigt); und jeder Differenz wird ein Rang zugeordnet – die größte Differenz erhält den höchsten Rang. Sind mehrere Differenzen gleichrangig, wird jedem Wert der durchschnittliche Rang zugeordnet.
Die Rangsumme der positiven Differenzen beträgt und die Rangsumme der negativen Differenzen beträgt , also
- .
Zweiseitiger Test
Beim zweiseitigen Test mit
- (Rinder mögen Heu und Stroh gleich) vs.
- (Rinder bevorzugen eine Sorte)
kann die Nullhypothese zum Signifikanzniveau bzw. nicht abgelehnt werden. Denn
- aus der Tabelle oben ergibt sich für und ein kritischer Wert von . Da der Prüfwert nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
- aus der Tabelle oben ergibt sich für und ein kritischer Wert von . Da der Prüfwert nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.
Einseitige Tests
Auch bei den einseitigen Tests mit
Nullhypothese | Alternativhypothese | |
---|---|---|
Linksseitig | (Rinder mögen Heu mehr oder beide Sorten gleich) | (Rinder mögen Stroh mehr) |
Rechtsseitig | (Rinder mögen Stroh mehr oder beide Sorten gleich) | (Rinder mögen Heu mehr) |
können die Nullhypothesen nicht abgelehnt werden. Denn
- aus der Tabelle oben ergibt sich für und ein kritischer Wert von . Da der Prüfwert nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden bzw.
- aus der Tabelle oben ergibt sich für und ein kritischer Wert von . Da der Prüfwert nicht kleiner als der kritische Wert ist, kann die Nullhypothese nicht abgelehnt werden.
Approximation mit der Normalverteilung beim zweiseitigen Test
Berechnet man – als Näherung – daraus den normalverteilten z-Wert:
Aus der Standardnormalverteilungstabelle ergeben sich für den zweiseitigen Test
- für kritische Werte von . Da der Prüfwert im Intervall liegt, kann die Nullhypothese nicht abgelehnt werden.
- für kritischer Werte von . Da der Prüfwert nicht im Intervall liegt, kann die Nullhypothese abgelehnt werden.
Damit haben die Rinder zu einem 10 % Signifikanzniveau eine Vorliebe für eine der beiden Sorten.
Dies scheint ein Widerspruch zu sein zu dem Ergebnis aus dem exakten zweiseitigen Test. Jedoch ist der mittels der angegebenen Formel berechnete z-Wert nur eine Näherung und nur für einen Stichprobenumfang zuverlässig!
Für die Approximation spielt es bei zweiseitigen Test keine Rolle, ob in der Formel der Wert oder (oder das Minimum von beiden) eingesetzt wird, denn es folgt
- .
D. h., die Testentscheidung wäre die gleiche.
Vergleich mit dem Vorzeichentest
Fünf Stichproben tragen ein positives Vorzeichen (+), eine ein negatives (-). Gemäß der Tabelle der kritischen Werte (MacKinnon, 1964) kann man bei diesem Beispiel lediglich von p < 0,5 ausgehen (d. h. weniger als 50 Prozent Irrtumswahrscheinlichkeit). Hätten alle sechs Stichproben das gleiche Vorzeichen, läge p zwischen 0,02 und 0,1 – hier wurde also eindrücklich gezeigt, dass das Verfahren von Wilcoxon besonders bei kleineren Stichproben-Umfängen brauchbare Resultate liefert.
Literatur
- Sidney Siegel: Nichtparametrische statistische Methoden. Verlag Dietmar Klotz, Eschborn b. Frankfurt a. M. 2001, ISBN 3-88074-102-6.
- Sidney Siegel: Nonparametric statistics for the behavioral sciences. McGraw-Hill, New York (etc.) circa 1988 (vergriffen)
Einzelnachweise
- Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, 2008, S. 256, 259.
- Frank Wilcoxon: Individual Comparisons by Ranking Methods. In: Biometrics Bulletin, 1(6) (1945), S. 80–83. JSTOR 3001968
- Joachim Hartung: Statistik Lehr- und Handbuch der angewandten Statistik ; [mit zahlreichen durchgerechneten Beispielen]. 15., überarb. und wesentlich erw. Auflage. München 2009, ISBN 978-3-486-59028-9.
- Leonard A. Marascuilo, Maryellen McSweeney: Nonparametric and Distribution-free Methods for the Social Sciences. Brooks/Cole Publishing Co, 1977, ISBN 978-0-8185-0202-6.
- Jürgen Bortz, Gustav A. Lienert, Klaus Boehnke: Verteilungsfreie Methoden in der Biostatistik. 3. Auflage. Springer Verlag, Berlin 2010, S. 729.