Cohens Kappa

Cohens Kappa ist ein statistisches Maß für die Interrater-Reliabilität von Einschätzungen von (in der Regel) zwei Beurteilern (Ratern), das Jacob Cohen 1960 vorschlug. Dieses Maß kann aber auch für die Intrarater-Reliabilität verwendet werden, bei dem derselbe Beobachter zu zwei verschiedenen Zeitpunkten die gleiche Messmethode anwendet.[1] Die Gleichung für Cohens Kappa lautet

wobei der gemessene Übereinstimmungswert der beiden Schätzer und die zufällig erwartete Übereinstimmung ist. Wenn die Rater in allen ihren Urteilen übereinstimmen, ist . Sofern sich nur Übereinstimmungen zwischen den beiden Ratern feststellen lassen, die mathematisch dem Ausmaß des Zufalls entsprechen, nimmt es einen Wert von an. (Negative Werte weisen dagegen auf eine Übereinstimmung hin, die noch kleiner ist als eine zufällige Übereinstimmung.)

Greve und Wentura (1997, S. 111) schlagen vor, dass -Werte von 0,40 bis 0,60 noch annehmbar sind, aber Werte unter 0,40 mit Skepsis betrachtet werden sollten. Interrater-Reliabilitätswerte von seien gut bis ausgezeichnet.

Landis und Koch (1977) schlagen vor: = „schlechte Übereinstimmung (poor agreement)“, = „etwas (slight) Übereinstimmung“, 0,21–0,40 = „ausreichende (fair) Übereinstimmung“, 0,41–0,60 = „mittelmäßige (moderate) Übereinstimmung“, 0,61–0,80 = „beachtliche (substantial) Übereinstimmung“, 0,81–1,00 = „(fast) vollkommene ((almost) perfect) Übereinstimmung“.

Problematisch a​m Koeffizienten ist, d​ass sein maximaler Wert n​icht immer Eins i​st (s. u.).

Nominalskalen, zwei Rater

Wenn lediglich Übereinstimmungen und Nicht-Übereinstimmungen zwischen den beiden Ratern abgeprüft werden, fallen alle auftretenden Beurteilungsunterschiede gleich ins Gewicht. Dies ist insbesondere bei Nominalskalen sinnvoll. Dabei kann das Datenmaterial (also die Urteilshäufigkeiten ) bei einem Item oder Merkmal mit (nominalen) Kategorien von beiden Einschätzern in einer Kontingenztafel (also mit Zeilen und Spalten) abgetragen werden:

  Rater B Randhäufigkeiten
Rater A...
...
.......
.......
.......
...
Randhäufigkeiten ...

Dann gilt für den Anteil der übereinstimmenden Einschätzungen der Rater (= Mitteldiagonale der Kontingenztafel) :

,

wobei der Anzahl der insgesamt eingeschätzten Beurteilungsobjekte (Personen/Items/Gegenstände) entspricht.

Für die erwarteten Übereinstimmungen werden die Produkte der Randsummen (= Zeilensumme × Spaltensumme) einer Kategorie aufsummiert und schließlich ins Verhältnis zum Quadrat der Gesamtsumme gesetzt:

.

Scott (1955) schlug für seinen Koeffizienten , der nach derselben Ausgangsformel wie berechnet wird, vor, die erwarteten Übereinstimmungen wie folgt zu bestimmen:

.

Sofern die Randverteilungen unterschiedlich sind, ist Scotts immer größer als Cohens .

Sobald in der Kontingenztafel eine Zelle jenseits der Diagonalen gefüllt ist (also Beurteilungsunterschiede auftreten), hängt der maximale Wert von Cohens Kappa von den Randverteilungen ab. Er wird umso geringer, je weiter sich die Randverteilungen von einer Gleichverteilung entfernen. Brennan und Prediger (1981) schlagen hier einen korrigierten Kappa-Wert vor, der definiert als , wobei wie oben die Anzahl der Kategorien (also der Merkmalsausprägungen) ist. Somit lautet :

Fleiss' Kappa

Die Ausweitung der Formeln auf mehr als zwei Rater ist im Prinzip unproblematisch. Die Ausweitung der -Statistik wird auch als Fleiss' Kappa bezeichnet. Für den Anteil der aufgetretenen Übereinstimmungen gilt dann z. B. für drei Rater

und

.

Für den Koeffizienten von Brennan und Prediger (1981) schlägt von Eye (2006, S. 15) folgende Ausweitung auf Rater vor:

wobei ein Index für die Übereinstimmungszellen (Diagonalen) ist.

Wenn wie oben die Anzahl der Kategorien () ist und die Anzahl der Rater (= Anzahl der Einschätzungen pro Merkmal/Item/Person) und wobei die Anzahl der insgesamt eingeschätzten Beurteilungsobjekte (Fälle/Personen/Items/Gegenstände) ist, gilt folgendes:

  • ist die Anzahl der Rater, die Beurteilungsobjekt in Kategorie passend beurteilt hat.
  • ist die Summe aller Fälle in Beurteilungskategorie .
  • ist der Anteil aller Fälle in Beurteilungskategorie an allen () Beurteilungen insgesamt.

Das Ausmaß der Beurteilerübereinstimmung beim . Fall (=bei der . Person/Item/Gegenstand) berechnet sich dann als

In die -Formel fließt der Mittelwert über alle ein sowie der Erwartungswert für den Zufall ein:

.
12345
1 0000141,000
2 026420,253
3 003560,308
4 039200,440
5 228110,330
6 770000,462
7 326300,242
8 253220,176
9 652100,286
10 022370,286
Gesamt 2028392132
0,1430,2000,2790,1500,229
Beispieltafel zur Berechnung von Fleiss’ Kappa

Beispiel

Im folgenden Rechenbeispiel beurteilen Rater jeweils Fälle auf einer Skala mit Kategorien.

Die Kategorien finden sich in den Spalten, die Fälle in den Zeilen. Die Summe aller Beurteilungen .

Beispielsweise ist in der ersten Spalte

und in der zweiten Zeile

So ergibt s​ich für

und

(Dass hier so ähnlich ist wie ist Zufall.)

Mehrfachstufung der Messobjekte, zwei Rater

Sind die Rater aufgefordert, die Schätzobjekte mehrfach zu stufen (d. h. statt der k nominalen Kategorien geht es nun um Abstufungen und kann für diese Abstufungen mindestens ein Ordinal-Skalenniveau angenommen werden), sollten diskordant größere Abweichungen der Rater voneinander stärker ins Gewicht fallen als kleinere Abweichungen. In diesem Fall sollte ein gewichtetes Kappa berechnet werden, bei dem für jede Zelle ij der Kontingenztafel ein Gewichtungsfaktor definiert wird, das sich z. B. daran orientieren könnte, wie groß die Abweichung von der Mitteldiagonalen ist (z. B. als quadrierte Abweichungen Mitteldiagonalzellen=0, Abweichungen um 1 Kategorie=1, Abweichungen um 2 Kategorien==4 usw.). Dann gilt für dieses (gewichtete) Kappa (vgl. Bortz 1999):

Alternativen z​u diesem Koeffizienten s​ind der Rangkorrelationskoeffizient n​ach Spearman u​nd der Kendall’sche Rangkorrelationskoeffizient (Kendall’sches Tau) s​owie der Kendall’sche Konkordanzkoeffizient W.

Kardinalskalen-Kappa

Dieser Gewichtungsgedanke lässt s​ich auch weiterführen: Auf Intervall-Skalenniveau i​st das Ausmaß d​es Unterschieds (bzw. d​er Ähnlichkeit) zwischen d​en abgegebenen Einschätzungen s​ogar direkt quantifizierbar (Cohen 1968, 1972). Die Gewichtungswerte für j​ede Zelle d​er Kontingenztafel orientieren s​ich dann jeweils a​m maximalen u​nd minimalem Unterschied.

Für das Kardinalskalen- gilt, dass identische Einschätzungen (bzw. der Minimalunterschied zwischen Beobachtern) standardisiert mit dem Wert 0 und der maximale Beobachterunterschied mit einem Wert von 1 gewichtet werden sollen (und die anderen beobachteten Unterschiede jeweils in ihrem Verhältnis dazu):

und für d​ie [0,1]-Standardisierung d​er Gewichte:

.

Das gewichtete Kappa i​st ein Spezialfall d​es Intraklassen-Korrelationskoeffizienten (Fleiss & Cohen 1973).

Einzelnachweise

  1. Kilem Li Gwet: Intrarater Reliability. In: Wiley Encyclopedia of Clinical Trials. John Wiley & Sons, 2008 (agreestat.com [PDF]).

Literatur und Quellen

  • J. Bortz: Statistik für Sozialwissenschaftler. 5. Auflage. Springer, Berlin 1999.
  • J. Bortz, G. A. Lienert, K. Boehnke: Verteilungsfreie Methoden in der Biostatistik. Kapitel 9. Springer, Berlin 1990.
  • R. L. Brennan, D. J. Prediger: Coefficient : Some uses, misuses, and alternatives. In: Educational and Psychological Measurement. 41, 1981, S. 687–699.
  • J. Cohen: A coefficient of agreement for nominal scales. In: Educational and Psychological Measurement. 20, 1960, S. 37–46.
  • J. Cohen: Weighted kappa: Nominal scale agreement with provision for scaled disagreement or partial credit. In: Psychological Bulletin. 1968, S. 213–220.
  • J. Cohen: Weighted chi square: An extension of the kappa method. In: Education and Psychological Measurement. 32, 1972, S. 61–74.
  • J. L. Fleiss: The measurement of interrater agreement. In: ders., Statistical methods for rates and proportions. 2. Auflage. John Wiley & Sons, New York 1981, S. 212–236, Kapitel 13.
  • J. L. Fleiss, J. Cohen: The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability. In: Educational and Psychological Measurement. 33, 1973, S. 613–619.
  • W. Greve, D. Wentura: Wissenschaftliche Beobachtung: Eine Einführung. PVU/Beltz, Weinheim 1997.
  • J. R. Landis, G. G. Koch: The measurement of observer agreement for categorical data. In: Biometrics. 33, 1977, S. 159–174.
  • W. A. Scott: Reliability of content analysis: The case nominal scale coding. In: Public Opinion Quarterly. 19, 1955, S. 321–325.
  • A. von Eye: An Alternative to Cohen's . In: European Psychologist. 11, 2006, S. 12–24.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. The authors of the article are listed here. Additional terms may apply for the media files, click on images to show image meta data.