Prüfung der Inter-Rater-Reliabilität

Fragen und Diskussionen rund um die Arbeit mit SPSS. Für allgemeine Statistik-Themen, die nicht mit SPSS zusammenhängen, bitte das Statistik-Forum nutzen.
Antworten
irpe5001
Beiträge: 2
Registriert: 08.09.2007, 15:56

Prüfung der Inter-Rater-Reliabilität

Beitrag von irpe5001 »

Hallo,

brauche kurz Hilfe. Für meine Diplomarbeit hab ich ein Kategoriensystem entwickelt und muss die Inter-Rater-Reliabilität überprüfen. In zwei Fällen ging das mit Cohen-Kappa, weil eine kxk-Kreuztabelle erstellt werden konnte. In einem Fall stimmen aber die Beobachtungen der Rater in der Anzahl nicht überein, weil bestimmte Dinge aus einem Text herausgelesen wurden und sich die Häufigkeit unterscheidet. Frage ist also: kann die Inter-Rater-Reliabilität bei ungleicher Beobachtungsanzahl anders berechnet werden als mit prozentualer Übereinstimmung? (Die wäre nämlich ungünstig, weil ja dann die Häufigkeiten innerhalb der Zellen gar nicht ins Gewicht fiele...).

Danke für eine Antwort - und schönen Sonntag noch ;-)
Anzeige:Statistik und SPSS: Die besten Bücher
Als Buch oder E-Book - Jetzt bestellen
spss datenanalyse
SPSS - Moderne Datenanalyse - Jetzt bestellen!
statistik datenanalyse
Statistik - Der Weg zur Datenanalyse - Jetzt bestellen!
Antworten