brauche kurz Hilfe. Für meine Diplomarbeit hab ich ein Kategoriensystem entwickelt und muss die Inter-Rater-Reliabilität überprüfen. In zwei Fällen ging das mit Cohen-Kappa, weil eine kxk-Kreuztabelle erstellt werden konnte. In einem Fall stimmen aber die Beobachtungen der Rater in der Anzahl nicht überein, weil bestimmte Dinge aus einem Text herausgelesen wurden und sich die Häufigkeit unterscheidet. Frage ist also: kann die Inter-Rater-Reliabilität bei ungleicher Beobachtungsanzahl anders berechnet werden als mit prozentualer Übereinstimmung? (Die wäre nämlich ungünstig, weil ja dann die Häufigkeiten innerhalb der Zellen gar nicht ins Gewicht fiele...).
Danke für eine Antwort - und schönen Sonntag noch
