From e567888af416cd1d7459699dc5a6ee0cd5cf83f7 Mon Sep 17 00:00:00 2001 From: feger <marc.feger@hhu.de> Date: Mon, 9 Dec 2019 08:33:22 +0100 Subject: [PATCH] =?UTF-8?q?Add=20more=20Begr=C3=BCndung?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- "Begr\303\274ndung.txt" | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git "a/Begr\303\274ndung.txt" "b/Begr\303\274ndung.txt" index 6dfac19..2f1979b 100644 --- "a/Begr\303\274ndung.txt" +++ "b/Begr\303\274ndung.txt" @@ -1,7 +1,7 @@ Ich habe mich für Krippendorff's Alpha entschieden, da es anders als Bennett S, Scott's Pi, Cohen's Kappa usw. nicht von dem Joint Probability of Agreement abhängt. Da wir in unserem Datensatz nur 4 Kategorien zur Annotation zur Verfügung haben wäre der Einsatz eines der oben genannten -IA-A-Maße nicht sinnvoll. Eine Schwäche der Joint Probability of Agreement ist es, dass es das Level der Übereinstummung +IAA-Maße nicht sinnvoll. Eine Schwäche der Joint Probability of Agreement ist es, dass es das Level der Übereinstimmung für eine kleine Anzahl an Kategorien überbewertet. Da wir in unseren Szenario mit nur 4 Kategorien arbeiten kann davon ausgegangen werden, dass diese geringe Anzahl an Kategorien dazu beitragen würde, dass Joint Probability of Agreement nicht adäquat die Übereinstimmung wiedergibt. -- GitLab