From e567888af416cd1d7459699dc5a6ee0cd5cf83f7 Mon Sep 17 00:00:00 2001
From: feger <marc.feger@hhu.de>
Date: Mon, 9 Dec 2019 08:33:22 +0100
Subject: [PATCH] =?UTF-8?q?Add=20more=20Begr=C3=BCndung?=
MIME-Version: 1.0
Content-Type: text/plain; charset=UTF-8
Content-Transfer-Encoding: 8bit

---
 "Begr\303\274ndung.txt" | 2 +-
 1 file changed, 1 insertion(+), 1 deletion(-)

diff --git "a/Begr\303\274ndung.txt" "b/Begr\303\274ndung.txt"
index 6dfac19..2f1979b 100644
--- "a/Begr\303\274ndung.txt"
+++ "b/Begr\303\274ndung.txt"
@@ -1,7 +1,7 @@
 Ich habe mich für Krippendorff's Alpha entschieden, da es anders als Bennett S, Scott's Pi, Cohen's Kappa usw. nicht
 von dem Joint Probability of Agreement abhängt.
 Da wir in unserem Datensatz nur 4 Kategorien zur Annotation zur Verfügung haben wäre der Einsatz eines der oben genannten
-IA-A-Maße nicht sinnvoll. Eine Schwäche der Joint Probability of Agreement ist es, dass es das Level der Übereinstummung
+IAA-Maße nicht sinnvoll. Eine Schwäche der Joint Probability of Agreement ist es, dass es das Level der Übereinstimmung
 für eine kleine Anzahl an Kategorien überbewertet. Da wir in unseren Szenario mit nur 4 Kategorien arbeiten kann davon ausgegangen
 werden, dass diese geringe Anzahl an Kategorien dazu beitragen würde, dass Joint Probability of Agreement nicht adäquat die
 Übereinstimmung wiedergibt.
-- 
GitLab