From 27c14136b463c8647aa01ff8eba61bf6f0d18503 Mon Sep 17 00:00:00 2001
From: =?UTF-8?q?Konrad=20V=C3=B6lkel?= <konrad.voelkel@hhu.de>
Date: Thu, 25 Apr 2024 10:25:25 +0000
Subject: [PATCH] Update erwartungswert.md

---
 erwartungswert.md | 2 +-
 1 file changed, 1 insertion(+), 1 deletion(-)

diff --git a/erwartungswert.md b/erwartungswert.md
index 30b1809..f1c4170 100644
--- a/erwartungswert.md
+++ b/erwartungswert.md
@@ -269,7 +269,7 @@ Diese Zahl verrät uns, dass wir im Mittel $\log_2(n)$ bits an Information brauc
 Am besten versteht man die Entropie als eine relative Größe, und das werden wir später noch tun.
 
 
-### Unabhängigkeit
+## Unabhängigkeit
 
 :::{admonition} Definition
 Sei $\Omega$ ein Wahrscheinlichkeitsraum. Ereignisse $A,B \subseteq \Omega$ heißen *voneinander unabhängig*, wenn
-- 
GitLab