From 27c14136b463c8647aa01ff8eba61bf6f0d18503 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Konrad=20V=C3=B6lkel?= <konrad.voelkel@hhu.de> Date: Thu, 25 Apr 2024 10:25:25 +0000 Subject: [PATCH] Update erwartungswert.md --- erwartungswert.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/erwartungswert.md b/erwartungswert.md index 30b1809..f1c4170 100644 --- a/erwartungswert.md +++ b/erwartungswert.md @@ -269,7 +269,7 @@ Diese Zahl verrät uns, dass wir im Mittel $\log_2(n)$ bits an Information brauc Am besten versteht man die Entropie als eine relative Größe, und das werden wir später noch tun. -### Unabhängigkeit +## Unabhängigkeit :::{admonition} Definition Sei $\Omega$ ein Wahrscheinlichkeitsraum. Ereignisse $A,B \subseteq \Omega$ heißen *voneinander unabhängig*, wenn -- GitLab