diff --git a/expectation-maximization.ipynb b/expectation-maximization.ipynb
index 021dc4eeb235dbcdf524cda860d8f323fd789a3d..9bbad51aae52486b5d5cf35633a3290f1824334c 100644
--- a/expectation-maximization.ipynb
+++ b/expectation-maximization.ipynb
@@ -5656,7 +5656,7 @@
    "name": "python",
    "nbconvert_exporter": "python",
    "pygments_lexer": "ipython3",
-   "version": "3.8.10"
+   "version": "3.9.2"
   }
  },
  "nbformat": 4,
diff --git a/relative-entropie.md b/relative-entropie.md
index 7e75cb6d37379cd5f10c0ebd38d75a89d4f0f537..c044703fe421de45f65af2d9c547a31d5f4896e4 100644
--- a/relative-entropie.md
+++ b/relative-entropie.md
@@ -302,7 +302,7 @@ Sei $P$ eine stetige Verteilung mit Dichtefunktion $f$, die auf einer Menge $\Om
 Dann heißt
 
 $$
-h(X) := \mathbb{E}\left( -\log(f(X)) \right) = \int_\Omega f(x) \log f(x) dx
+h(X) := \mathbb{E}\left( -\log(f(X)) \right) = - \int_\Omega f(x) \log f(x) dx
 $$
 
 die *differentielle Entropie* von $X$ (definiert ebenfalls von Claude Shannon).