diff --git a/expectation-maximization.ipynb b/expectation-maximization.ipynb index 021dc4eeb235dbcdf524cda860d8f323fd789a3d..9bbad51aae52486b5d5cf35633a3290f1824334c 100644 --- a/expectation-maximization.ipynb +++ b/expectation-maximization.ipynb @@ -5656,7 +5656,7 @@ "name": "python", "nbconvert_exporter": "python", "pygments_lexer": "ipython3", - "version": "3.8.10" + "version": "3.9.2" } }, "nbformat": 4, diff --git a/relative-entropie.md b/relative-entropie.md index 7e75cb6d37379cd5f10c0ebd38d75a89d4f0f537..c044703fe421de45f65af2d9c547a31d5f4896e4 100644 --- a/relative-entropie.md +++ b/relative-entropie.md @@ -302,7 +302,7 @@ Sei $P$ eine stetige Verteilung mit Dichtefunktion $f$, die auf einer Menge $\Om Dann heißt $$ -h(X) := \mathbb{E}\left( -\log(f(X)) \right) = \int_\Omega f(x) \log f(x) dx +h(X) := \mathbb{E}\left( -\log(f(X)) \right) = - \int_\Omega f(x) \log f(x) dx $$ die *differentielle Entropie* von $X$ (definiert ebenfalls von Claude Shannon).