diff --git a/deskriptive-statistik.md b/deskriptive-statistik.md
index b8acb43e684ebc65f5aa23387fb0769d6b9dd3e1..28b18cef85790053d053b869c93bef2cc0bbcd82 100644
--- a/deskriptive-statistik.md
+++ b/deskriptive-statistik.md
@@ -104,7 +104,8 @@ Die beschreibende (deskriptive) Statistik besteht aus den Datenanalysen, die *vo
   * Korrelationen
   
     Mit Kovarianz und Korrelation werden wir uns bald beschäftigen müssen. Die Kovarianz verhält sich zur Varianz wie ein Skalarprodukt zu einer Norm. Der (Pearson)-Korrelationskoeffizient wird so normiert, dass er skaleninvariant ist.
-    
+
+[Für eine kurze lockere Übersicht über einen Teil der Frage ``Was sind eigentlich Daten'', insb. der Frage der Skalen, gibt es ein Video vom HeiCAD-Programm ``KI für Alle''](https://www.youtube.com/watch?v=hJVOudzjnEI).
     
 ## Visualisierung
 
diff --git a/erwartungswert.md b/erwartungswert.md
index f1c4170f855c6d59aa6c684f690395df98c1f293..4e237a55073998626d6a38eafdc4c23cdcb944e9 100644
--- a/erwartungswert.md
+++ b/erwartungswert.md
@@ -111,6 +111,10 @@ ist $\texttt{rmse}(v)^2 = \texttt{mse}(v,0) = \frac{1}{n} \sum_{i=1}^n v_i^2$ un
 Ob ein Vektor $v \in \mathbb{R}^n$ für uns Informationen enthält, hängt davon ab, wie viel wir über $v$ bereits wissen.
 Wenn wir z.B. wissen, dass $v$ ein Sample einer auf $\{0,1\}$ gleichverteilten Zufallsvariablen ist, wird uns nicht überraschen, wenn $v$ auch so aussieht. Jeder Eintrag von $v$ entspricht genau einem Bit Information. Wenn aber die Zufallsvariable nicht gleichverteilt ist, sondern z.B. auf den Zahlen $\{1,\dots, 26\}$ der Verteilungshäufigkeit der Buchstaben in der deutschen Sprache entspricht (mit $1$ für "a", $26$ für "z" usw.), so enthält ein Eintrag von $v$ potentiell weniger Informationen. Das "e" ist so häufig, dass wir wenig überrascht sind, wenn wir eins sehen. Ein "x" hingegen würde uns sehr überraschen, aber das kommt ja auch nicht so oft vor. Der mittlere Informationsgehalt ist also geringer als bei einer Gleichverteilung.
 
+### Lagemaße zentraler Tendenz
+
+Zu Median und Mittelwert gehört traditionell noch der Modus, den wir auch noch diskutieren werden.
+[Hier gibt es ein kurzes Erklärvideo (auf Englisch) vom Crash Course Statistics zu Mean, Median und Mode](https://www.youtube.com/watch?v=kn83BA7cRNM&list=PL8dPuuaLjXtNM_Y-bUAhblSAdWRnmBUcr). [Das in der Playlist folgende Video diskutiert die damit zusammenhängenden Begriffe für Streuung von Daten](https://www.youtube.com/watch?v=R4yfNi_8Kqw) (die Abweichung, mit der wir angefangen haben).
 
 
 
diff --git a/intro-stochastik.md b/intro-stochastik.md
index c08ba5e059efca5e1ec5675ae9601dc6158ae33c..032a452b2ba1a9e72eaf5d9834c302bd528bac0e 100644
--- a/intro-stochastik.md
+++ b/intro-stochastik.md
@@ -147,3 +147,5 @@ Sie können also nun ein Stochastik-Buch in die Hand nehmen, dort einen Satz vor
 Wenn Sie sich gern im weiteren Verlauf der Vorlesung mit interaktiven Spielchen der Stochastik nähern wollen, ist [Random Services](
 https://randomservices.org/random/prob/index.html) genau das Richtige für Sie.
 Wenn Sie es lieber elegant-visuell mögen, wird [Seeing Theory](https://seeing-theory.brown.edu/) Sie durch den Stochastik-Teil der Vorlesung begleiten.
+
+[Wenn Sie in 6 Minuten den Würfelwurf (die Gleichverteilung, auch ``Laplace-Experiment'') nochmal von jemand anderem erklärt haben möchten, können Sie das auf YouTube finden im Kanal ``musstewissen Mathe''](https://www.youtube.com/watch?v=zPcjFWQa6Uc).
\ No newline at end of file