Skip to content

Grenzwertsätze#

Ungleichung von Tschebyscheff#

Wenn X eine Zufallsvariable ist mit einem Erwartungswert von μ und eine Varianz σ2 dann kann man die Wahrscheinlichkeit die folgende Wahrscheinlichkeit abschätzen für jede mögliche Verteilung von X

P(|Xμ|k)σ2k2, für k > 0

daraus folgt dann auch

P(|Xμ|<k)1σ2k2
Beispiel Ungleichung von Tschebyscheff

Für die Grösse einer erwachsenen Personen haben wir einen Erwartungswert von 175cm und eine Standardabweichung von 10cm. Was ist die Wahrscheinlichkeit, dass eine Person kleiner als 160cm oder grösser als 190cm ist.

Abschätzung mit Tschebyscheff:

P(|X175cm|15)10015244.4%

Tatsächlich mit Normalverteilung:

P(|X175cm|15)=1(normcdf(190,175,10)normcdf(160,175,10))13.4%

Mehr dazu findest du hier

Gesetz der grossen Zahlen#

Wir wissen wenn wir eine Zufallsvariable Xi mit einer Bernoulli Verteilung haben also XiB(p) dann ist i=1nXiBin(n,p). Die relative Häufigkeit ist wie wir wissen die Anzahl des Eintreffen eines Ereignis X durch die anzahl unabhängige Ausführungen des Experiments n dann gilt folgendes

limnP(|Xnp|e)=0

Was so viel heisst wie wenn desto mehr unabhängige Experimente wir ausführen desto besser stabilisiert sich die relative Häufigkeit um den Erwartungswert.

Mehr dazu findest du hier

Zentraler Grenzwertsatz#

Der zentrale Grenzwertsatz liefert die Begründung für das Phänomen, dass sich bei der additiven Überlagerung vieler kleiner unabhängiger Zufallsexperiment approximativ zu einer Normalverteilung wird.

Wenn wir also eine Folge von unabhängigen Zufallsvariablen X1,X2,...vom gleichen Wahrscheinlichkeitsraum haben welche alle dieselbe Verteilung mit Erwartungswert μ und Varianz σ2 haben dann gilt für n die Anzahl Zufallsvariablen und die Summe Sn=X1+...+Xn. Dann hat die Summe approximative die Normalverteilung N(μn,σn) wobei μn=nμ und σn=nσ.

Diese Verteilung kann dann natürlich auch noch standardisiert werden.

SnμnnσN(0,1)

Satz von Moivre-Laplace#

Weil eine Binomialverteilte Zufallsvariable XBin(n,p) als Summe von n Bernoulliverteilte Zufallsvariablen interpretiert werden kann und wir sie mit der Normalverteilung annähern können mit N(np,np(1p)) können wir ein paar Approximationen machen. Wobei normcdf(x) die Verteilungsfunktion der standardisierten Normalverteilung ist.

Mit dem Satz können wir für n>9p(1p) folgendes gut approximieren

P(aXb)normcdf(bnpnp(1p))normcdf(anpnp(1p))

Genauer wird es dann mit der Stetigkeitskorrektur

P(aXb)normcdf(b+12npnp(1p))normcdf(a12npnp(1p))
Beispiel Satz von Moivre-Laplace

Ein fairer Würfel wirf 1000 mal geworfen. Wie hoch ist die Wahrscheinlichkeit, dass wir zwischen 150 und 200 sechs würfeln?

Genau:

binocdf(200,1000,1/6)bincdf(149,1000,1/6)=0.9265

Mit Satz von Moivre-Laplace:

normcdf(200+12100061000536)normcdf(15012100061000536)=0.9253

Simulation von Zufallsvariablen#

Manchmal ist es nur mit grossem Aufwand Wahrscheinlichkeiten zu exakt berechnen. Eine Lösung für dieses Problem ist die Zufallsvariable zu simulieren, also Zahlen zu erzeugen die korrekt verteilt sind und dann schauen, welcher Prozentsatz dieser Zahlen im gesuchten Ereignis liegen. Dank dem Gesetz der grossen Zahlen wird diese Wahrscheinlichkeit genauer mit wachsender Anzahl an Wiederholungen.

In den meisten Programmiersprachen ist der sogenannte lineare Kongruenzgenerator eingebaut welcher ein Pseudozufallszahlengenerator ist. Das heisst er erzeugt die Zahlen nicht wirklich zufällig sondern berechnet sie anhand eines Startwerts, der sogenannte Seed (oftmals die Systemzeit).

Für kryptographische Zwecke wie Schlüsselerzeugung sind Pseudozufallszahlengenerator nicht geeinigt, weil mit wenigen Werten kann man die verwendete Parameter berechnen und kann dann die Zufallsvariablen voraus sehen.

Linearer Kongruenzgenerator#

Beim linearen Kongruenzgenerator haben wir ein sogenanntes modul m>1 und einen Anfangswert (der Seed) x0 und zwei weitere Werte a und b. Wichtig dabei ist, dass a,b,x0{0,1,...,m1} sind. Dann können wir eine Zufallszahl wie gefolgt berechnen

xn+1=(axn+b) mod m

Wir erhalten dann einen Wert aus dem endlichen Bereich 0,1,...m1. Weil der Wertebereich endlich ist gibt es eine Periode. Wenn z.B. m=12,a=4,b=1,x0=1 dann wiederholt sich die Folge schon nach dem dritten Wert.

Der Satz von Knuth besagt, damit die Periodenlänge maximal ist, also m muss folgendes gelten: - b ist zum Modul m teilerfremd, also ggt(b,m)=1. - Jeder Primfaktor von m teilt a1. - Wenn m durch 4 teilbar ist, dann muss auch a1 durch 4 teilbar sein.

Durch eine Transformation bekommen wir auch nur noch Werte im Intervall [a,b].

zn=a+(b1)xnm

Die Werte U die wir erhalten sind im Intervall [a,b] gleich verteilt.

Inversionsmethode#

Wir können nun unsere Zufallszahlen auf eine bestimmte Verteilung abbilden mit der Inversionsmethode.

Es sei F eine streng monoton steigende Verteilungsfunktion und U eine im Intervall [0,1] gleichverteilte Zufallsvariable dann ist Zufallsvariable F1(U) verteilt mit der Verteilungsfunktion F.

Back to top