Stochastik – Wahrscheinlichkeitsrechnung

Online Mathe üben

Die Stochastik – Zusammenfassung von Wahrscheinlichkeitsrechnung und Statistik – beschäftigt sich mit Zufallsexperimenten und deren Wahrscheinlichkeiten.

Als Ursprung der Wahrscheinlichkeitsrechnung werden Fragen zum Würfelspiel angesehen, die man Mitte des 17.Jahrhunderts dem Mathematiker Blaise Pascal gestellt hat. Ein davon lautet: Was ist wahrscheinlicher, mit einem Würfel in vier Versuchen eine 6 zu würfeln (Wahrscheinlichkeit A) oder mit zwei Würfeln in 24 Versuchen eine Doppelsechs (Wahrscheinlichkeit B)? Blaise Pascal hat diese Frage 1654 beantwortet ohne natürlich die Sprache der Wahrscheinlichkeit zu verwenden. Diese wurde erst 160 Jahre später von Pierre-Simon Laplace eingeführt.

Wahrscheinlichkeiten werden mit P(..) bezeichnet (probabilité); sie liegen zwischen 0 (unmögliches Ereignis) und 1 (sicheres Ereignis). Führt man einen Zufallsexperiment A (z.B. Würfelwurf) mehrmals hintereinander aus, so kann man die relative Häufigkeit h(A) als

\(%5Cfrac%20%7BAnzahl%20%5Cquad%20%5Cquad%20der%20%5Cquad%20g\ddot {u}nstigen%20%5Cquad%20Ausgddot {a}nge%7D%7BAnzahl%20%5Cquad%20der%20%5Cquad%20mddot {o}glichen%20%5Cquad%20Ausgddot {a}nge%7D\)

berechnen. Für diesen Wert gilt ebenfalls stets \(0 \leq h(A)\leq 1 \) und gibt für eine große Anzahl von Würfen eine Näherung für die Wahrscheinlichkeit P(A).

Hier ist die Antwort von Pascal in unserer Sprache:

Zu A: \(P(\text{eine Sechs}) = \frac{1}{6}, P(\text{keine Sechs}) = 1- \frac{1}{6}=\frac{5}{6}\) also

\(P(\text{in vier Versuchen keine Sechs}) =(\frac{5}{6})^4 \) und

wahrschein1 Stochastik   Wahrscheinlichkeitsrechnung,

also etwas mehr als die Hälfte.

Zu B: \(P(\text{Doppelsechs}) = \frac{1}{36}\), also analog

wahrschein2 Stochastik   Wahrscheinlichkeitsrechnung,

also etwas weniger als die Hälfte.

Im Jahr 1933 wurde die Wahrscheinlichkeitsrechnung durch den russischen Mathematiker Andrei Nikolajewitsch Kolmogorow axiomatisch begründet:

1. Jedem Ereignis A, d.h. einer Teilmenge des Stichprobenraumes Ω ist eine reelle Zahl P(A), zugeordnet.

2. Für die Funktion P: P(Ω) -> \(\mathbb{R}\) gilt:

  • \(P(A)\geq 0\) , Wahrscheinlichkeiten sind nie negativ.
  • P(Ω) = 1, die Wahrscheinlichkeit des sicheren Ereignisses ist 1
  • Für eine abzählbare Auswahl zueinander fremder Mengen A1, A2,… gilt:

\(P(A1\cup A2\cup …) = \sum P(A_i)\)

d.h. die Wahrscheinlichkeit einer Vereinigung mehrerer voneinander unabhängiger Ereignisse
ist gleich der Summe der Wahrscheinlichkeiten der Einzelereignisse.

Aus diesen Axiomen kann man weitere Gesetze herleiten:

  • \(P(\varnothing ) = 0\), das unmögliche Ereignis hat die Wahrscheinlichkeit 0,
  • \(P(\Omega -A) = 1-P(\Omega)\) (Wahrscheinlichkeit des komplementären Ereignisses)
  • \(P(A\cup B)=P(A)+P(B)-P(A\cap B)\) (Wahrscheinlichkeit, dass A oder B eintrifft)
  • \(P(A \cup B) = P(A)\cdot P(B|A) = P(B) \cdot P(A|B)\) (bedingte Wahrscheinlichkeit, P(A|B) = Wahrscheinlichkeit von A unter der Bedingung B)

Bedingte Wahrscheinlichkeiten kann man zur Lösung des folgenden Problems verwenden – obwohl es auch anders geht – wobei eine Formel von Thomas Bayes benutzt wird.

Zerlegt man die Grundmenge Ω disjunkt in paarweise unabhängige Ereignisse \(A_1,…,A_n \)

(d.h., es ist \(A_i \cap A_j = \varnothing \), für i ≠ j) und ist \(B\subset \Omega\) ein weiteres Ereignis, so gelten die Formeln

\(P(B)=\sum_{k=1}^{n}P(B|A_k)P(A_k)\)

und

\(P(A_k|B)= \frac{(P(A_k)P(B|A_k))}{\sum_{j=1}^{n}P(B|A_j)P(A_j)}\)

Beispiel: (Ziegenproblem) Der Kandidat in einer Spielshow wird vor die folgende Wahl gestellt: Öffne eine von drei geschlossenen Türen. Hinter einer Tür befindet sich ein hoher Preis hinter den anderen beiden jeweils eine Ziege als Niete. Nachdem er seine Wahl getroffen hat, öffnet der Moderator diejenige der beiden noch geschlossenen Türen, hinter der sich eine Ziege befindet. Der Kandidat kann nun bei seiner ersten Wahl bleiben oder sich anders entscheiden. Was ist für ihn günstiger?

Man betrachtet nun die Ereignisse \(K_i\) , Kandidat öffnet Tür i, \(M_j\) , Moderator öffnet Tür j und \(G_k\) , Gewinn ist hinter Tür k. Hat der Kandidat Tür 1 gewählt und der Moderator Tür 2, so muss \(P(G_3|M_2)\) berechnet werden. Offensichtlich ist \(P(G_1 \cup G_2 \cup G_3) = 1, P(K_i) = \frac{1}{3} \) und \(P(M_j) = \frac{1}{2} \) in zwei Fällen und = 0 in einem Fall. Damit folgt nun

\(P(G_3|M_2)=\frac{P(G_3)P(M_2|G_3)}{\sum_{j=1}^{3}P(M_2|G_j)P(G_j)}=\frac{\frac{1}{3} \cdot 1}{\frac{1}{2} \cdot \frac{1}{3}+0 \cdot \frac{1}{3}+1 \cdot \frac{1}{3}}=\frac{2}{3}\).

Die Wahrscheinlichkeit zu gewinnen verdoppelt sich also, wenn sich der Kandidat anders entscheidet.

In der Statistik werden die Methoden der Wahrscheinlichkeitsrechnung verwendet, um Hypothesen zu verwerfen (oder zu bestätigen).

Online Mathe üben!