Stochastik - Wahrscheinlichkeitsrechnung
Die StochastikZusammenfassung von Wahrscheinlichkeitsrechnung und Statistikbeschäftigt sich mit Zufallsexperimenten und deren Wahrscheinlichkeiten.
Als Ursprung der Wahrscheinlichkeitsrechnung werden Fragen zum Würfelspiel angesehen, die man Mitte des 17.Jahrhunderts dem Mathematiker Blaise Pascal gestellt hat. Ein davon lautet: Was ist wahrscheinlicher, mit einem Würfel in vier Versuchen eine 6 zu würfeln (Wahrscheinlichkeit A) oder mit zwei Würfeln in 24 Versuchen eine Doppelsechs (Wahrscheinlichkeit B)" Blaise Pascal hat diese Frage 1654 beantwortet ohne natürlich die Sprache der Wahrscheinlichkeit zu verwenden. Diese wurde erst 160 Jahre später von Pierre-Simon Laplace eingeführt.
Wahrscheinlichkeiten werden mit P(..) bezeichnet (probabilité); sie liegen zwischen 0 (unmögliches Ereignis) und 1 (sicheres Ereignis). Führt man einen Zufallsexperiment A (z.B. Würfelwurf) mehrmals hintereinander aus, so kann man die relative Häufigkeit h(A) als
\(%5Cfrac%20%7BAnzahl%20%5Cquad%20%5Cquad%20der%20%5Cquad%20g\ddot {u}nstigen%20%5Cquad%20Ausgddot {a}nge%7D%7BAnzahl%20%5Cquad%20der%20%5Cquad%20mddot {o}glichen%20%5Cquad%20Ausgddot {a}nge%7D\)
berechnen. Für diesen Wert gilt ebenfalls stets \(0 \leq h(A)\leq 1 \) und gibt für eine große Anzahl von Würfen eine Näherung für die Wahrscheinlichkeit P(A).
Hier ist die Antwort von Pascal in unserer Sprache:
Zu A: \(P(\text{eine Sechs}) = \frac{1}{6}, P(\text{keine Sechs}) = 1- \frac{1}{6}=\frac{5}{6}\) also
\(P(\text{in vier Versuchen keine Sechs}) =(\frac{5}{6})^4 \) und
,
also etwas mehr als die Hälfte.
Zu B: \(P(\text{Doppelsechs}) = \frac{1}{36}\), also analog
,
also etwas weniger als die Hälfte.
Im Jahr 1933 wurde die Wahrscheinlichkeitsrechnung durch den russischen Mathematiker Andrei Nikolajewitsch Kolmogorow axiomatisch begründet:
1. Jedem Ereignis A, d.h. einer Teilmenge des Stichprobenraumesist eine reelle Zahl P(A), zugeordnet.
2. Für die Funktion P: P(?) -> \(\mathbb{R}\) gilt:
- \(P(A)\geq 0\) , Wahrscheinlichkeiten sind nie negativ.
- P(?) = 1, die Wahrscheinlichkeit des sicheren Ereignisses ist 1
- Für eine abzählbare Auswahl zueinander fremder Mengen A1, A2," gilt:
\(P(A1\cup A2\cup ...) = \sum P(A_i)\)
d.h. die Wahrscheinlichkeit einer Vereinigung mehrerer voneinander unabhängiger Ereignisse
ist gleich der Summe der Wahrscheinlichkeiten der Einzelereignisse.
Aus diesen Axiomen kann man weitere Gesetze herleiten:
- \(P(\varnothing ) = 0\), das unmögliche Ereignis hat die Wahrscheinlichkeit 0,
- \(P(\Omega -A) = 1-P(\Omega)\) (Wahrscheinlichkeit des komplementären Ereignisses)
- \(P(A\cup B)=P(A)+P(B)-P(A\cap B)\) (Wahrscheinlichkeit, dass A oder B eintrifft)
- \(P(A \cup B) = P(A)\cdot P(B|A) = P(B) \cdot P(A|B)\) (bedingte Wahrscheinlichkeit, P(A|B) = Wahrscheinlichkeit von A unter der Bedingung B)
Bedingte Wahrscheinlichkeiten kann man zur Lösung des folgenden Problems verwendenobwohl es auch anders gehtwobei eine Formel von Thomas Bayes benutzt wird.
Zerlegt man die Grundmengedisjunkt in paarweise unabhängige Ereignisse \(A_1,...,A_n \)
(d.h., es ist \(A_i \cap A_j = \varnothing \), für ij) und ist \(B\subset \Omega\) ein weiteres Ereignis, so gelten die Formeln
\(P(B)=\sum_{k=1}^{n}P(B|A_k)P(A_k)\)
und
\(P(A_k|B)= \frac{(P(A_k)P(B|A_k))}{\sum_{j=1}^{n}P(B|A_j)P(A_j)}\)
Beispiel: (Ziegenproblem) Der Kandidat in einer Spielshow wird vor die folgende Wahl gestellt: Öffne eine von drei geschlossenen Türen. Hinter einer Tür befindet sich ein hoher Preis hinter den anderen beiden jeweils eine Ziege als Niete. Nachdem er seine Wahl getroffen hat, öffnet der Moderator diejenige der beiden noch geschlossenen Türen, hinter der sich eine Ziege befindet. Der Kandidat kann nun bei seiner ersten Wahl bleiben oder sich anders entscheiden. Was ist für ihn günstiger"
Man betrachtet nun die Ereignisse \(K_i\) , Kandidat öffnet Tür i, \(M_j\) , Moderator öffnet Tür j und \(G_k\) , Gewinn ist hinter Tür k. Hat der Kandidat Tür 1 gewählt und der Moderator Tür 2, so muss \(P(G_3|M_2)\) berechnet werden. Offensichtlich ist \(P(G_1 \cup G_2 \cup G_3) = 1, P(K_i) = \frac{1}{3} \) und \(P(M_j) = \frac{1}{2} \) in zwei Fällen und = 0 in einem Fall. Damit folgt nun
\(P(G_3|M_2)=\frac{P(G_3)P(M_2|G_3)}{\sum_{j=1}^{3}P(M_2|G_j)P(G_j)}=\frac{\frac{1}{3} \cdot 1}{\frac{1}{2} \cdot \frac{1}{3}+0 \cdot \frac{1}{3}+1 \cdot \frac{1}{3}}=\frac{2}{3}\).
Die Wahrscheinlichkeit zu gewinnen verdoppelt sich also, wenn sich der Kandidat anders entscheidet.
In der Statistik werden die Methoden der Wahrscheinlichkeitsrechnung verwendet, um Hypothesen zu verwerfen (oder zu bestätigen).