Zufall, Ereignisse und Wahrscheinlichkeit#
Grundbegriffe#
Ereignisse#
Hier geht es um Vorgänge deren Ergebnis zu Beginn nicht klar ist und nicht eindeutig vorhergesagt werden kann. Beispielsweise:
Wurf eines Würfels
Entwicklung eines Aktienkurses
Ziehung der Lottozahlen
Wetter von morgen
Ausgang einer Wahl
…
Wir sagen: Ein Zufallsexperiment ist ein Vorgang
der beliebig oft unter gleichartigen Bedingungen wiederholt werden kann und
dessen Ergebnis nicht mit Sicherheit vorhergesagt werden kann Die Menge aller möglichen Ergebnisse des Zufallsexperiments wird Ergebnismenge (oder Ergebnisraum) genannt und mit \(\Omega\) bezeichnet. Eine Teilmenge des Ergebnisraus \(A\subseteq \Omega\) heißt Ereignis.
Ziel der Warhscheinlichkeitstheorie ist es Modelle zu entwicklen, die Aussagen über den Ausgang solcher Zufallsexperimente erlauben.
Beispiel
Beim Wurf eines Würfels gibt es 6 verschiedene Ergebnisse, die Zahlen \(1\) bis \(6\). Der Ergebnisraum ist daher
Ein Ereignis könnte \(A=\{2,4,6\}\) sein. Dies ist also das Ereignis, dass eine gerade Zahl fällt:
Das Ereignis \(B=\{1,2,3,4,5,6\}=\Omega\) heißt das sichere Ereignis (da auf jeden Fall eine der 6 Zahlen fällt).
Das Ereingis \(C=\emptyset\) heißt das unmögliche Ereignis (da es nicht eintreten kann).
Dies ist ein Beispiel mit einer endlichen Ergebnismenge \(\Omega\). Es gibt auch Situationen mit unendlichen Ergebnismengen, z.B. wenn wir zählen, wie viele Notrufe innerhalb von 24 Stunden in einer Notrufzentrale eingehen. Dann wäre \(\Omega=\{0,1,2,3,\dots\}=\mathbb N_0\) eine sinnvolle Ergebnismenge.
Mengeoperationen#
Ereignisse sind Mengen (Teilmengen von \(\Omega\)). Daher können Mengenoperationen wie \(A\cap B\) oder \(A\cup B\) angewandt werden. Auf diese Weise kann man mit Ereignissen neue Ereignisse erzeugen.
\(A\cap B\) …
\(A\) und \(B\)
Schnitt der Ereignisse \(A\) und \(B\)
tritt ein, wenn sowohl \(A\) als auch \(B\) eintritt
\(A\cup B\) …
\(A\) oder \(B\)
Vereinigung der Ereignisse \(A\) und \(B\)
tritt ein, wenn \(A\) oder \(B\) eintritt (oder beide eintreten)
\(A\setminus B\) …
\(A\) ohne \(B\)
tritt ein, wenn \(A\) eintritt, aber \(B\) nicht
\(\bar A = \Omega \setminus A\) …
Gegenereignis von \(A\)
\(A\) tritt nicht ein
Falls \(A\) und \(B\) keine gemeinsamen Elemente haben, falls also \(A\cap B =\emptyset\) gilt, so heißen \(A\) und \(B\) disjunkt.
Weitere wichtig Rechenregeln für Mengen folgen:
Rechenregeln
Wir betrachten den Ergebnisraum \(\Omega\). Sind \(A\) und \(B\) Ereignisse, also Teilmengen von \(\Omega\), so gelten die Kommutativgesetze
und die de Morganschen Regeln
Haben wir auch noch ein drittes Ereignis \(C\) gegeben, so gelten die Distributivgesetze:
Außerdem gilt
Die de Morganschen Regeln gelten auch für mehr als 2 Mengen:
Beispiel zum Üben#
Wir betrachten die drei Ereignisse
\(J\) … Jonas kommt zu spät zur Vorlesung
\(T\) … Tommy kommt zu spät zur Vorlesung
\(F\) … Fabian kommt zu spät zur Vorlesung
Überlegen Sie sich, wie man die folgenden Ereignisse mit \(J\), \(T\) und \(F\) ausdrücken kann. Ein Klick auf die Karte zeigt die Lösung.
Wahrscheinlichkeit#
Ziel ist es den Ereignissen Wahrscheinlichkeiten zuzuordnen. Dazu verwenden wir eine Funktion \(\mathbb P\) die jedem Ereignis eine Zahl zwischen \(0\) und \(1\) zuordnet. Diese soll, damit immer sinnvolle Ergebnisse entstehen die folgenden 3 Eigenschaften erfüllen:
\(\mathbb P(A) \geq 0\)
\(\mathbb P(\Omega) = 1\)
\(\mathbb P(A\cup B)= \mathbb P(A) + \mathbb P(B)\) falls \(A\cap B= \emptyset\)
Aus diesen Forderungen ergeben sich gleich ein paar wichtige Rechenregeln:
Rechenregeln
\(\mathbb P(\overline A) = 1 - \mathbb P(A) \)
\( \mathbb P(\emptyset) = 0\)
\( \mathbb P(A \cup B) = \mathbb P(A)+ \mathbb P(B) - \mathbb P(A\cap B)\)
\( \mathbb P(A\setminus B) = \mathbb P(A) - \mathbb P(A\cap B)\)
\(A\subseteq B\quad \Rightarrow \quad \mathbb P(A) \leq \mathbb P(B)\)
Wie man nun genau die Zahl \( \mathbb P(A)\) ermittelt hängt von der vorliegenden Situation ab. Beispielsweise wissen wir, dass beim Würfel mit \(\Omega=\{1,2,\dots,6\}\) gilt, dass die Wahrscheinlichkeit eine gerade Zahl zu würfeln genau \(\frac12\) ist, also
Auf \(\frac12\) kommt man, da es \(3\) günstige unter den \(6\) möglichen Ergebnissen gibt. Situationen in denen man auf diese Weise rechnen kann fassen wir im nächsten Kapitel zusammen.
Hinter dem Tellerrand …
Tatsächlich muss man bei der Definition eines Wahrscheinlichkeitsmaßes \(\mathbb P\) beachten, dass es Situationen gibt, in denen nicht jeder Teilmenge von \(\Omega\) auf sinnvolle Weise eine Wahrscheinlichkeit zugeordnet werden kann. Um diesem Problem zu entgehen, wird ein Wahrscheinlichkeitsmaß auf einer Teilmenge aller Teilmengen von \(\Omega\) (welche gewisse Zusatzeigenschaften hat) definiert, auf einer sogenannten Ereignisalgebra \(\mathcal A\).
Diese Menge \(\mathcal A\) ist also die Menge aller Teilmengen von \(\Omega\), welchen man mit \(\mathbb P\) eine Wahrscheinlichkeit zuordnen kann.
Im Rahmen dieser Vorlesung werden wir nicht auf solche Beispiele stoßen und können diese Feinheit hier ignorieren.
Laplacesches Modell#
Die Situation beim Würfel zeichnet sich dadurch aus, dass alle einelementigen Ereignisse (man nennt sie Elementarereignisse) die gleiche Wahrscheinlichkeit haben (nämlich \(\frac16\)). Immer wenn dies der Fall ist, sagt man es liegt ein Laplacesches Modell vor.
Definition
Es sei ein endlicher Ergebnisraum \(\Omega=\{\omega_1,\dots,\omega_n\}\) gegeben. Gilt
so nennt man dies Laplacesches Modell oder Laplace-Experiment.
Im Laplaceschen Modell gilt immer
Beispiel
Beim Wurf mit zwei Würfeln fragen wir uns: Wie groß ist die Wahrscheinlichkeit, dass die Augensumme 9 ergibt.
Dazu stellen wir uns vor, dass es einen roten und einen blauen Würfel gibt. Die möglichen Würfelergebnisse sind dann \((1,1), (1,2), ... , (6,6)\), wobei der erste Eintrag immer für den roten, der zweite für den blauen Würfel steht. Schreiben wir alle mögliche Ergebnisse - also ganz \(\Omega\) - in eine Tabelle
(1,1) |
(1,2) |
(1,3) |
(1,4) |
(1,5) |
(1,6) |
(2,1) |
(2,2) |
(2,3) |
(2,4) |
(2,5) |
(2,6) |
(3,1) |
(3,2) |
(3,3) |
(3,4) |
(3,5) |
(3,6) |
(4,1) |
(4,2) |
(4,3) |
(4,4) |
(4,5) |
(4,6) |
(5,1) |
(5,2) |
(5,3) |
(5,4) |
(5,5) |
(5,6) |
(6,1) |
(6,2) |
(6,3) |
(6,4) |
(6,5) |
(6,6) |
Jedes der Ergebnisse ist natürlich gleich-wahrscheinlich. Da es 36 sind, muss diese Wahrscheinlichkeit gerade \(\frac1{36}\) sein. Beispielsweise ist die Wahrscheinlichkeit, dass der rote Würfel ein 3 zeigt und der blaue ein 4 genau \(\frac1{36}\), also \(\mathbb P(\{(3,4)\})= \frac{1}{36}\). Daher liegt ein Laplace-Experiment vor.
Das Ereignis, dass die Augensumme 9 fällt, besteht aus den Elementen \((6,3)\), \((5,4)\), \((4,5)\) und \((3,6)\), wir schreiben
Da dies genau 4 Elemente sind, gilt
Unabhängigkeit#
Definition
Wir sagen, zwei Ereignisse \(A\) und \(B\) sind (stochastisch) unabhängig, wenn
Sind \(A_1,\dots,A_n\) Ereignisse, so nennen wir diese (stochastisch) unabhängig, wenn für jede Auswahl \(A_{i_1}, \dots A_{i_k}\) gilt
Schauen wir uns den zweiten Teil der Definition im Spezialfall an um ihn zu verstehen: Die Ereignisse \(A_1,A_2,A_3,A_4\) sind stochastisch unabhängig, bedeutet, dass egal welche Ereignisse wir von den Vieren auswählen, die „Unabhängigkeitsgleichung“ gilt immer, d.h. es gilt
\(\mathbb P(A_1\cap A_2\cap A_3 \cap A_4) = \mathbb P(A_1) \cdot \mathbb P(A_2) \cdot \mathbb P(A_3) \cdot \mathbb P( A_4)\)
\(\mathbb P(A_1\cap A_2\cap A_3) = \mathbb P(A_1) \cdot \mathbb P(A_2) \cdot \mathbb P(A_3)\)
\(\mathbb P(A_1\cap A_2 \cap A_4) = \mathbb P(A_1) \cdot \mathbb P(A_2) \cdot \mathbb P( A_4)\)
\(\mathbb P(A_1\cap A_3 \cap A_4) = \mathbb P(A_1) \cdot \mathbb P(A_3) \cdot \mathbb P( A_4)\)
\(\mathbb P(A_2\cap A_3 \cap A_4) = \mathbb P(A_2) \cdot \mathbb P(A_3) \cdot \mathbb P( A_4)\)
\(\mathbb P(A_1\cap A_2) = \mathbb P(A_1) \cdot \mathbb P(A_2)\)
\(\mathbb P(A_1\cap A_3) = \mathbb P(A_1) \cdot \mathbb P(A_3)\)
\(\mathbb P(A_1\cap A_4) = \mathbb P(A_1) \cdot \mathbb P(A_4)\)
\(\mathbb P(A_2\cap A_3) = \mathbb P(A_2) \cdot \mathbb P(A_3)\)
\(\mathbb P(A_2\cap A_4) = \mathbb P(A_2) \cdot \mathbb P(A_4)\)
\(\mathbb P(A_3\cap A_4) = \mathbb P(A_3) \cdot \mathbb P(A_4)\)
Umgekehrt müsste man auch erst alle diese Gleichungen prüfen um sagen zu können, dass die Ereignisse unabhängig sind.
Wenn man weiß, dass \(A\) und \(B\) unabhängig sind, dann sind auch
\(A\) und \(\overline B\) unabhängig
\(\overline A\) und \(B\) unabhängig
\(\overline A\) und \(\overline B\) unabhängig
Beispiel
Adrian, Ben und Charlotte sind Artisten. Sie führen heute nacheinander ihre schwierigsten Kunststücke vor. Adrian gelingt sein Kunststück mit einer Wahrscheinlichkeit von \(0.9\) und Ben gelingt sein Kunststück mit Wahrscheinlichkeit \(0.8\). Bei Charlotte beträgt diese Wahrscheinlichkeit \(0.95\). Wir nehmen an, dass alle Ihre Kunststücke unabhängig voneinander gelingen.
Wie groß ist die Wahrscheinlichkeit, dass alle drei Kunststücke gelingen?
Wie groß ist die Wahrscheinlichkeit, dass keins der drei Kunststücke gelingt?
Wie groß ist die Wahrscheinlichkeit, dass mindestens eins der Kunststücke gelingt?
Antwort
Ereignisse definieren
\(A\) … Adrians Kunststück gelingt
\(B\) … Bens Kunststück gelingt
\(C\) … Charlottes Kunststück gelingt
gegeben: \(\mathbb P(A)=0.9\), \(\quad\mathbb P(B)=0.8\), \(\quad\mathbb P(C)=0.95\)
gesucht ist \(\mathbb P(A\cap B\cap C)\)
Wegen der Unabhängigkeit gilt:
\[ \mathbb P(A\cap B\cap C) = \mathbb P(A) \cdot \mathbb P( B)\cdot \mathbb P(C) = 0.9\cdot 0.8 \cdot 0.95= 0.684 \]gesucht ist \(\mathbb P(\bar A\cap \bar B\cap \bar C)\)
Wegen der Unabhängigkeit gilt:
\[\begin{split}\begin{align*} \mathbb P(\bar A\cap \bar B\cap \bar C) &= \mathbb P(\bar A) \cdot \mathbb P(\bar B)\cdot \mathbb P(\bar C)\\ &= (1-\mathbb P(A)) \cdot (1-\mathbb P(B)) \cdot (1-\mathbb P(C))\\ &= 0.1\cdot 0.2\cdot 0.05 \\ &= 0.001 \end{align*}\end{split}\]gesucht ist \(\mathbb P( A\cup B\cup C)\)
Wir nutzen erst die de Morganschen Regeln und dann Unabhängigkeit
\[\begin{split}\begin{align*}\mathbb P( A\cup B\cup C) &= 1 - \mathbb P( \overline{ A\cup B\cup C } ) \\ &= 1 - \mathbb P( \bar A \cap \bar B \cap \bar C ) \\ &= 1 - 0.001 = 0.999 \end{align*}\end{split}\]Beachte: In 3. ist gerade des Gegenereignis von 2. gesucht.
Es folgen noch ein paar Beispiele, für Wahrscheinlichkeiten die hier berechnet werden können. Berechnen Sie das selbst und prüfen Sie anschließend, ob Sie richtig liegen.
Beispiel
Wir betrachten 2 Aktien. Über die letzten Monate stellte sich heraus, dass die Wahrscheinlichkeit, dass Aktie 1 von einen Tag auf den nächsten steigt bei \(0.6\) liegt. Diese Wahrscheinlichkeit liegt für Aktie 2 bei \(0.7\). Außerdem liegt die Wahrscheinlichkeit, dass beide von einem Tag auf den nächsten steigen bei \(0.5\).
Ereignisse:
\(A\) … Aktie 1 steigt
\(B\) … Aktie 2 steigt
Gegeben: \(\mathbb P(A)=0.6,\quad \mathbb P(B)=0.7,\quad \mathbb P(A\cap B)=0.5\)
Frage: Ist das Steigen der Aktien unabhängig voneinander?
Wegen
\[0.5=\mathbb P(A\cap B) \neq \mathbb P(A)\cdot \mathbb P(B) = 0.6\cdot 0.7 = 0.42\]sind die Ereignisse \(A\) und \(B\) nicht unabhängig.
Frage: Wie groß ist die Wahrscheinlichkeit, dass Aktie 1 steigt und Aktie 2 nicht steigt?
Gesucht: \(\mathbb P(A\cap \bar B)\).
Lösung:
\[ \mathbb P(A\cap \bar B) =\mathbb P(A) - \mathbb P(A\cap B) = 0.1 \]Beachte: In \(\mathbb P(A\cap \bar B)\) wird aus dem \(\cap\) kein Produkt der Einzelwahrscheinlichkeiten!