2 Aksjomatyka rachunku prawdopodobieństwa
Omówimy podstawowe aksjomaty teorii prawdopodobieństwa. Zaczniemy jednak od przykładu ilustrującego konieczność wprowadzenia matematycznego formalizmu.
2.1 Paradoks Bertranda
W rachunku prawdopodobieństwa można wiele powiedzieć na poziomie intuicyjnym. Okazuje się jednak, że bez odpowiedniego formalizmu łatwo jest popaść w kłopoty. Aby to zilustrować rozważmy klasyczne zjawisko zwane paradoksem Bertranda. W okręgu o promieniu \(1\) wybrano losowo cięciwę \(AB\). Jakie jest prawdopodobieństwo, że będzie ona dłuższa niż bok trójkąta równobocznego wpisanego w ten okrąg?
Cięciwa wyznaczona jest przez dwa swoje końce. Skoro okrąg jest niezmienniczy na obroty, zawsze możemy umieścić interesujący nas trójkąt równoboczny tak, aby jeden w końców cięciwy \(A\) znajdował się dokładnie w wierzchołku trójkąta. Wylosowanie cięciwy można więc utożsamić z wylosowaniem drugiego punktu na okręgu.
Cięciwa \(AB\) spełnia zadany warunek wtedy i tylko wtedy, gdy punkt \(B\) trafia w łuk wyznaczony przez bok trójkąta przeciwległy do \(A\). Skoro trójkąt dzieli okrąg na trzy łuki równej długości, to szukane prawdopodobieństwo wynosi \(1/3\).
Istnieje inny sposób podejścia do tego problemu. Cięciwa jest jednoznacznie wyznaczona przez położenie swojego środka, więc wylosowanie jej jest równoważne z wylosowaniem jej środka.
Cięciwa spełnia warunki zadania, gdy jej środek leży we wnętrzu koła o promieniu \(1/2\) i tym samym środku. Prawdopodobieństwo, że cięciwa \(AB\) spełnia warunki zadania jest zatem równe ilorazowi pół obu kół \[ \frac{|B(0,1/2)|}{|B(0,1)|} = \frac 14. \] Dokładne uzasadnienie słuszności powyższego wyrażenia wymaga wprowadzenia odpowiedniego formalizmu. Widzimy jednak, że o wiele większym problemem jest to, że otrzymaliśmy inny wynik niż poprzednio. Okazuje się jednak, że można wprowadzić więcej chaosu. Podobnie jak w poprzednim przypadku chcemy wylosować środek cięciwy. Zauważmy, że istotna jest jedynie jej długość, a ta zależy tylko od odległości środka cięciwy od środka okręgu. Podobnie jak poprzednio wnioskujemy więc, że \[ \frac{|(0,1/2)|}{|(0,1)|} = \frac 12. \] Otrzymaliśmy trzy różne odpowiedzi, co tłumaczy dlaczego zjawisko to nazywane jest niekiedy paradoksem. Sprzeczność jest jednak pozorna. Jak się okazuje powyższe trzy metody losowania nie są równoważne. Aby się o tym przekonać możemy powtórzyć powyższe eksperymenty wiele razy i porównać rezultaty. Jeżeli sto razy wylosujemy cięciwę przez wylosowanie jej końców na okręgu otrzymamy następujący rysunek.
Widzimy, że w tym przypadku cięciwy umieszczone są równomiernie. Jeżeli natomiast wylosujemy sto cięciw poprzez wylosowanie ich środka otrzymamy więcej cięciw bliżej okręgu.
Jeżeli wreszcie wylosujemy sto cięciw losując odległość od środka okręgu w sposób jednostajny, to otrzymamy wiele cięciw blisko środka okręgu.
Widzimy więc, że wspomniany paradoks jest pozorny, ponieważ przedstawione sposoby losowania cięciw nie są równoważne. Aby uniknąć tego typu niejasności jak i formalnie uzasadnić wyniki teoretyczne otrzymane przy trzech sposobach losowania, musimy wprowadzić odpowiedni język do opisu zdarzeń losowych.
2.2 Przestrzeń probabilistyczna
Za każdym razem kiedy rzucamy kością czy losujemy kartę z talii wykonujemy pewnego rodzaju
eksperyment losowy. W pierwszej części wykładu zajmiemy się ich badaniem.
Zaczniemy od sposobu matematycznej reprezentacji wyniku naszego eksperymentu.
Każdy możliwy wynik eksperymentu nazywać będziemy zdarzeniem elementarnym.
Przykładowo dla rzutu kością sześcienną zdarzeniem elementarnym będzie
liczba wyrzuconych oczek, czyli dowolna z liczb
\(1,2, \ldots 6\).
Zbiór wszystkich zdarzeń elementarnych oznaczać będziemy przez \(\Omega\) i
będziemy nazywać przestrzenią zdarzeń elementarnych, a jego elementy,
czyli zdarzenia elementarne będziemy oznaczać przez \(\omega\).
Przykład 2.1 Powiedzmy, że nasz eksperyment losowy polega na rzucie parą kości sześciennych. Wynikiem naszego eksperymentu jest para elementów zbioru ze \([6] = \{1, 2, \ldots , 6\}\). Istotne jest aby rozróżnić wyniki otrzymane na obu kościach, wszak kości nie muszą być symetryczne. Zbiorem zdarzeń elementarnych jest \[ \Omega = [6]^2= \{ (1,1), (1,2), \ldots , (6,6) \}. \] W tym przypadku przestrzeń zdarzeń elementarnych jest skończona i składa się z \(|\Omega| = 36\) elementów.
Przykład 2.2 Tym razem rzucamy monetą do momentu otrzymania orła. Przestrzeń zdarzeń elementarnych \(\Omega\) składa się ze skończonych ciągów \(\{O, R\}\) kończących się znakiem \(O\) i jednego nieskończonego ciągu \(R\). Dokładniej \[\begin{align*} \Omega & = \{R\}^{\mathbb{N}} \cup \bigcup_{k=0}^\infty\{R \}^k \times \{O\} \\ & = \{ RRRR \ldots\} \cup \{ O, RO, RRO, \ldots \}. \end{align*}\] Tutaj niekończony ciąg \(RRR\ldots\) opisuje scenariusz, w którym nigdy nie wyrzucimy orła.
Przykład 2.3 Losujemy liczbę z przedziału \([0,1]\). Wówczas wynikiem naszego losowania jest dokładnie otrzymana liczba. Stąd \(\Omega=[0,1]\).
W większości eksperymentów losowych nie interesują nas poszczególne jego wyniki, lecz pewien ich wspólny aspekt. Dla przykładu w rzucie kością sześcienną istotna dla nas może być tylko parzystość uzyskanego wyniku. Innymi słowy bardziej od poszczególnych zdarzeń elementarnych interesować nas będę ich wyróżnione zbiory \(A\subset \Omega\). Te interesujące nas zbiory nazywać będziemy zdarzeniami i będziemy oznaczać przez \(A,B,C\) itd. Dla określonego zbioru zdarzeń elementarnych \(\Omega\) chcemy określić prawdopodobieństwo (miarę) \(\mathbb{P}\). Jeżeli \(\Omega\) jest zbiorem skończonym lub przeliczalnym, to zazwyczaj możemy przypisać prawdopodobieństwo dowolnemu podzbiorowi \(\Omega\), a więc dowolnemu elementowi \(2^\Omega\), rodziny wszystkich podzbiorów \(\Omega\). Jeżeli \(\Omega\) jest zbiorem nieprzeliczalnym, to \(2^\Omega\) jest zbyt duże i pojawiają się problemy ze zdefiniowaniem na \(\Omega\) prawdopodobieństwa. Jesteśmy zatem zmuszeni do ograniczenia się do pewnej szczególnej rodziny \(\mathcal{F} \subseteq 2^\Omega\) zbiorów, dla których jesteśmy w stanie określić prawdopodobieństwo. Rodzina \(\mathcal{F}\) powinna być zamknięta na wykonywanie podstawowych operacji na zbiorach. Okazuje się, że należy założyć, że \(\mathcal{F}\) jest \(\sigma\)-ciałem.
Definicja 2.1 Rodzinę \(\mathcal{F}\) podzbiorów \(\Omega\) nazywamy \(\sigma\)-ciałem, jeżeli
- \(\emptyset\in \mathcal{F}\);
- jeżeli \(A\in \mathcal{F}\), to \(A^c\in \mathcal{F}\);
- jeżeli \(A_1,A_2,\ldots\in \mathcal{F}\), to \(\bigcup_{i=1}^\infty A_i \in \mathcal{F}\).
Parę \((\Omega,\mathcal{F})\) nazywamy przestrzenią mierzalną. Elementy \(\mathcal{F}\) nazywamy zdarzeniami.
Przykład 2.4 Wróćmy do rzutu parą kości, gdzie przestrzenią zdarzeń elementarnych jest \(\Omega = [6]^2\). Wówczas zdarzeniem jest \[\begin{align*} A & = \{ \mbox{suma oczek jest równa 7} \} \\ & = \{ (1,6), (2,5), \ldots , (6,1) \} \subseteq \Omega. \end{align*}\] Natomiast zbiór \[ \{ (1,1), (2,2) , \ldots , (6,6)\} \] jest zdarzeniem \(\{\mbox{wypadł dublet}\}\).
Przykład 2.5 Alex układa swoją dwudziestosześciotomową encyklopedię na półce.
Eksperyment polega na umieszczeniu poszczególnych tomów encyklopedii w losowej kolejności.
Wtedy zbiór zdarzeń elementarnych możemy utożsamić ze zbiorem permutacji. Dla \(n \in \mathbb{N}\)
definiujemy
\[\begin{equation*}
S_{n} = \left\{ \pi \colon [n] \to [n]\: : \: \mbox{$\pi$ jest $1-1$ i ''na''} \right\}.
\end{equation*}\]
Każdy element \(\omega \in S_n\) możemy utożsamić z macierzą
\[\begin{equation*}
\omega = \left( \begin{array}{ccccc}
1 & 2 & 3 & \ldots & n\\
\omega(1) & \omega(2) & \omega(3) & \ldots & \omega(n) \end{array} \right),
\end{equation*}\]
gdzie \(\omega(1), \omega(2), \ldots , \omega(n)\) są parami różnymi liczbami ze zbioru
\([n]=\{1,2,\ldots n\}\).
Wówczas w naszym przykładzie \(\Omega=S_{26}\).
Przykładowo ułożenie tomów w kolejności alfabetycznej odpowiada permutacji
identycznościowej \({\rm id} \in \Omega\) czyli takiej, że
\({\rm id}(i)=i\) dla \(i\in [26]\).
Innymi słowy
\[\begin{equation*}
{\rm id} =
\left( \begin{array}{ccccc} 1 & 2 & 3 & \ldots & n\\ 1 & 2 & 3 & \ldots & n \end{array} \right).
\end{equation*}\]
Przykład 2.6 Andrzej układa sagę o Wiedźminie na półce. Wówczas tomy możemy ponumerować liczbami \(1,2,3,4,5\) według daty wydania. Zbiorem zdarzeń elementarnych jest zatem \(\Omega = S_5\). Rozważmy zdarzenie \(A\) polegające na tym, że pierwsze dwa tomy ułożone są chronologicznie. Wówczas \(A\) składa się z permutacji o reprezentacji \[\begin{equation*} \left( \begin{array}{ccccc} 1 & 2 & 3 & 4 & 5\\ 1 & 2 & * & * & * \end{array} \right). \end{equation*}\]
Wprowadzone przez nas Definicja 2.1 zdarzenia jest niezwykle pojemna. Wskutek czego jeżeli \(A_1, A_2 \ldots\) jest ciągiem zdarzeń, czyli dla każdego \(k \in \mathbb{N}\), \(A_k\) jest zdarzeniem, to zdarzeniem jest również \(\bigcup_{k=1}^{\infty} A_k\) oraz \(\bigcap_{k=1}^\infty A_k\). Dodatkowo, jeżeli \(A\) jest zdarzeniem, to jest nim również zdarzenie przeciwne do zdarzenia \(A\), zadane wzorem \[ A^c = \Omega \setminus A. \] Zdarzenie \(A^c\) polega na tym, że nie zachodzi zdarzenie \(A\). Jest jeszcze jedna relacja teoriomnogościowa, z której będziemy korzystać. Powiemy, że zdarzenie \(B\) pociąga zdarzenie \(A\), jeżeli \(B \subseteq A\).
Przykład 2.7 Powiedzmy, że rzucamy tylko jedną kością. Wówczas \(\Omega = D = \{ 1, 2, \ldots , 6\}\). Niech \[\begin{align*} A & = \{\mbox{wypadła liczba parzysta} \} \\ & = \{ 2, 4, 6\}. \end{align*}\] Zdarzenie przeciwne do zdarzenia \(A\) to \[\begin{align*} A^c & = \{\mbox{wypadła liczba nieparzysta} \} \\ &= \{ 1, 3, 5\}. \end{align*}\] Z kolei zdarzenie \[ B = \{\mbox{wypadła szóstka} \} = \{ 6\} \] pociąga zdarzenie \(A\), czyli \(B \subseteq A\).
Przykład 2.8 Losujemy punkt z przedziału \([0,1]\). Tak jak przyjęliśmy wcześniej \(\Omega=[0,1]\). W przyszłości będziemy chcieli określić prawdopodobieństwo, że wylosowany punkt wpada do ustalonego przedziału. Przedziały postaci \((a,b)\) będą więc dla nas zdarzeniami. Z kursu teorii miary wiemy, że wówczas będziemy w stanie zmierzyć każdy zbiór, który jest rezultatem przeliczalnych operacji mnogościowych na przedziałach otwartych. Oznacza to, że \(\mathcal{F} =\mathcal{B}or([0,1])\) jest \(\sigma\)-ciałem zbiorów borelowskich na \([0,1]\), czyli najmniejszym \(\sigma\)-ciałem zawierającym wszystkie zbiory otwarte. Pamiętajmy, że \(\mathcal{B}or([0,1]) \neq 2^{[0,1]}\). Istnieją zatem \(A \subseteq \Omega\) takie, że \(A \notin \mathcal{F}\). Są to zbiory, których nie będziemy w stanie zmierzyć. Dla zdarzenia \(A \in \mathcal{F}\) mamy \[\begin{equation*} A = \{ \omega \in \Omega \: : \: \omega \in A \}. \end{equation*}\] Jest to więc zdarzenie polegające na tym, że wylosowana liczba \(\omega\) pochodzi ze zbioru \(A\).
2.3 Miara probabilistyczna
Jesteśmy przyzwyczajeni do intuicyjnego myślenia o prawdopodobieństwie. Dla przykładu w eksperymencie polegającym na rzucie dwoma kostkami od razu napiszemy, że \[\begin{equation*} \mathbb{P}\left[ \mbox{na obu kościach wypadnie $1$} \right] = \frac 1{36}. \end{equation*}\] W pewnym sensie o liczbie \(\mathbb{P}[A]\) myślimy jak o prawdopodobieństwie zdarzenia \(A\) opierając się na słownym opisie zdarzenia \(A\). Nie ma w tym nic złego, lecz w wielu przypadkach wygodniej jest myśleć o zdarzeniu \(A\) jak o podzbiorze \(\Omega\) a o liczbie \(\mathbb{P}[A]\) jak o masie zbioru \(A\).
Definicja 2.2 Niech \((\Omega,\mathcal{F})\) będzie przestrzenią mierzalną. Funkcję \(\mathbb{P}:\mathcal{F}\to [0,1]\) nazywamy prawdopodobieństwem (miarą probabilistyczną) jeżeli
- \(\mathbb{P}[\Omega] = 1\);
- \(\mathbb{P}\left[\bigcup_{i=1}^\infty A_i\right] = \sum_{i=1}^\infty \mathbb{P}[A_i]\) dla dowolnych parami rozłącznych zdarzeń \(A_1,A_2,\ldots \in \mathcal{F}\).
Trójkę \((\Omega, \mathcal{F}, \mathbb{P})\) nazywamy przestrzenią probabilistyczną.
Aksjomatyzacja rachunku prawdopodobieństwa była jednym z problemów Hilberta. Powyższa definicja została podana przez Kołmogorowa w 1933 roku i zapoczątkowała współczesny rachunek prawdopodobieństwa. Wcześniej badano głównie dyskretne przestrzenie probabilistyczne (np. w celu zrozumienia gier hazardowych). Z biegiem czasu, na przełomie dziewiętnastego i dwudziestego wieku, zaczęto badać jednak znacznie bardziej skomplikowane modele (np. pochodzące z fizyki statystycznej) i brakowało matematycznych narzędzi do ich precyzyjnego opisu. Okazało się, że powyższa definicja jest właściwym punktem wyjścia. Należy jednak mieć świadomość, że np. pokazanie istnienia miary probabilistycznej jest nietrywialne (odpowiednia konstrukcja pokazywana jest podczas kursu z teorii miary i bazuje na tw. Caratheodory’ego).
Przykład 2.9 (Prawdopodobieństwo klasyczne) Niech \(\Omega\) będzie skończonym zbiorem, \(\mathcal{F} = 2^\Omega\). Wówczas wystarczy zdefiniować prawdopodobieństwo na zdarzeniach elementarnych (zbiorach jednoelementowych). Zazwyczaj zakłada się, że są one jednakowo prawdopodobne, co prowadzi do \[ \mathbb{P}[\{\omega\}] = \frac 1{|\Omega|}, \] gdzie \(|\Omega|\) oznacza liczbę elementów zbioru \(\Omega\). Wówczas dla dowolnego \(A\subseteq \Omega\): \[\begin{equation} \mathbb{P}[A] = \frac{|A|}{|\Omega|}. \tag{2.1} \end{equation}\]
Przykład 2.10 Rzucamy trzykrotnie symetryczną monetą. Interesuje nas prawdopodobieństwo, że dokładnie \(2\) razy wypadła reszka. Mamy \[\begin{multline*} \Omega=\left\{ (O,O,O), (O,O,R), (O,R,O), (R,O,O),\right. \\ \left. (O,R,R), (R,O,R), (R,R,O), (R,R,R) \right\} \end{multline*}\] oraz \(\mathcal{F}= 2^{\Omega}\). Skoro moneta jest symetryczna, to każdy wynik jest jednakowo prawdopodobny. Za miarę probabilistyczną \(\mathbb{P}\) przyjmujemy zatem prawdopodobieństwo klasyczne dane wzorem (2.1). Interesuje nas prawdopodobieństwo zdarzenia \[\begin{equation*} A = \left\{ (O,R,R), (R,O,R), (R,R,O) \right\}. \end{equation*}\] Skoro \(A\) jest trójelementowy, to \(\mathbb{P}(A) = 3/8\).
Przykład 2.11 Jeśli rzucamy kością sześcienną, to zbiorem zdarzeń elementarnych jest \(\Omega =[6]= \{ 1, 2, \ldots , 6\}\). Jeżeli kość jest dobrze wyważona, to do opisu tego doświadczenia użyjemy prawdopodobieństwa klasycznego \(\mathbb{P}_1\) takiego, że \[ \mathbb{P}_0[\{ 1 \}] = \mathbb{P}_0[\{ 2 \}] = \ldots = \mathbb{P}_0[\{ 6\}] = 1/6. \] Możemy też zakładać, że jedna kość jest niewyważona, przykładowo \[\begin{align*} \mathbb{P}_1[\{2\}] & = \mathbb{P}_1[\{6\}]= 1/4 \\ \mathbb{P}_1[\{ 1\}] & = \mathbb{P}_1[\{ 3\}] = \mathbb{P}_1[\{4\}] = \mathbb{P}_1[\{ 5 \}] = 1/8. \end{align*}\] Miary \(\mathbb{P}_0\) i \(\mathbb{P}_1\) są różne i te same zdarzenia będą miały względem nich różne prawdopodobieństwa. Dla przykładu dla zdarzenia \[ A = \{\mbox{wypadła liczba parzysta}\} = \{2, 4, 6\} \] otrzymujemy \(\mathbb{P}_0[A] = 1/2\) oraz \(\mathbb{P}_1[A]=5/8\).
Przykład 2.12 Załóżmy, że \(\Omega = \{\omega_1,\omega_2,\ldots,\}\) jest zbiorem przeliczalnym i niech \(p_1,p_2,\ldots\) będą liczbami nieujemnymi o sumie \(1\). Wtedy wybór \(\mathcal{F}=2^\Omega\) oraz \(\mathbb{P}[\{\omega_i\}] = p_i\) dla \(i\in\mathbb{N}\) jednoznacznie definiuje miarę probabilistyczną. Mianowicie dla każdego \(A \in \mathcal{F}\) mamy \[\begin{equation} \mathbb{P}[A] = \sum_{i: \omega_i\in A} p_i = \sum_i p_i {\bf 1}_A(\omega_i). \tag{2.2} \end{equation}\] Tutaj \({\bf 1}_A\) jest indykatorem zbioru \(A\) zadanym przez \[\begin{equation*} {\bf 1}_A(\omega) = \left\{ \begin{array}{cc} 1 & \omega \in A \\ 0 & \omega\notin A \end{array} \right. . \end{equation*}\] Na tym przykładzie widać, że o prawdopodobieństwie \(\mathbb{P}\) można (a czasami nawet trzeba) myśleć jak o masie. Każdy z punktów \(\Omega\) ma pewną masę (punkt \(\omega_k\) ma masę \(p_k\)). Wówczas (2.2) jest po prostu zliczeniem masy wszystkich punktów znajdujących się w zbiorze \(A\).
Omówione do tej pory przykłady dotyczą skończonych bądź przeliczalnych przestrzeni probabilistycznych. Zdefiniowanie na nich prawdopodobieństwa jest stosunkowo łatwe, ponieważ można to zrobić dla każdego punktu z osobna. Wprowadzona przez nas Definicja 2.2 jest na tyle pojemna, aby dopuścić przypadki większych przestrzeni. Z takimi przestrzeniami będziemy się spotykali niejednokrotnie w trakcie wykładu. Najprostszą z nich jest odcinek jednostkowy.
Przykład 2.13 (Wybór losowego punktu z odcinka [0,1]) Powiedzmy, że chcemy zdefiniować przestrzeń probabilistyczną \((\Omega, \mathcal{F}, \mathbb{P})\) opisującą losowanie punktu z odcinka \([0,1]\). Wówczas możemy przyjąć \(\Omega=[0,1]\) oraz \(\mathcal{F}=\mathcal{B}or[0,1]\) rodzinę zbiorów borelowskich \([0,1]\). Jest to najmniejsze \(\sigma\)-ciało podzbiorów \([0,1]\) zawierające wszystkie otwarte podzbiory \([0,1]\). Chcemy na \((\Omega, \mathcal{F})\) wprowadzić takie prawdopodobieństwo \(\mathbb{P}\) aby (luźno mówiąc) wylosowanie każdego punktu było jednakowo prawdopodobne. Formalnie nie można tego zrobić wprost. Dokładniej nie jest możliwe zdefiniowanie prawdopodobieństwa tak, aby punkty należące do odcinka \([0,1]\) miały takie samo, niezerowe prawdopodobieństwo. Właściwe jest pytanie o wylosowanie zbioru (borelowskiego). Szukamy prawdopodobieństwa takiego aby prawdopodobieństwo wylosowania (miara zbioru) postaci \([a, a+\epsilon)\) nie zależała od \(a \in [0,1-\epsilon)\) (lub równoważnie prawdopodobieństwo było niezmiennicze na przesunięcia). Jedynym wyborem jest \(\mathbb{P}\) będące miarą Lebesgue’a na \([0,1]\). Jak widzimy na symulacji poniżej, rozrzut punktów w takim modelu rzeczywiście jest jednostajny na całym odcinku.
Powyżej widzimy symulacje \(100\) punktów wylosowanych z \([0,1]\) w sposób jednostajny. Zauważmy, że wówczas dla każdego \(x\in [0,1]\), \(\mathbb{P}[\{x\}] = 0\).
Przykład 2.14 Możemy powtórzyć poprzedni przykład dla równoramiennego trójkąta prostokątnego \(T \subseteq \mathbb{R}^2\). Wówczas \(\Omega=T\), \(\mathcal{F}=\mathcal{B}or(T)\). Chcąc ponownie losować w sposób jednostajny za \(\mathbb{P}\) wybierzemy odpowiednio unormowaną dwuwymiarową miarę Lebesgue’a (tak aby \(\mathbb{P}[\Omega]=1\)).
Przykład 2.15 Wróćmy jeszcze na chwilę, do losowania liczb z przedziału \([0,1]\). Przypuśćmy jednak, że \[\begin{equation*} \mathbb{P}[A] = 2 \int_A s \: \mathrm{d}s \end{equation*}\] dla dowolnego \(A \in \mathcal{F}\).
Przy takim wyborze prawdopodobieństwa faworyzujemy punkty bliżej prawego końca odcinka. Dla \(x, \epsilon \in (0,1)\) takich, że \(x+\epsilon<1\) mamy bowiem \[\begin{equation*} \mathbb{P}[(x, x+\epsilon)] = (x+\epsilon)^2-x^2 = 2x\epsilon +\epsilon \end{equation*}\] co jest rosnącą funkcją \(x\). Widzimy to też na poniższej symulacji.
Twierdzenie 2.1 (Podstawowe własności prawdopodobieństwa) Niech \((\Omega, \mathcal{F}, \mathbb{P})\) będzie przestrzenią probabilistyczną oraz \(A,B,A_1,A_2,\ldots \in\mathcal{F}\). Wtedy
- \(\mathbb{P}[\emptyset] = 0\).
- \(\mathbb{P}[A^c] = 1-\mathbb{P}[A]\).
- Jeżeli \(A\subset B\), to \(\mathbb{P}[B\setminus A] = \mathbb{P}[B] - \mathbb{P}[A]\), w szczególności \(\mathbb{P}[A]\le \mathbb{P}[B]\).
- \(\mathbb{P}[A\cup B] = \mathbb{P}[A] + \mathbb{P}[B] - \mathbb{P}[A\cap B]\).
- \(\mathbb{P}[\bigcup_{i=1}^\infty A_i] \le \sum_{i=1}^\infty \mathbb{P}[A_i]\).
Proof. Pozostawiamy jako zadanie
Przykład 2.16 Romeo i Julia umówili się na spotkanie między \(12\) a \(1\) w nocy. Nie ustalili jednak dokładnej godziny spotkania. Osoba, która przyjdzie jako pierwsza może czekać co najwyżej \(15\) minut na drugą. Jakie jest prawdopodobieństwo, że dojdzie do spotkania? Kładziemy \(\Omega = [0,1]^2\). Wówczas \(\omega = (x,y) \in \Omega\) reprezentuje czas przyjścia pierwszej osoby przez \(x\) i drugiej przez \(y\). \(\mathcal{F} = \mathcal{B}or([0,1]^2)\). Zdarzenie, że dojdzie do spotkania to \[\begin{equation*} A = \{ \omega= (x,y) \in \Omega \: : \: |x-y|\leq 1/4\}. \end{equation*}\] Z reprezentacji graficznej
łatwo znajdujemy prawdopodobieństwo zdarzenia przeciwnego \(\mathbb{P}[A^c] = 9/16\). Stąd \(\mathbb{P}[A] = 1-\mathbb{P}[A^c]=7/16\).
Przykład 2.17 Losujemy jedną z liczb \(1, 2, \ldots 1000\) w taki sposób, że wylosowanie każdej z nich jest jednakowo prawdopodobne. Wówczas przestrzenią zdarzeń elementarnych jest \[\begin{equation*} \Omega = \{ 1, 2, \ldots , 1000\}. \end{equation*}\] Jakie jest prawdopodobieństwo, że wylosowana liczba dzieli się przez \(3\) lub \(5\)? Dla liczby \(p\) oznaczmy zdarzenie \[\begin{equation*} D_{p} = \{ n \in [1000] \: | \: \mbox{$n$ dzieli się przez $p$} \} \subseteq \Omega. \end{equation*}\] Szukamy \(\mathbb{P}[D_3\cup D_5]\). Zauważmy, że \[\begin{equation*} D_{3} = \{ 3m \: | \: 1\leq m \leq 333 \}, \end{equation*}\] więc \(\mathbb{P}[D_3] = 333/1000\). Podobnie \(\mathbb{P}[D_5] =1/5\). Skoro \(D_3 \cap D_5 = D_{15}\), to \(\mathbb{P}[D_3 \cap D_5] = 33/500\). Ostatecznie \[\begin{align*} \mathbb{P}[D_3 \cup D_5] & = \mathbb{P}[D_3]+\mathbb{P}[D_5]-\mathbb{P}[D_3\cap D_5] \\&= 467/1000. \end{align*}\]
Punkt 4. powyższego twierdzenia to szczególny przypadek zasady włączeń i wyłączeń. Ten punkt można uogólnić na dowolną skończoną liczbę zbiorów. Dla trzech zbiorów mamy: \[\begin{align*} \mathbb{P}[A\cup B\cup C] & = \mathbb{P}[A] +\mathbb{P}[B] +\mathbb{P}[C] + \\ & - \mathbb{P}[A\cap B] - \mathbb{P}[A\cap C] - \mathbb{P}[B\cap C]\\ & + \mathbb{P}[A\cap B\cap C]. \end{align*}\]
Twierdzenie 2.2 (Zasada włączeń i wyłączeń) Niech \(n \in \mathbb{N}\). Jeżeli \(A_1,A_2,\ldots, A_n\in \mathcal{F}\), to \[\begin{multline*} \mathbb{P}[A_1\cup A_2\cup \ldots \cup A_n] = \sum_{i=1}^n\mathbb{P}[A_i]+ \\ - \sum_{i<j}\mathbb{P}[A_i\cap A_j] + \sum_{i<j<k}\mathbb{P}[A_i\cap A_j\cap A_k] \\ + \ldots +(-1)^{n+1} \mathbb{P}[A_1\cap A_2\cap \ldots \cap A_n] \end{multline*}\]
Proof. Pozostawiamy jako ćwiczenie.
Twierdzenie 2.3 (Twierdzenie o ciągłości) Niech \((\Omega, \mathcal{F}, \mathbb{P},\) będzie przestrzenią probabilistyczną. Rozważmy nieskończony ciąg zdarzeń \(A_1,A_2,\ldots \in \mathcal{F}\).
- Jeżeli ciąg \(\{A_n\}_{n \in \mathbb{N}}\) jest wstępujący (tzn. \(A_1\subset A_2 \subset \ldots\)) i \(A=\bigcup_{i=1}^\infty A_i\), to \[ \mathbb{P}[A] = \lim_{n\to\infty} \mathbb{P}[A_n]. \]
- Jeżeli ciąg \(\{A_n\}_{n \in \mathbb{N}}\) jest zstępujący (tzn. \(A_1\supset A_2 \supset \ldots\)) i \(A=\bigcap_{i=1}^\infty A_i\), to \[ \mathbb{P}[A] = \lim_{n\to\infty} \mathbb{P}[A_n]. \]
Proof. Punkt 1. Niech \(B_1 = A_1\), \(B_2 = A_2\setminus A_1\), …, \(B_n = A_n\setminus A_{n-1}\), wtedy zdarzenia \(B_n\) są rozłączne, \[ \bigcup_{i=1}^n B_i = A_n \quad \mbox{oraz } \quad \bigcup_{i=1}^\infty B_i = A. \] Na mocy punktu drugiego Definicji 2.2 otrzymujemy \[\begin{align*} \mathbb{P}[A] & = \mathbb{P}\left[\bigcup_{i=1}^\infty B_i\right] = \sum_{i=1}^\infty \mathbb{P} [ B_i ] \\&= \lim_{n\to\infty} \sum_{i=1}^n \mathbb{P}[B_i] = \lim_{n\to\infty} \mathbb{P}[A_n]. \end{align*}\] Punkt 2. Niech \(C_i = A_i^c\). Wtedy rodzina zdarzeń ciąg \(\{C_n\}_{n \in \mathbb{N}}\) jest wstępujący. Z prawa De Morgana \[ \bigcup_{i=1}^\infty C_i = \bigcup_{i=1}^\infty A^c_i = \left( \bigcap_{i=1}^\infty A_i \right)^c = A^c. \] Korzystając zatem z udowodnionego już punktu 1 otrzymujemy \[\begin{multline*} \mathbb{P}[A] = 1 - \mathbb{P}[A^c] = 1 - \mathbb{P}[C] = \\ 1 - \lim_{n\to\infty} \mathbb{P}[C_n] = \lim_{n\to\infty}\mathbb{P}[\Omega\setminus C_n] = \lim_{n\to\infty} \mathbb{P}[A_n]. \end{multline*}\]
Przykład 2.18 Do urny wrzucamy nieskończenie wiele kul o numerach \(1,2,\ldots\) w następujący sposób (w każdym kroku wybieramy ustaloną opcję a), b) lub c)):
- o godz. (\(12.00 - 1\) min.) wrzucamy kule \(1,2,\ldots, 10\);
- o godz. (\(12.00 - 1/2\) min.) wyciągamy a) kulę 10; b) kulę 1; c) losową kulę, a następnie wrzucamy kule \(11,12,\ldots, 20\);
- o godz. (\(12.00 - 1/4\) min.) wyciągamy a) kulę 20; b) kulę 2; c) losową kulę, a~następnie wrzucamy kule \(21,22,\ldots, 30\);
- …
Ile kul będzie w urnie o godz. 12? Jasne jest, że jeżeli zastosujemy opcję a), to o 12 w urnie będzie nieskończenie wiele kul. Troszeczkę bardziej niepokojący jest fakt, że jeżeli zastosujemy opcję b) to urna będzie pusta.
Rozpatrzmy przypadek c). Niech \(A_n\) będzie zdarzeniem, że po \(n\) krokach kula \(1\)
jest wciąż w urnie (oczywiście \(A_{n+1}\subset A_n\)). Wówczas
\[
\mathbb{P}[A_{n+1}]
= \frac{9}{10}\cdot\frac{18}{19}\cdot\frac{27}{28}\cdot \ldots \cdot\frac{9n}{9n+1}.
\]
Chcemy obliczyć \(\mathbb{P}[\bigcap_{n=1}^{\infty}A_n]\), a więc prawdopodobieństwo,
że kula \(1\) pozostanie w urnie. Z Twierdzenia 2.3 o ciągłości
wynika
\[
\mathbb{P}\bigg[\bigcap_{n=1}^{\infty}A_n\bigg]
= \lim_{n\to\infty} \mathbb{P}[A_n]
= \prod_{n=1}^\infty \frac{9n}{9n+1}.
\]
Pozostaje więc policzenie powyższego iloczynu.
W tym celu piszemy, dla ustalonej liczby \(N\),
\[\begin{align*}
\bigg(\prod_{n=1}^\infty \frac{9n}{9n+1}\bigg)^{-1}
& = \prod_{n=1}^\infty \bigg( 1 + \frac 1{9n} \bigg)
\\ & > \prod_{n=1}^N \bigg( 1 + \frac 1{9n} \bigg) \\ & > \frac 19 + \frac 1{18} +\ldots + \frac 1{9N}
\\ & = \frac 19 \sum_{i=1}^N \frac 1i.
\end{align*}\]
Powyższe wyrażenie zbiega do \(\infty\), gdy \(N\to\infty\).
Zatem szukane prawdopodobieństwo wynosi \(0\).
Podobne obliczenia można wykonać dla kuli o dowolnym numerze.
To pokazuje, że z prawdopodobieństwem \(1\) urna o godz. 12 będzie pusta.