8 Wartość oczekiwana: zastosowania

Twierdzenie 8.1 Niech \(f:\mathbb{R}\to \mathbb{R}\) będzie funkcją borelowską, a \(X\) zmienną losową o rozkładzie \(\mu_X\). Wówczas \[ \mathbb{E}\left[ f(X)\right] = \int_{\mathbb{R}} f(x)\mu_X(\mathrm{d}x), \] o ile jedna z tych całek istnieje.

Przed dowodem zobaczmy proste zastosowanie tego faktu.

Przykład 8.1 Ile średnio należy wykonać rzutów kostką, aby otrzymać pierwszą szóstkę? Ogólniej wykonujemy doświadczenie o prawdopodobieństwie sukcesu \(p\). Ile średnio razy należy je powtórzyć, aby otrzymać sukces.

Niech \(X\) będzie liczbą prób, które należy wykonać, aby otrzymać pierwszy sukces. Wówczas \[ \mathbb{P}[X=k] = p_k= (1-p)^{k-1}p. \] Zatem rozkład \(X\) zadaje się przez \[\begin{equation*} \mu_X(\cdot) = \sum_{k=1}^\infty p_k\delta_k(\cdot). \end{equation*}\] Wzór z Twierdzenia 8.1 zapisuje się jako \[\begin{equation*} \mathbb{E}[f(X)] = \int_\mathbb{R} f(x) \mu_X(\mathrm{d}x) = \sum_{k=1}^\infty f(k) p_k. \end{equation*}\] Biorąc \(f(x)=x\) otrzymujemy interesująca nas wartość oczekiwaną \(X\), \[ \mathbb{E}\left[ X\right] = \sum_{k=1}^{\infty} kp(1-p)^{k-1} = p \sum_{k=1}^{\infty} k (1-p)^{k-1} = \frac 1p. \] Ostatnia równość wynika z różniczkowania szeregu \[\begin{equation*} \sum_{k=0}^\infty q^k = \frac {1}{1-q} \end{equation*}\] absolutnie zbieżnego dla \(q\in (0,1)\). Po zróżniczkowaniu stronami otrzymujemy \[\begin{equation*} \sum_{k=1}^\infty kq^{k-1} = \frac{1}{(1-q)^2}. \end{equation*}\]

Proof (Twierdzenia 8.1). Dowód używa standardowych metod z teorii miary. Przybliża się funkcję \(f\) funkcjami prostymi.

Krok 1. Jeżeli \(f = {\bf 1}_A\) dla \(A\in \mathcal{B}or(\mathbb{R})\), to \(f(X)\) jest zmienną losową przyjmującą 2 wartości: \(0\) i \(1\). Możemy więc napisać \[\begin{multline*} \mathbb{E} f(X) = 1\cdot \mathbb{P}[X\in A] + 0 \cdot \mathbb{P}[X\notin A] = \mu_X(A)\\ = \int_A \mu_X(\mathrm{d}x) = \int_{\mathbb{R}} {\bf 1}_A(x) \mu_X(\mathrm{d}x) = \int_{\mathbb{R}} f(x) \mu(\mathrm{d}x). \end{multline*}\]

Krok 2. Jeżeli \(f = \sum_{i=1}^n a_i {\bf 1}_{A_i}\) jest funkcją prostą, to teza wynika z kroku 1 oraz liniowości wartości oczekiwanej.

Krok 3. Niech \(f\ge 0\) i niech \(f_n\) będzie rosnącym ciągiem funkcji prostych zbiegającym punktowo do \(f\). Wtedy teza wynika z twierdzenia o zbieżności monotonicznej.

Krok 4. Dla dowolnej funkcji \(f\) zapisujemy ją w postaci \(f = f^+ - f^-\) i korzystamy z kroku 3.

Przykład 8.2 Kupujemy \(k\) losów w loterii, w której \(M\) losów jest przegrywających, a \(N\) wygrywających (zakładamy \(k\le M,N\)). Niech \(X\) będzie liczbą losów wygrywających wśród tych, które kupiliśmy. Znajdziemy \(\mathbb{E} [X]\).

1 sposób Zdefiniujmy \[X_i = \left\{\begin{array}{cc} 1 & \mbox{ jeżeli $i$-ty los wygrywa} \\ 0 & \mbox{ jeżeli $i$-ty los przegrywa} \end{array} \right. \] Wtedy \(X = \sum_{i=1}^k X_i\) oraz \(\mathbb{E} X_i = \frac{N}{N+M}\) \[ \mathbb{E} X = \sum_{i=1}^k \mathbb{E} X_i = \frac{kN}{N+M}.\] 2 sposób Szkolna metoda: \[ \mathbb{E} X = \sum_{j=0}^k j \mathbb{P}[X=j] = \sum_{j=0}^k j\cdot \frac{{N\choose j}{M\choose k-j}}{{N+M \choose k}} \] Obie metody muszą prowadzić do tego samego wyniku, stąd \[ \sum_{j=0}^k j\cdot \frac{{N\choose j}{M\choose k-j}}{{N+M \choose k}} = \frac{kN}{N+M}. \]

Przykład 8.3 Tasujemy talię 52 kart metodą Top to random, tzn. kartę, która znajduje się na górze wkładamy w losowe miejsce w talii (są 52 możliwości), a następnie powtarzamy czynność. Ile należy wykonać tasowań, aby można było uznać talię za potasowaną. Jaka jest średnia liczba tasowań?

Kluczowa jest karta, która początkowo znajduje się na samym dole talii. Oznaczmy ją przez \(A\). Zauważmy, że w trakcie tasowania będzie się ona przemieszczać powoli do góry talii. Prawdopodobieństwo, że w pierwszym ruchu karta z góry talii znajdzie się pod \(A\) wynosi \(1/52\). Jest ono małe, ale z prawdopodobieństwem 1 (Lemat Borela-Cantellego) nastąpi moment, gdy pod \(A\) znajdzie się jakaś karta, oznaczmy ją przez \(K_1\).

Po wykonaniu losowej liczby tasowań kolejna karta \(K_2\) zostanie wstawiona poniżej \(A\). Wzajemne ułożenie kart \(K_1\) i \(K_2\) jest losowe (tzn. z prawdopodobieństwem \(1/2\) karta \(K_1\) jest nad \(K_2\) i na odwrót). Kontynuując to rozumowanie w pewnej chwili pod \(A\) będzie znajdować się \(k\) kart: \(K_1, \ldots K_k\). Każde ułożenie tychże kart jest tak samo prawdopodobne (indukcja!). Zatem karty pod \(A\) są dobrze potasowane.

Karta \(A\) dotrze w końcu na sam szczyt talii i to właśnie ona zostanie wstawiona. W tej chwili wszystkie karty będą dobrze potasowane (każde ich wzajemne ułożenie jest jednakowo prawdopodobne).

Obliczmy ile czasu potrzebuje karta \(A\), aby dotrzeć na górę talii. Niech \(X_i\) oznacza czas jaki karta \(A\) spędza na \(i\)-tej pozycji od dołu. Prawdopodobieństwo, że karta wstawiona zostanie poniżej \(A\) wynosi \(1/52\). Czas oczekiwania na sukces \(X_1\), zgodnie z poprzednim przykładem jest zmienną losową o rozkładzie Geom(\(1/52\)), zatem \(\mathbb{E} X_1 = 52\). Podobnie dla każdego \(i\): \(\mathbb{E} X_i = 52/i\). Podsumowując \[\mathbb{E} X = \mathbb{E} \sum_{i=1}^{52 } X_i = \sum_{i=1}^{52} \mathbb{E} X_i = \sum_{i=1}^{52} \frac{52}i = 52 \sum_{i=1}^{52} \frac 1i \sim 52 (\log 52 + \gamma) \sim 235, \] gdzie \(\gamma\) jest stałą Eulera–Mascheroniego znaną z wykładu z analizy (\(\gamma \sim 0,577\)).

Kroki: 0