- Qual è la legge di X? e di Y? Qual è $E(X)$ ? e $E(X)$?
- Trovare la densità discreta di $ Z = max(X,Y)$ e $E(Z)$
- Calcolare $P(X>=Y)$
1) Le variabili X ed Y indicano il numero di lanci necessari per ottenere un determinato valore lanciando uno dei sue dadi; tali variabili, quindi, rappresentano l’istante di primo successo in uno
schema successo-insuccesso, dove le prove sono indipendenti e la probabilità di successo in ciascuna prova è $p_X = 1/6$ nel caso della variabile X, e $p_Y = 1/3$ nel caso della variabile Y.
Tali variabili, quindi, seguono una legge geometrica modificata; ricordiamo che le leggi delle variabili sono le seguenti:
$ P(X=k) = p_X * (1 – p_X)^(k-1) $
$ P(Y=k) = p_Y * (1 – p_Y)^(k-1) $
dove il parametro k assume i valori 1,2,….
Per calcolare la speranza matematica delle due variabili, ovvero $E[X]$ e $E[Y]$, possiamo procedere nel seguente modo: dalla definizione sappiamo che per una variabile aleatoria X:
$ E[X] = sum_j x_j * P(X=x_j)$
per valori di $j >= 0$, possiamo scrivere la speranza nel modo seguente:
$ E[X] = 1* P(X=1) + 2* P(X=2) + 3* P(X=3) + …. $
ovvero:
$ E[X] = P(X=1) + P(X=2) + P(X=2) + P(X=3) + P(X=3) + P(X=3) + …. $
$ E[X] = [P(X=1) + P(X=2) + P(X=3) + …. ] + [P(X=2) + P(X=3) + ….] + [P(X=3) +… ] + …. $
è facile vedere che tale scrittura può essere semplificata nel seguente modo:
$ E[X] = P(X>0) + P(X>1) + P(X>2) + P(X>3) …. $
Quindi, riassumendo si avrebbe:
$ E[X] = sum_j x_j * P(X=x_j) = sum_j P(X>j) $
In questo modo, possiamo calcolare più facilmente la speranza cercata; cominciamo determinando la probabilità $P(X<=k)$:
$ P(X<=k) = sum_(j=1)^k p_X(1-p_X)^(j-1) = p_X * sum_(h=0)^(k-1) (1-p_X)^(h) $ Tale somma ha per risultato: $ p * sum_(h=0)^(k-1) (1-p_X)^(h) = p_X * frac(1 – (1-p_X)^k)( 1 – (1-p_X) ) = 1 – (1-p_X)^k $ Per il calcolo della media abbiamo bisogno della probabilità $P(X>k)$, che possiamo ricavare dal complementare della precedente:
$P(X>k) = 1 – P(X<=k) = 1 – [1 – (1-p_X)^k] = (1-p_X)^k $ A questo punto possiamo riprendere la formula della speranza ricavata precedentemente, e sostituire la probabilità che abbiamo trovato: $ E[X] = sum_k P(X>k) = sum_k (1-p_X)^k = frac(1)(1 – (1-p_X)) = 1/p_X = 1/(1/6) = 6$
Con lo stesso procedimento possiamo determinare $E[Y]$, che risulterà essere:
$ E[Y] = 1/p_Y = 1/(1/3) = 3$
2) In questo secondo punto consideriamo la variabile aleatoria definita come $Z = max(X,Y)$; per trovare la sua densità dobbiamo trovare la legge $P(Z=k)$ con k = 1,2,…
Per determinare tale legge, possiamo notare che la probabilità $P(Z=k)$ è data dalla differenza seguente:
$P(Z=k) = P(Z<=k) – P(Z<=k-1)$
Dalla definizione della variabile aleatoria Z, possiamo scrivere che:
$ P(Z<=k) = P(X<=k , Y<=k) $
e, poiché le variabili X ed Y sono indipendenti, abbiamo che:
$ P(X<=k , Y<=k) = P(X<=k ) * P(Y<=k) $
Dai risultati trovati precedentemente, abbiamo che:
$P(X<=k ) = 1 – (1-p_X)^k $
$P(Y<=k ) = 1 – (1-p_Y)^k $
Sostituendo tali valori nella precedente espressione abbiamo:
$ P(X<=k , Y<=k) = P(X<=k ) * P(Y<=k) = [1 – (1-p_X)^k] * [1 – (1-p_Y)^k] $
Conoscendo i valori delle probabilità di successo $p_X$ e $p_Y$, e sostituendo tali valori troviamo:
$ P(Z<=k) = [1 – (1-1/6)^k] * [1 – (1-1/3)^k] = [1 – (5/6)^k] * [1 – (2/3)^k] $
Allo stesso modo possiamo trovare il valore della probabilità $P(Z<=k-1) $:
$ P(Z<=k-1) = [1 – (1-1/6)^(k-1)] * [1 – (1-1/3)^(k-1)] = [1 – (5/6)^(k-1)] * [1 – (2/3)^(k-1)] $
La legge di Z è data dalla differenza delle due quantità precedentemente trovate:
$P(Z=k) = P(Z<=k) – P(Z<=k-1) = [1 – (5/6)^k] * [1 – (2/3)^k] – [1 – (5/6)^(k-1)] * [1 – (2/3)^(k-1)] $
Svolgiamo i calcoli e semplifichiamo:
$P(Z=k) = 1 – (5/6)^k – (2/3)^k + (5/6)^k*(2/3)^k – 1 + (5/6)^(k-1) + (2/3)^(k-1) – (5/6)^(k-1)*(2/3)^(k-1) = $
$ – 5/6 * (5/6)^(k-1) – 2/3 * (2/3)^(k-1) + (5/6 * 2/3)^k + (5/6)^(k-1) + $
$+ (2/3)^(k-1) – (5/6 * 2/3)^(k-1) = $ $ (1- 5/6) * (5/6)^(k-1) + (1- 2/3) * (2/3)^(k-1) +$
$+ (5/9)^k – (5/9)^(k-1) = $ $ 1/6 * (5/6)^(k-1) +$
$+ 1/3 * (2/3)^(k-1) + 5/9 * (5/9)^(k-1) – (5/9)^(k-1) = $
$ = 1/6 * (5/6)^(k-1) + 1/3 * (2/3)^(k-1) – 4/9 * (5/9)^(k-1)$
La media della variabile Z si può ottenere applicando la definizione di speranza matematica, ovvero:
$ E[Z] = sum_(k=1)^inf k * P(Z=k) $
e dal risultato precedentemente trovato si ha:
$ E[Z] = sum_(k=1)^inf k * [1/6 * (5/6)^(k-1) + 1/3 * (2/3)^(k-1) – 4/9 * (5/9)^(k-1)] $
Per semplicità possiamo spezzare la sommatoria in questo modo:
$ E[Z] = sum_(k=1)^(inf) k * 1/6 * (5/6)^(k-1) + sum_(k=1)^inf k * 1/3 * (2/3)^(k-1) – sum_(k=1)^inf k * 4/9 * (5/9)^(k-1) $
Ricordiamo che è possibile risolvere questo tipo di serie matematiche nel modo seguente:
$ sum_(i=1)^(inf) i * x_i = frac(x)((1-x)^2) $
Pertanto, la prima sommatoria può essere risolta come segue:
$ sum_(k=1)^(inf) k * [1/6 * (5/6)^(k-1) = sum_(k=1)^(inf) k * 1/6 * 6/5 (5/6)^(k) = $
$1/6 * 6/5 * sum_(k=1)^(inf) k * (5/6)^(k) = 1/5 * frac(5/6)((1 – 5/6)^2) =1/5 * 5/6 * 36 = 6 $
In modo analogo, la seconda sommatoria risulta:
$ sum_(k=1)^(inf) k * 1/3 * (2/3)^(k-1) = sum_(k=1)^(inf) k * 1/3 * 3/2 (2/3)^(k) = $
$1/3 * 3/2 * sum_(k=1)^(inf) k * (2/3)^(k) = 1/2 * frac(2/3)((1 – 2/3)^2) =1/2 * 2/3 * 9 = 3 $
E infine la terza sommatoria:
$ sum_(k=1)^(inf) k * 4/9 * (5/9)^(k-1) = sum_(k=1)^(inf) k * 4/9 * 9/5 (5/9)^(k) = $
$ = 4/9 * 9/5 * sum_(k=1)^(inf) k * (5/9)^(k) = 4/5 * frac(5/9)((1 – 5/9)^2) =4/5 * 5/9 * (81)/(16) = 9/4 $
La speranza matematica è quindi data da:
$ E[Z] = 6 + 3 – 9/4 = 9 – 9/4 = (27)/4 $
) Il terzo punto chiede di determinare la probabilità $P(X>=Y)$; tale probabilità può essere calcolata considerando tutti i valori k per cui risulta $Y=k$ e $X>=k$, ovvero risolvendo la seguente espressione:
$ P(X>=Y) = sum_(k=1)^(inf) P( X>=k , Y=k) $
Poiché le variabili sono indipendenti, possiamo scrivere:
$ sum_(k=1)^(inf) P( X>=k , Y=k) = sum_(k=1)^(inf) P( X>=k) * P(Y=k) $
In particolare, la probabilità $ P( X>=k) $ può essere espressa come somma di tutte le probabilità $P(X=h)$ per tutti i valori possibili di h, ovvero:
$P( X>=k) = sum_(h=k)^(inf) P(X=h)$
Tale sommatoria può anche essere scritta nel modo seguente:
$ sum_(h=k)^(inf) P(X=h) = sum_(h=1)^(inf) P(X=h) – sum_(h=1)^(k-1) P(X=h) $
Riportiamo tale espressione all’interno della sommatoria generale:
$ sum_(k=1)^(inf) P( X>=k) * P(Y=k) = sum_(k=1)^(inf) [ (sum_(h=1)^(inf) P(X=h) – sum_(h=1)^(k-1) P(X=h)) * P(Y=k) ]$
Sappiamo che la legge delle variabili X ed Y è una legge geometrica modificata, quindi possiamo scrivere:
$ sum_(k=1)^(inf) [ (sum_(h=1)^(inf) P(X=h) – sum_(h=1)^(k-1) P(X=h)) * ( p_Y * (1-p_Y)^(k-1) ) ]$
Riportiamo anche la legge della variabile X:
$ sum_(k=1)^(inf) [ (sum_(h=1)^(inf) p_X * (1-p_X)^(k-1) – sum_(h=1)^(k-1) p_X * (1-p_X)^(k-1)) * ( p_Y * (1-p_Y)^(k-1) ) ]$
Come in precedenza, possiamo determinare il valore di ogni sommatoria interna:
$ sum_(k=1)^(inf) [ ( p_X * frac(1)(1-(1-p_X)) – p_X * frac(1 – (1-p_X)^(k-2+1))(1-(1-p_X)) ) * ( p_Y * (1- p_Y)^(k-1) ) ]$
$ sum_(k=1)^(inf) [ ( 1 – (1 – (1-p_X)^(k-1)) ) * ( p_Y * (1-p_Y)^(k-1) ) ]$
$ sum_(k=1)^(inf) [ (1-p_X)^(k-1) * p_Y * (1-p_Y)^(k-1) ]$
$ p_Y * sum_(k=1)^(inf) [ (1-p_X)^(k-1) * (1-p_Y)^(k-1) ]$
$ p_Y * sum_(k=1)^(inf) ((1-p_X)*(1-p_Y))^(k-1) $
Applicando le note proprietà della serie in questione, possiamo determinare il risultato finale:
$P( X>=Y) = p_Y * frac(1)(1 – (1-p_X)(1-p_Y) ) = $
$ ?frac(p_Y)( 1 – (1 – p_X – p_Y + p_X * p_Y) ) = $
$ frac(p_Y)( 1 – 1 + p_X + p_Y – p_X * p_Y) = $
$ = frac(p_Y)( p_X + p_Y – p_X * p_Y) ) $
Sostituendo i valori numerici abbiamo:
$ P( X>=Y) = frac(1/3)( 1/6 + 1/3 – 1/6 * 1/3) ) = frac(1/3)( 1/6 + 1/3 – 1/6 * 1/3) ) = $
$ frac(1/3)(4/9) = 1/3 * 9/4 = 3/4 $
Potrebbe interessarti anche