_francesca.ricci
(70 punti)
13' di lettura

  1. Qual è la legge di X? E quella di Y? Qual è
    [math] \displaystyle E(X)[/math]
    e
    [math] \displaystyle E(X)[/math]
    ?
  2. Trovare la densità discreta di
    [math] \displaystyle Z = max(X,Y)[/math]
    e
    [math] \displaystyle E(Z)[/math]
  3. Calcolare
    [math] \displaystyle P(X>=Y)[/math]

1) Le variabili X ed Y indicano il numero di lanci necessari per ottenere un determinato valore lanciando uno dei sue dadi; tali variabili, quindi, rappresentano listante di primo successo in uno schema successo-insuccesso, dove le prove sono indipendenti e la probabilità di successo in ciascuna prova è

[math] \displaystyle p_X = \frac{1}{6}[/math]
nel caso della variabile X, e
[math] \displaystyle p_Y = \frac{1}{3}[/math]
nel caso della variabile Y.
Tali variabili, quindi, seguono una legge geometrica modificata; ricordiamo che le leggi delle variabili sono le seguenti:

[math] \displaystyle P(X=k) = p_X \cdot (1 - p_X)^{k-1} [/math]

[math] \displaystyle P(Y=k) = p_Y \cdot (1 - p_Y)^{k-1} [/math]

dove il parametro k assume i valori 1,2,.

Per calcolare la speranza matematica delle due variabili, ovvero

[math] \displaystyle E[X][/math]
e
[math] \displaystyle E[Y][/math]
, possiamo procedere nel seguente modo: dalla definizione sappiamo che per una variabile aleatoria X:

[math] \displaystyle E[X] = \sum_j x_j \cdot P(X=x_j)[/math]

per valori di

[math] \displaystyle j >= 0[/math]
, possiamo scrivere la speranza nel modo seguente:

[math] \displaystyle E[X] = 1 \cdot P(X=1) + 2 \cdot P(X=2) + 3 \cdot P(X=3) + \dots [/math]

ovvero:

[math] E[X] = P(X=1) + P(X=2) + P(X=2) + P(X=3) + P(X=3) + P(X=3) + \dots [/math]

[math] E[X] = [P(X=1) + P(X=2) + P(X=3) + \dots ] + [P(X=2) + P(X=3) + \dots ] + [P(X=3) + ] + \dots [/math]

È facile vedere che tale scrittura può essere semplificata nel seguente modo:

[math] \displaystyle E[X] = P(X>0) + P(X>1) + P(X>2) + P(X>3) \dots [/math]

Quindi, riassumendo si avrebbe:

[math] \displaystyle E[X] = \sum_j x_j \cdot P(X=x_j) = \sum_j P(X>j) [/math]

In questo modo, possiamo calcolare più facilmente la speranza cercata; cominciamo determinando la probabilità

[math] \displaystyle P(X:

[math] \displaystyle P(X

[math] \displaystyle = p_X \cdot \sum_{h=0}^{k-1} (1-p_X)^{h} [/math]

Tale somma ha per risultato:

[math] \displaystyle p \cdot \sum_{h=0}^{k-1} (1-p_X)^{h} = p_X \cdot \frac{1 - (1-p_X)^k}{ 1 - (1-p_X) } = [/math]

[math] = 1 - (1-p_X)^k [/math]

Per il calcolo della media abbiamo bisogno della probabilità

[math] \displaystyle P(X>k)[/math]
, che possiamo ricavare dal complementare della precedente:

[math] \displaystyle P(X>k) = 1 - P(X

A questo punto possiamo riprendere la formula della speranza ricavata precedentemente, e sostituire la probabilità che abbiamo trovato:

[math] \displaystyle E[X] = \sum_k P(X>k) = \sum_k (1-p_X)^k = [/math]

[math] \displaystyle = \frac{1}{1 - (1-p_X)} = 1/p_X = 1/(\frac{1}{6}) = 6[/math]

Con lo stesso procedimento possiamo determinare

[math] \displaystyle E[Y][/math]
, che risulterà essere:

[math] \displaystyle E[Y] = 1/p_Y = 1/(\frac{1}{3}) = 3[/math]

2) In questo secondo punto consideriamo la variabile aleatoria definita come

[math] \displaystyle Z = max(X,Y)[/math]
; per trovare la sua densità dobbiamo trovare la legge
[math] \displaystyle P(Z=k)[/math]
con k = 1,2,

Per determinare tale legge, possiamo notare che la probabilità

[math] \displaystyle P(Z=k)[/math]
è data dalla differenza seguente:

[math] \displaystyle P(Z=k) = P(Z

Dalla definizione della variabile aleatoria Z, possiamo scrivere che:

[math] \displaystyle P(Z

e, poiché le variabili X ed Y sono indipendenti, abbiamo che:

[math] \displaystyle P(X

Dai risultati trovati precedentemente, abbiamo che:

[math] \displaystyle P(X

[math] \displaystyle P(Y

Sostituendo tali valori nella precedente espressione abbiamo:

[math] P(X

Conoscendo i valori delle probabilità di successo

[math] \displaystyle p_X[/math]
e
[math] \displaystyle p_Y[/math]
, e sostituendo tali valori troviamo:

[math] P(Z

Allo stesso modo possiamo trovare il valore della probabilità

[math] \displaystyle P(Z:

[math] P(Z

La legge di Z data dalla differenza delle due quantità precedentemente trovate:

[math] P(Z=k) = P(Z

Svolgiamo i calcoli e semplifichiamo:

[math] P(Z=k) = 1 - (\frac{5}{6})^k - (\frac{2}{3})^k + (\frac{5}{6})^k \cdot (\frac{2}{3})^k - 1 + (\frac{5}{6})^{k-1} + (\frac{2}{3})^{k-1} - (\frac{5}{6})^{k-1} \cdot (\frac{2}{3})^{k-1} = [/math]

[math] - \frac{5}{6} \cdot (\frac{5}{6})^{k-1} - \frac{2}{3} \cdot (\frac{2}{3})^{k-1} + (\frac{5}{6} \cdot \frac{2}{3})^k + (\frac{5}{6})^{k-1} + [/math]

[math] + (\frac{2}{3})^{k-1} - (\frac{5}{6} \cdot \frac{2}{3})^{k-1} = [/math]
[math] (1- \frac{5}{6}) \cdot (\frac{5}{6})^{k-1} + (1- \frac{2}{3}) \cdot (\frac{2}{3})^{k-1} +[/math]

[math] + (\frac{5}{9})^k - (\frac{5}{9})^{k-1} = [/math]
[math] \frac{1}{6} \cdot (\frac{5}{6})^{k-1} +[/math]

[math] + \frac{1}{3} \cdot (\frac{2}{3})^{k-1} + \frac{5}{9} \cdot (\frac{5}{9})^{k-1} - (\frac{5}{9})^{k-1} = [/math]

[math] = \frac{1}{6} \cdot (\frac{5}{6})^{k-1} + \frac{1}{3} \cdot (\frac{2}{3})^{k-1} - \frac{4}{9} \cdot (\frac{5}{9})^{k-1}[/math]

La media della variabile Z si può ottenere applicando la definizione di speranza matematica, ovvero:

[math] \displaystyle E[Z] = \sum_{k=1}^\in f k \cdot P(Z=k) [/math]

e dal risultato precedentemente trovato si ha:

[math] \displaystyle E[Z] = \sum_{k=1}^\in f k \cdot \Big[\frac{1}{6} \cdot (\frac{5}{6})^{k-1} + \frac{1}{3} \cdot (\frac{2}{3})^{k-1} - \frac{4}{9} \cdot (\frac{5}{9})^{k-1}\Big] [/math]

Per semplicità possiamo spezzare la sommatoria in questo modo:

[math] \displaystyle E[Z] = \sum_{k=1}^{\in f} k \cdot \frac{1}{6} \cdot (\frac{5}{6})^{k-1} + \sum_{k=1}^\in f k \cdot \frac{1}{3} \cdot (\frac{2}{3})^{k-1} [/math]

[math] \displaystyle - \sum_{k=1}^\in f k \cdot \frac{4}{9} \cdot (\frac{5}{9})^{k-1} [/math]

Ricordiamo che è possibile risolvere questo tipo di serie matematiche nel modo seguente:

[math] \displaystyle \sum_{i=1}^{\in f} i \cdot x_i = \frac{x}{(1-x)^2} [/math]

Pertanto, la prima sommatoria può essere risolta come segue:

[math] \displaystyle \sum_{k=1}^{\in f} k \cdot [\frac{1}{6} \cdot (\frac{5}{6})^{k-1} = \sum_{k=1}^{\in f} k \cdot \frac{1}{6} \cdot \frac{6}{5} (\frac{5}{6})^{k} = [/math]

[math] \displaystyle \frac{1}{6} \cdot \frac{6}{5} \cdot \sum_{k=1}^{\in f} k \cdot (\frac{5}{6})^{k} = \frac{1}{5} \cdot \frac{\frac{5}{6}}{(1 - \frac{5}{6})^2} = \frac{1}{5} \cdot \frac{5}{6} \cdot 36 = 6 [/math]

In modo analogo, la seconda sommatoria risulta:

[math] \displaystyle \sum_{k=1}^{\in f} k \cdot \frac{1}{3} \cdot (\frac{2}{3})^{k-1} = \sum_{k=1}^{\in f} k \cdot \frac{1}{3} \cdot \frac{3}{2} (\frac{2}{3})^{k} = [/math]

[math] \displaystyle \frac{1}{3} \cdot \frac{3}{2} \cdot \sum_{k=1}^{\in f} k \cdot (\frac{2}{3})^{k} = \frac{1}{2} \cdot \frac{\frac{2}{3}}{(1 - \frac{2}{3})^2} = \frac{1}{2} \cdot \frac{2}{3} \cdot 9 = 3 [/math]

E infine la terza sommatoria:

[math] \displaystyle \sum_{k=1}^{\in f} k \cdot \frac{4}{9} \cdot (\frac{5}{9})^{k-1} = \sum_{k=1}^{\in f} k \cdot \frac{4}{9} \cdot \frac{9}{5} (\frac{5}{9})^{k} = [/math]

[math] \displaystyle = \frac{4}{9} \cdot \frac{9}{5} \cdot \sum_{k=1}^{\in f} k \cdot (\frac{5}{9})^{k} = \frac{4}{5} \cdot \frac{\frac{5}{9}}{(1 - \frac{5}{9})^2} =\frac{4}{5} \cdot \frac{5}{9} \cdot (81)/(16) = \frac{9}{4} [/math]

La speranza matematica è quindi data da:

[math] \displaystyle E[Z] = 6 + 3 - \frac{9}{4} = 9 - \frac{9}{4} = (27)/4 [/math]

3) Il terzo punto chiede di determinare la probabilità

[math] \displaystyle P(X>=Y)[/math]
; tale probabilità può essere calcolata considerando tutti i valori k per cui risulta
[math] \displaystyle Y=k[/math]
e
[math] \displaystyle X>=k[/math]
, ovvero risolvendo la seguente espressione:

[math] \displaystyle P(X>=Y) = \sum_{k=1}^{\in f} P( X>=k , Y=k) [/math]

Poiché le variabili sono indipendenti, possiamo scrivere:

[math] \displaystyle \sum_{k=1}^{\in f} P( X>=k , Y=k) = \sum_{k=1}^{\in f} P( X>=k) \cdot P(Y=k) [/math]

In particolare, la probabilità

[math] \displaystyle P( X>=k) [/math]
può essere espressa come somma di tutte le probabilità
[math] \displaystyle P(X=h)[/math]
per tutti i valori possibili di h, ovvero:

[math] \displaystyle P( X>=k) = \sum_{h=k}^{\in f} P(X=h)[/math]

Tale sommatoria può anche essere scritta nel modo seguente:

[math] \displaystyle \sum_{h=k}^{\in f} P(X=h) = \sum_{h=1}^{\in f} P(X=h) - \sum_{h=1}^{k-1} P(X=h) [/math]

Riportiamo tale espressione all'interno della sommatoria generale:

[math] \displaystyle \sum_{k=1}^{\in f} P( X>=k) \cdot P(Y=k) = [/math]

[math] \displaystyle = \sum_{k=1}^{\in f} \Big[ \Big(\sum_{h=1}^{\in f} P(X=h) - \sum_{h=1}^{k-1} P(X=h)\Big) \cdot P(Y=k) \Big][/math]

Sappiamo che la legge delle variabili X ed Y è una legge geometrica modificata, quindi possiamo scrivere:

[math] \displaystyle \sum_{k=1}^{\in f} \Big[ \Big(\sum_{h=1}^{\in f} P(X=h) - \sum_{h=1}^{k-1} P(X=h)\Big) \cdot \Big( p_Y \cdot (1-p_Y)^{k-1} \Big) \Big][/math]

Riportiamo anche la legge della variabile X:

[math] \displaystyle \sum_{k=1}^{\in f} \Big[ \Big(\sum_{h=1}^{\in f} p_X \cdot (1-p_X)^{k-1} - \sum_{h=1}^{k-1} p_X \cdot (1-p_X)^{k-1}\Big) [/math]

[math] \displaystyle \cdot ( p_Y \cdot (1-p_Y)^{k-1} ) \Big][/math]

Come in precedenza, possiamo determinare il valore di ogni sommatoria interna:

[math] \displaystyle \sum_{k=1}^{\in f} \Big[ \Big( p_X \cdot \frac{1}{1-(1-p_X)} - p_X \cdot \frac{1 - (1-p_X)^{k-2+1}}{1-(1-p_X)}\Big) [/math]

[math] \displaystyle \cdot \Big( p_Y \cdot (1- p_Y)^{k-1} \Big) \Big] [/math]

[math] \displaystyle \sum_{k=1}^{\in f} \Big[ \Big( 1 - (1 - (1-p_X)^{k-1}) \Big) \cdot \Big( p_Y \cdot (1-p_Y)^{k-1} \Big) \Big][/math]

[math] \displaystyle \sum_{k=1}^{\in f} \Big[ (1-p_X)^{k-1} \cdot p_Y \cdot (1-p_Y)^{k-1} \Big][/math]

[math] \displaystyle p_Y \cdot \sum_{k=1}^{\in f} \Big[ (1-p_X)^{k-1} \cdot (1-p_Y)^{k-1} \Big][/math]

[math] \displaystyle p_Y \cdot \sum_{k=1}^{\in f} \Big((1-p_X) \cdot (1-p_Y)\Big)^{k-1} [/math]

Applicando le note proprietà della serie in questione, possiamo determinare il risultato finale:

[math] \displaystyle P( X>=Y) = p_Y \cdot \frac{1}{1 - (1-p_X)(1-p_Y) } = [/math]

[math] \displaystyle \frac{p_Y}{ 1 - (1 - p_X - p_Y + p_X \cdot p_Y) } = [/math]

[math] \displaystyle \frac{p_Y}{ 1 - 1 + p_X + p_Y - p_X \cdot p_Y} = [/math]

[math] \displaystyle = \frac{p_Y}{ p_X + p_Y - p_X \cdot p_Y } [/math]

Sostituendo i valori numerici abbiamo:

[math] \displaystyle P( X>=Y) = \frac{\frac{1}{3}}{ \frac{1}{6} + \frac{1}{3} - \frac{1}{6} \cdot \frac{1}{3} } = \frac{\frac{1}{3}}{ \frac{1}{6} + \frac{1}{3} - \frac{1}{6} \cdot \frac{1}{3} } = [/math]

[math] \displaystyle \frac{\frac{1}{3}}{\frac{4}{9}} = \frac{1}{3} \cdot \frac{9}{4} = \frac{3}{4} [/math]

Potrebbe interessarti anche