_stan
(320 punti)
7' di lettura

  1. Calcolare le densità discrete di S e D;
  2. Calcolare P(S = 0, D = 0) e P(S = 1, |D| = 1);
  3. Dire se S e D sono indipendenti;
  4. Calcolare Cov(S,D).

1) Poiché le variabili aleatorie in questione seguono una legge di Bernoulli, sappiamo che esse possono assumere solo valori 0 e 1; di conseguenza, la variabile aleatoria S, data dalla loro somma, potrà assumere valori nell'insieme {0,1,2}. Per calcolare la densità di S dobbiamo quindi calcolare la probabilità che S assuma il valore 0, il valore 1 e il valore 2.

Il primo caso si ha solo quando sia X che Y assumono il valore 0, ovvero:

[math] P(S=0) = P(X=0, Y=0) [/math]

Dall'indipendenza delle variabili aleatorie possiamo scrivere:

[math] P(S=0) = P(X=0, Y=0) = P(X=0) \cdot P(Y=0) [/math]

Dalla conoscenza delle formule per le variabili Bernoulliane possiamo scrivere:

[math] P(S=0) = P(X=0) \cdot P(Y=0) = (1-p)(1-p) = (1-p)^2 [/math]

Il secondo caso è dato quando una delle due variabili aleatorie assume valore 0 e l'altra assume valore 1, ovvero:

[math] P(S=1) = P(X=0, Y=1) + P(X=1, Y=0) [/math]

Procedendo come in precedenza si ha:

[math] P(S=1) = P(X=0) \cdot P(Y=1) + P(X=1) \cdot P(Y=0) = (1-p) \cdot p + p \cdot (1-p) = 2p(1-p) [/math]

Infine il terzo caso si ha quando entrambe le variabili aleatorie assumono il valore 1:

[math] P(S=2) = P(X=1, Y=1) = [/math]

[math]= P(X=1) \cdot P(Y=1) = p \cdot p = p^2 [/math]

Allo stesso modo, possiamo trovare la densità della variabile aleatoria D; in questo caso, poiché essa è data dalla differenza delle variabili aleatorie X e Y, essa potrà assumere valori nell'insieme {-1, 0, 1}.

Cominciamo determinando la probabilità che D assuma il valore 0; tale evento si verifica quando entrambe le variabili X e Y sono nulle oppure quando entrambe sono uguali a 1:

[math] P(D=0) = P(X=0, Y=0) + P(X=1, Y=1) = [/math]

[math] = P(X=0) \cdot P(Y=0) + P(X=1) \cdot P(Y=1) = [/math]

[math] (1-p) \cdot (1-p) + p \cdot p = (1-p)^2 + p^2 = 2p^2 + 1 - 2p[/math]

Procediamo con la probabilità che D assuma valore 1; tale caso si ha quando:

[math] P(D=1) = P(X=1, Y=0) = P(X=1) \cdot P(Y=0) [/math]

Sostituendo i valori abbiamo:

[math] P(D=1) = p \cdot (1-p) [/math]

Infine troviamo la probabilità che D assuma valore -1; tale caso si ha quando:

[math] P(D=-1) = P(X=0, Y=1) = P(X=0) \cdot P(Y=1) [/math]

Sostituendo i valori abbiamo:

[math] P(D=-1) = (1-p) \cdot p [/math]

2) Calcoliamo la prima probabilità richiesta, ovvero

[math]P(S=0, D=0)[/math]
; tale probabilità corrisponde alla seguente:

[math]P( {S=0} U {D=0})[/math]

ovvero che si verifichino entrambi gli eventi {S=0} e {D=0}; il primo si verifica quando sia X che Y sono uguali a 0, mentre il secondo si verifica quando le due variabili aleatorie sono entrambe nulle o entrambe uguali a 1; di conseguenza possiamo scrivere:

[math]P( {S=0} U {D=0}) = P(X=0, Y=0) = (1-p)^2 [/math]

La seconda probabilità richiesta è

[math]P(S=1, |D|=1)[/math]
, ovvero la probabilità:

[math]P(S=1, |D|=1) = P( {S=1} U {|D|=1}) = P( {S=1} U { {D=1} U {D=-1} }) [/math]

Per le proprietà insiemistiche di unione e intersezione, abbiamo che:

[math] P( {S=1} | { {D=1} U {D=-1} }) = P( {{S=1} | {D=1}} U {{S=1} | {D=-1}} ) [/math]

Ovvero:

[math] P( {S=1, D=1} U {S=1, D=-1} ) [/math]

Che puÒ essere tradotto nella forma:

[math] P( S=1, D=1 ) + P(S=1, D=-1) [/math]

Le variabili aleatorie S e D sono entrambe uguali a 1 quando le variabili aleatorie X e Y assumono rispettivamente i valori 1 e 0, ovvero:

[math]P( S=1, D=1 ) = P( X=1, Y=0 ) = p(1-p) [/math]

Mentre il caso in cui S uguale a 1 e D uguale a -1 si ha quando le variabili aleatorie X e Y assumono rispettivamente i valori 0 e 1, ovvero:

[math]P( S=1, D=-1 ) = P( X=0, Y=1 ) = (1-p)p [/math]

3) Per provare se S e D sono indipendenti, prendiamo la probabilità

[math]P(S=0, D=0)[/math]
di cui abbiamo calcolato precedentemente il valore:

[math]P(S=0, D=0) = (1-p)^2 [/math]

Se le variabili aleatorie S e D fossero indipendenti, dovrebbe valere:

[math]P(S=0, D=0) = P(S=0) \cdot P(D=0)[/math]

Come sappiamo dal primo punto, si ha che:

[math] P(S=0) = (1-p)^2 [/math]

[math] P(D=0) = (1-p)^2 + p^2 [/math]

Quindi il loro prodotto vale:

[math] P(S=0) \cdot P(D=0) = (1-p)^2 \cdot [(1-p)^2 + p^2] [/math]

Possiamo concludere, quindi, che le variabili aleatorie S e D non sono indipendenti.

4) Per calcolare la covarianza delle variabili aleatorie S e D applichiamo la seguente formula:

[math] Cov(S,D) = E(SD) - E(S) E(D) [/math]

Dalla definizione delle variabili S e D possiamo scrivere:

[math] Cov(S,D) = E( (X+Y)(X-Y) ) - E(X+Y) E(X-Y) [/math]

Svolgiamo i calcoli:

[math] E( (X+Y)(X-Y) ) - E(X+Y) E(X-Y) = E( X^2 -Y^2 ) - E(X+Y) E(X-Y) [/math]

Dalle proprietà del valore medio abbiamo che:

[math] E( X^2 -Y^2 ) = E( X^2 ) - E( Y^2 ) [/math]

[math]E(X+Y) = E(X) + E(Y) [/math]

[math]E(X-Y) = E(X) - E(Y) [/math]

Quindi, sostituendo nella precedente espressione si ha:

[math] E( X^2 -Y^2 ) - E(X+Y) E(X-Y) = E(X^2) - E(Y^2) - [E(X) + E(Y)] \cdot [E(X) - E(Y)] [/math]

Calcoliamo il prodotto:

[math] E(X^2) - E(Y^2) - [E(X) + E(Y)] \cdot [E(X) - E(Y)] = E(X^2) - E(Y^2) - [ E(X)^2 - E(Y)^2] = [/math]

[math] E(X^2) - E(Y^2) - E(X)^2 + E(Y)^2 = [E(X^2) - E(X)^2] - [E(Y^2) - E(Y)^2] [/math]

Riconosciamo all'interno della formula le espressioni della Varianza delle due variabili aleatorie:

[math] [E(X^2) - E(X)^2] - [E(Y^2) - E(Y)^2] = Var(X) - Var(Y) [/math]

Possiamo quindi concludere che :

[math] Cov(SD) = 0 [/math]
.

Potrebbe interessarti anche