_Tipper
(30 punti)
7' di lettura

Valore atteso

Definizione

Data una variabile aleatoria discreta

[math]X[/math]
che può assumere i valori
[math]x_1, x_2, \ldots, x_k, \ldots[/math]
, si dice che
[math]X[/math]
ha speranza matematica finita se e solo se

[math]\sum_{k} |x_k| p(x_k) > +\infty[/math]
(
[math]p[/math]
è la densità  di probabilità  di
[math]X[/math]
)

e in tal caso si chiama valore atteso di

[math]X[/math]
la quantità 

[math]E[X] = \sum_{k} x_k p(x_k)[/math]

Esempio: dato un dado non truccato, sia

[math]X = \text{
umero usci o dopo un lancio}[/math]
.
Calcolare il valore atteso di
[math]X[/math]
. VIsta l'ipotesi di equiprobabilità , la densità  di probabilità  di
[math]X[/math]
vale

[math]p(k) = \egin{cases} \frac{1}{6} & 6} \\ 0 & \quad \text{altrimenti} \ \end{cases}[/math]

Quindi il valore atteso di

[math]X[/math]
vale

[math]E[X] = \sum_{k=1}^6 k p(k) = 1 \cdot \frac{1}{6} + 2 \frac{1}{6} + 3 \frac{1}{6} + 4 \frac{1}{6} + 5 \frac{1}{6} + 6 \frac{1}{6} = \frac{7}{2}[/math]

Caso vettoriale

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè

[math]E[X] = (E[X_1], E[X_2], \ldots, E[X_n])[/math]

Proprietà  del valore atteso

- Linearità 

[math]E[X + Y] = E[X] + E[Y][/math]

[math]E[\alpha X] = \alpha E[X][/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

- Valore atteso di una funzione di variabili aleatorie

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale che può assumere i valori
[math]x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots[/math]
, se
[math]p[/math]
è la sua densità  di probabilità  congiunta e se
[math]\phi[/math]
è una funzione
[math]\phi: \mathbb{R}^n \to \mathbb{R}[/math]
, allora il valore atteso di
[math]\phi(X)[/math]
vale

[math]E[\phi(X)] = \sum_{k} \phi(x^{(k)}) p(x^{(k)})[/math]

supposto che

[math]\sum_{k} |\phi(x^{(k)})| p(x^{(k)}) > +\infty[/math]
.

- Valore atteso di un prodotto: se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie indipendenti, allora

[math]E[X Y] = E[X] E[Y][/math]

Varianza

Se

[math]X[/math]
è una variabile aleatoria scalare, si definisce varianza di
[math]X[/math]
la quantità 

[math]\text{Var}(X) = \sigma_X^2 = E[(X - E[X])^2][/math]

Se

[math]X[/math]
è una variabile aleatoria discreta con densità  di probabilità 
[math]p(\cdot)[/math]
, e
[math]x_1, x_2, \ldots, x_k, \ldots[/math]
sono tutti e soli i valori che può assumere, allora

[math]\text{Var}(X) = \sum_{k} (x_k - E[X])^2 p(x_k)[/math]

La quantità 

[math]\sigma_X = \sqrt{\text{Var}{X}}[/math]
si chiama deviazione standard.

Disuguaglianza di Chebyshev

Fissato

[math]\eta \in \mathbb{R}^+[/math]
, risulta

[math]P({|X - E[X]| > \eta}) \le \frac{\text{Var}(X)}{\eta^2}[/math]

Proprietà  della varianza

[math]\text{Var}(X) = E[X^2] - (E[X])^2[/math]

[math]\text{Var}(\alpha X) = \alpha^2 \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

[math]\text{Var}(\alpha + X) = \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

Covarianza

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce covarianza, fra
[math]X[/math]
e
[math]Y[/math]
, la quantità 

[math]\text{Cov}(X, Y) = E[(X - E[X]) \cdot (Y - E[Y])][/math]

Proprietà 

[math]\text{Cov}(X, Y) = E[X Y] - E[X] E[Y][/math]

[math]\text{Var}(X + Y) = \text{Var}(X) + 2 \text{Cov}(X, Y) + \text{Var}(Y)[/math]

[math]\text{Cov}(X, Y) = \text{Cov}(Y, X)[/math]

Coefficiente di correlazione

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce coefficiente di correlazione la quantità 

[math]\\rho_{X, Y} = \frac{\text{Cov}(X, Y)}{\sqrt{\text{Var}{X}} \cdot \sqrt{\text{Var}(Y)}}[/math]

Due variabili aleatorie si dicono scorrelate se e solo se

[math]\\rho_{X, Y} = 0[/math]
, cioè se e solo se
[math]\text{Cov}(X, Y) = 0[/math]
, o equivalentemente
[math]E[X Y] = E[X] E[Y][/math]

Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.

Matrice di covarianza

Matrice di covarianza

Se

[math]X = ((X_1),(X_2),(vdots),(X_n))[/math]
è una variabile aleatoria vettoriale, si definisce matrice di covarianza di
[math]X[/math]

[math]\Sigma_X = E[(X - E[X]) \cdot (X - E[X])^T][/math]
(i vettori sono intesi come colonne)

La matrice di covarianza di

[math]X[/math]
equivale a

[math]\Sigma_X = ((\text{Var}(X_1), \quad \text{Cov}(X_1, X_2), \quad \ldots, \quad \text{Cov}(X_1, X_n)),(\text{Cov}(X_2, X_1), \quad \text{Var}(X_2), \quad \ldots, \quad \text{Cov}(X_2, X_n)),(vdots, \quad vdots, \quad ddots, \quad vdots),(\text{Cov}(X_n, X_1), \quad \text{Cov}(X_n, X_2), \quad \ldots, \quad \text{Var}(X_n)))[/math]

Si nota che l'elemento di

[math]\Sigma_X[/math]
di posto
[math]ij[/math]
vale

[math]\Sigma_\begin{cases} & X_{ij}} = {(\text{Var}(X_i & \quad \text{se } i = j \\ \text{Cov}(X_i & X_j & \quad \text{se } i \ne j \ \end{cases}[/math]

Proprietà 

La matrice di covarianza è simmetrica

[math]\Sigma_X = \Sigma_X^T[/math]

dato che

[math]\text{Cov}(X_i, X_j) = \text{Cov}(X_j, X_i)[/math]
.