_Tipper
(30 punti)
7' di lettura

Valore atteso

Definizione

Si dice che una variabile aleatoria continua

[math]X[/math]
ha speranza matematica finita se e solo se

[math]\int_{-\infty}^{+\infty} |x| f_X(x) dx (
[math]f_X[/math]
è la densità  di probabilità  di
[math]X[/math]
)

e in tal caso si chiama valore atteso di

[math]X[/math]
la quantità 

[math]E[X] = \int_{-\infty}^{+\infty} x f_X(x) dx[/math]

Caso vettoriale

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè

[math]E[X] = (E[X_1], E[X_2], \ldots, E[X_n])[/math]

Proprietà  del valore atteso

- Linearità 

[math]E[X + Y] = E[X] + E[Y][/math]

[math]E[\alpha X] = \alpha E[X][/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

- Valore atteso di una funzione di variabili aleatorie

Se

[math]X = (X_1, X_2, \ldots, X_n)[/math]
è una variabile aleatoria vettoriale con densità  congiunta
[math]f_X(x)[/math]
e se
[math]\phi[/math]
è una funzione
[math]\phi: \mathbb{R}^n \to \mathbb{R}[/math]
, la variabile aleatoria
[math]\phi(X)[/math]
ha speranza matematica finita se e solo se

[math]\int_{\mathbb{R}^n} |\phi(x)| f_X(x) dx

e in tal caso il valore atteso di

[math]\phi(X)[/math]
vale

[math]E[\phi(X)] = \int_{\mathbb{R}^n} \phi(x) f_X(x) dx[/math]

- Valore atteso di un prodotto: se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie indipendenti, allora

[math]E[X Y] = E[X] E[Y][/math]

Varianza

Se

[math]X[/math]
è una variabile aleatoria scalare, si definisce varianza di
[math]X[/math]
la quantità 

[math]\text{Var}(X) = \sigma_X^2 = E[(X - E[X])^2][/math]

Se

[math]X[/math]
è una variabile aleatoria continua con densità  di probabilità 
[math]f_X(x)[/math]
, allora

[math]\text{Var}(X) = \int_{-\infty}^{+\infty} (x - E[X])^2 f_X(x) dx[/math]

La quantità 

[math]\sigma_X = \sqrt{\text{Var}{X}}[/math]
si chiama deviazione standard.

Disuguaglianza di Chebyshev

Fissato

[math]\eta \in \mathbb{R}^+[/math]
, risulta

[math]P({|X - E[X]| > \eta}) \le \frac{\text{Var}(X)}{\eta^2}[/math]

Proprietà  della varianza

[math]\text{Var}(X) = E[X^2] - (E[X])^2[/math]

[math]\text{Var}(\alpha X) = \alpha^2 \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

[math]\text{Var}(\alpha + X) = \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]

Covarianza

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce covarianza, fra
[math]X[/math]
e
[math]Y[/math]
, la quantità 

[math]\text{Cov}(X, Y) = E[(X - E[X]) \cdot (Y - E[Y])][/math]

Se

[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie continue con densità  di probabilità  congiunta pari a
[math]f_{X,Y}(x,y)[/math]
, allora

[math]\text{Cov}(X, Y) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x - E[X]) (y - E[Y]) f_{X,Y}(x,y) dx dy[/math]

Proprietà 

[math]\text{Cov}(X, Y) = E[X Y] - E[X] E[Y][/math]

[math]\text{Var}(X + Y) = \text{Var}(X) + 2 \text{Cov}(X, Y) + \text{Var}(Y)[/math]

[math]\text{Cov}(X, Y) = \text{Cov}(Y, X)[/math]

Coefficiente di correlazione

Date due variabili aleatorie scalari

[math]X[/math]
e
[math]Y[/math]
, si definisce coefficiente di correlazione la quantità 

[math]\\rho_{X, Y} = \frac{\text{Cov}(X, Y)}{\sqrt{\text{Var}{X}} \cdot \sqrt{\text{Var}(Y)}}[/math]

Due variabili aleatorie si dicono scorrelate se e solo se

[math]\\rho_{X, Y} = 0[/math]
, cioè se e solo se
[math]\text{Cov}(X, Y) = 0[/math]
, o equivalentemente
[math]E[X Y] = E[X] E[Y][/math]

Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.

Matrice di covarianza

Matrice di covarianza

Se

[math]X = ((X_1),(X_2),(vdots),(X_n))[/math]
è una variabile aleatoria vettoriale, si definisce matrice di covarianza di
[math]X[/math]

[math]\Sigma_X = E[(X - E[X]) \cdot (X - E[X])^T][/math]
(i vettori sono intesi come colonne)

La matrice di covarianza di

[math]X[/math]
equivale a

[math]\Sigma_X = ((\text{Var}(X_1), \quad \text{Cov}(X_1, X_2), \quad \ldots, \quad \text{Cov}(X_1, X_n)),(\text{Cov}(X_2, X_1), \quad \text{Var}(X_2), \quad \ldots, \quad \text{Cov}(X_2, X_n)),(vdots, \quad vdots, \quad ddots, \quad vdots),(\text{Cov}(X_n, X_1), \quad \text{Cov}(X_n, X_2), \quad \ldots, \quad \text{Var}(X_n)))[/math]

Si nota che l'elemento di

[math]\Sigma_X[/math]
di posto
[math]ij[/math]
vale

[math]\Sigma_\begin{cases} & X_{ij}} = {(\text{Var}(X_i & \quad \text{se } i = j \\ \text{Cov}(X_i & X_j & \quad \text{se } i \ne j \ \end{cases}[/math]

Proprietà 

La matrice di covarianza è simmetrica

[math]\Sigma_X = \Sigma_X^T[/math]

dato che

[math]\text{Cov}(X_i, X_j) = \text{Cov}(X_j, X_i)[/math]
.

Valore atteso condizionale

Date due variabili aleatorie continue

[math]X[/math]
e
[math]Y[/math]
, il valore atteso condizionale di
[math]X[/math]
dato
[math]Y = y[/math]
vale

[math]E_{X | Y}[X | y] = \int_{-\infty}^{+\infty} x f_{X | y}(x | y) dx[/math]