Valore atteso, varianza, covarianza (caso discreto)

Valore atteso

 
Definizione
 
Data una variabile aleatoria discreta $X$ che può assumere i valori $x_1, x_2, \ldots, x_k, \ldots$, si dice che $X$ ha speranza matematica finita se e solo se
 
$\sum_{k} |x_k| p(x_k) < +\infty$ ($p$ è la densità di probabilità di $X$)
 
e in tal caso si chiama valore atteso di $X$ la quantità
 
$E[X] = \sum_{k} x_k p(x_k)$
 
Esempio: dato un dado non truccato, sia $X = "numero uscito dopo un lancio"$. Calcolare il valore atteso di $X$. VIsta l’ipotesi di equiprobabilità, la densità di probabilità di $X$ vale
 
$p(k) = \{(\frac{1}{6}, \quad "se " k \in \{1, 2, 3, 4, 5, 6\}),(0, \quad "altrimenti"):}$
 
Quindi il valore atteso di $X$ vale
 
$E[X] = \sum_{k=1}^6 k p(k) = 1 \cdot \frac{1}{6} + 2 \frac{1}{6} + 3 \frac{1}{6} + 4 \frac{1}{6} + 5 \frac{1}{6} + 6 \frac{1}{6} = \frac{7}{2}$
 
Caso vettoriale
 
Se $X = (X_1, X_2, \ldots, X_n)$ è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè
 
$E[X] = (E[X_1], E[X_2], \ldots, E[X_n])$
 
Proprietà del valore atteso
 
– Linearità
 
$E[X + Y] = E[X] + E[Y]$
 
$E[\alpha X] = \alpha E[X]$, per ogni $\alpha \in \mathbb{R}$
 
– Valore atteso di una funzione di variabili aleatorie
Se $X = (X_1, X_2, \ldots, X_n)$ è una variabile aleatoria vettoriale che può assumere i valori $x^{(1)}, x^{(2)}, \ldots, x^{(k)}, \ldots$, se $p$ è la sua densità di probabilità congiunta e se $\phi$ è una funzione $\phi: \mathbb{R}^n \to \mathbb{R}$, allora il valore atteso di $\phi(X)$ vale
 
$E[\phi(X)] = \sum_{k} \phi(x^{(k)}) p(x^{(k)})$
 
supposto che $\sum_{k} |\phi(x^{(k)})| p(x^{(k)}) < +\infty$.
 
– Valore atteso di un prodotto: se $X$ e $Y$ sono variabili aleatorie indipendenti, allora
 
$E[X Y] = E[X] E[Y]$
 

Varianza

 
Se $X$ è una variabile aleatoria scalare, si definisce varianza di $X$ la quantità
 
$"Var"(X) = \sigma_X^2 = E[(X – E[X])^2]$
 
Se $X$ è una variabile aleatoria discreta con densità di probabilità $p(\cdot)$, e $x_1, x_2, \ldots, x_k, \ldots$ sono tutti e soli i valori che può assumere, allora
 
$"Var"(X) = \sum_{k} (x_k – E[X])^2 p(x_k)$
 
La quantità $\sigma_X = \sqrt{"Var"(X)}$ si chiama deviazione standard.
 
Disuguaglianza di Chebyshev
 
Fissato $\eta \in \mathbb{R}^+$, risulta
 
$P(\{|X – E[X]| > \eta\}) \le \frac{"Var"(X)}{\eta^2}$
 
Proprietà della varianza
 
$"Var"(X) = E[X^2] – (E[X])^2$
 
$"Var"(\alpha X) = \alpha^2 "Var"(X)$, per ogni $\alpha \in \mathbb{R}$
 
$"Var"(\alpha + X) = "Var"(X)$, per ogni $\alpha \in \mathbb{R}$
 

Covarianza

 
Date due variabili aleatorie scalari $X$ e $Y$, si definisce covarianza, fra $X$ e $Y$, la quantità
 
$"Cov"(X, Y) = E[(X – E[X]) \cdot (Y – E[Y])]$
 
Proprietà
 
$"Cov"(X, Y) = E[X Y] – E[X] E[Y]$
 
$"Var"(X + Y) = "Var"(X) + 2 "Cov"(X, Y) + "Var"(Y)$
 
$"Cov"(X, Y) = "Cov"(Y, X)$
 
Coefficiente di correlazione
 
Date due variabili aleatorie scalari $X$ e $Y$, si definisce coefficiente di correlazione la quantità
 
$\rho_{X, Y} = \frac{"Cov"(X, Y)}{\sqrt{"Var"(X)} \cdot \sqrt{"Var"(Y)}}$
 
Due variabili aleatorie si dicono scorrelate se e solo se $\rho_{X, Y} = 0$, cioè se e solo se $"Cov"(X, Y) = 0$, o equivalentemente $E[X Y] = E[X] E[Y]$
 
Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.
 

Matrice di covarianza

Matrice di covarianza 

 
Se $X = ((X_1),(X_2),(\vdots),(X_n))$ è una variabile aleatoria vettoriale, si definisce matrice di covarianza di $X$
 
$\Sigma_X = E[(X – E[X]) \cdot (X – E[X])^T]$ (i vettori sono intesi come colonne)
 
La matrice di covarianza di $X$ equivale a
 
$\Sigma_X = (("Var"(X_1), \quad "Cov"(X_1, X_2), \quad \ldots, \quad "Cov"(X_1, X_n)),("Cov"(X_2, X_1), \quad "Var"(X_2), \quad \ldots, \quad "Cov"(X_2, X_n)),(\vdots, \quad \vdots, \quad \ddots, \quad \vdots),("Cov"(X_n, X_1), \quad "Cov"(X_n, X_2), \quad \ldots, \quad "Var"(X_n)))$ 
 
Si nota che l’elemento di $\Sigma_X$ di posto $ij$ vale
 
$\Sigma_{X_{ij}} = \{("Var"(X_i), \quad "se " i = j),("Cov"(X_i, X_j), \quad "se " i \ne j):}$
 
Proprietà
 
La matrice di covarianza è simmetrica
 
$\Sigma_X = \Sigma_X^T$
 
dato che $"Cov"(X_i, X_j) = "Cov"(X_j, X_i)$.
 

 

 
 

 

Commenti

commenti