è una variabile aleatoria vettoriale, il suo valore atteso è il vettore dei valori attesi delle componenti, cioè
[math]\int_{\mathbb{R}^n} |\phi(x)| f_X(x) dx
e in tal caso il valore atteso di
[math]\phi(X)[/math]
vale
[math]E[\phi(X)] = \int_{\mathbb{R}^n} \phi(x) f_X(x) dx[/math]
- Valore atteso di un prodotto: se
[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie indipendenti, allora
[math]E[X Y] = E[X] E[Y][/math]
Varianza
Se
[math]X[/math]
è una variabile aleatoria scalare, si definisce varianza di
[math]X[/math]
la quantità
[math]\text{Var}(X) = \sigma_X^2 = E[(X - E[X])^2][/math]
Se
[math]X[/math]
è una variabile aleatoria continua con densità di probabilità
[math]f_X(x)[/math]
, allora
[math]\text{Var}(X) = \int_{-\infty}^{+\infty} (x - E[X])^2 f_X(x) dx[/math]
La quantità
[math]\sigma_X = \sqrt{\text{Var}{X}}[/math]
si chiama deviazione standard.
Disuguaglianza di Chebyshev
Fissato
[math]\eta \in \mathbb{R}^+[/math]
, risulta
[math]P({|X - E[X]| > \eta}) \le \frac{\text{Var}(X)}{\eta^2}[/math]
Proprietà della varianza
[math]\text{Var}(X) = E[X^2] - (E[X])^2[/math]
[math]\text{Var}(\alpha X) = \alpha^2 \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]
[math]\text{Var}(\alpha + X) = \text{Var}(X)[/math]
, per ogni
[math]\alpha \in \mathbb{R}[/math]
Covarianza
Date due variabili aleatorie scalari
[math]X[/math]
e
[math]Y[/math]
, si definisce covarianza, fra
[math]X[/math]
e
[math]Y[/math]
, la quantità
[math]\text{Cov}(X, Y) = E[(X - E[X]) \cdot (Y - E[Y])][/math]
Se
[math]X[/math]
e
[math]Y[/math]
sono variabili aleatorie continue con densità di probabilità congiunta pari a
[math]f_{X,Y}(x,y)[/math]
, allora
[math]\text{Cov}(X, Y) = \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty} (x - E[X]) (y - E[Y]) f_{X,Y}(x,y) dx dy[/math]
Proprietà
[math]\text{Cov}(X, Y) = E[X Y] - E[X] E[Y][/math]
[math]\text{Var}(X + Y) = \text{Var}(X) + 2 \text{Cov}(X, Y) + \text{Var}(Y)[/math]
[math]\text{Cov}(X, Y) = \text{Cov}(Y, X)[/math]
Coefficiente di correlazione
Date due variabili aleatorie scalari
[math]X[/math]
e
[math]Y[/math]
, si definisce coefficiente di correlazione la quantità
[math]\\rho_{X, Y} = \frac{\text{Cov}(X, Y)}{\sqrt{\text{Var}{X}} \cdot \sqrt{\text{Var}(Y)}}[/math]
Due variabili aleatorie si dicono scorrelate se e solo se
[math]\\rho_{X, Y} = 0[/math]
, cioè se e solo se
[math]\text{Cov}(X, Y) = 0[/math]
, o equivalentemente
[math]E[X Y] = E[X] E[Y][/math]
Nota: due variabili aleatorie indipendenti sono anche scorrelate, non è vero, in generale, il viceversa.
Matrice di covarianza
Matrice di covarianza
Se
[math]X = ((X_1),(X_2),(vdots),(X_n))[/math]
è una variabile aleatoria vettoriale, si definisce matrice di covarianza di
[math]X[/math]
[math]\Sigma_X = E[(X - E[X]) \cdot (X - E[X])^T][/math]
(i vettori sono intesi come colonne)
La matrice di covarianza di
[math]X[/math]
equivale a
[math]\Sigma_X = ((\text{Var}(X_1), \quad \text{Cov}(X_1, X_2), \quad \ldots, \quad \text{Cov}(X_1, X_n)),(\text{Cov}(X_2, X_1), \quad \text{Var}(X_2), \quad \ldots, \quad \text{Cov}(X_2, X_n)),(vdots, \quad vdots, \quad ddots, \quad vdots),(\text{Cov}(X_n, X_1), \quad \text{Cov}(X_n, X_2), \quad \ldots, \quad \text{Var}(X_n)))[/math]
Si nota che l'elemento di
[math]\Sigma_X[/math]
di posto
[math]ij[/math]
vale
[math]\Sigma_\begin{cases} & X_{ij}} = {(\text{Var}(X_i & \quad \text{se } i = j \\ \text{Cov}(X_i & X_j & \quad \text{se } i \ne j \ \end{cases}[/math]
Proprietà
La matrice di covarianza è simmetrica
[math]\Sigma_X = \Sigma_X^T[/math]
dato che
[math]\text{Cov}(X_i, X_j) = \text{Cov}(X_j, X_i)[/math]
.
Valore atteso condizionale
Date due variabili aleatorie continue
[math]X[/math]
e
[math]Y[/math]
, il valore atteso condizionale di
[math]X[/math]
dato
[math]Y = y[/math]
vale
[math]E_{X | Y}[X | y] = \int_{-\infty}^{+\infty} x f_{X | y}(x | y) dx[/math]