Definizione
Data una variabile aleatoria vettoriale continua
[math]X = (X_1, X_2, \ldots, X_n)[/math]
, le variabili aleatorie [math]X_1, X_2, \ldots, X_n[/math]
si dicono congiuntamente gaussiane se e solo se esistono un vettore [math]\mu \in \mathbb{R}^n[/math]
e una matrice definita positiva [math]\Sigma \in \mathbb{R}^{n imes n}[/math]
tali che la densità di probabilità congiunta di [math]X[/math]
possa essere scritta come
[math]f_X(x) = \frac{1}{\sqrt{{2 \\pi}^n det(\Sigma)}} e^{-\frac{1}{2} (x - \mu)^T \Sigma^{-1} (x - \mu)}[/math]
Notare che i vettori sono intesi come colonne, quindi
[math](x - \mu)^T[/math]
è un vettore riga mentre [math](x - \mu)[/math]
è un vettore colonna.
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono variabili aleatorie congiuntamente gaussiane, allora [math]\mu[/math]
è il valore atteso di [math]X[/math]
mentre [math]\Sigma[/math]
è la matrice di covarianza di [math]X[/math]
.
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono congiuntamente gaussiane e scorrelate, allora sono anche indipendenti.
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono congiuntamente gaussiane e indipendenti, allora la matrice di covarianza è una matrice diagonale.
Se
[math]X = (X_1, X_2, \ldots, X_n)[/math]
è un vettore di variabili aleatorie congiuntamente gaussiane, comunque si scelgano [math]A \in \mathbb{R}^{m imes n}[/math]
e [math]b \in \mathbb{R}^m[/math]
, la variabile aleatoria data da
[math]Y = A X + b[/math]
è un vettore di variabili aleatorie congiuntamente gaussiane, con
[math]E[Y] = A E[X] + b[/math]
[math]\Sigma_Y = A \Sigma_X A^T[/math]
([math]\Sigma_Y[/math]
e [math]\Sigma_X[/math]
sono le matrici di covarianza di [math]Y[/math]
e [math]X[/math]
)
Se
[math]X_1, X_2, \ldots, X_n[/math]
sono variabili aleatorie congiuntamente gaussiane, allora ogni variabile [math]X_i[/math]
, [math]1 \le i \le n[/math]
, è una variabile aleatoria gaussiana.