Vi sembrano corretti i miei svolgimenti? In particolare i punti a) iii) , b) ii) e c) ii) di cui non sono sicuro e vorrei sapere se sono corretti il modo di procedere e i ragionamenti poiché avrò un esame a breve e non sono minimamente sicuro di come ho fatto. Grazie.
a)Consideriamo una variabile aleatoria \(X=Z_1^2 - Z_2^2 \) dove \(Z_1,Z_2\) sono delle variabili aleatorie indipendenti che seguono una legge normale standard \(N(0,1)\).
i) Calcolare la speranza e la varianza di \(X \)
ii) Calcolare \(M_X(t) \) la funzione generatrice dei momenti di \(X \)
iii) Trovare la distribuzione condizionata di \(X \) sapendo che \(Z_1 + Z_2=u \)
b) Siano \(X_1 ,\ldots,X_k \) delle variabili aleatorie indipendenti e identicamente distribuite secondo una legge normale \(N(0,1) \). Diciamo che \(Y:= X_1^2 + \ldots + X_k^2 \) segue una legge \( \chi_k^2 \)
i) Calcolare la speranza e la varianza di \(Y \)
ii) Se \(K \) segue una legge di Poisson \( \mathcal{P}(\lambda) \) e \( (Y\mid K=k ) \) segue una legge \( \chi_k^2 \) cosa vale la speranza e la varianza di \(Y \)?
c) Consideriamo due successioni di variabili aleatorie \( (X_n)_{n \in \mathbb{N}} \) e \( (Y_n)_{n \in \mathbb{N}} \) che descrivono l'evoluzione di una particella in \( \mathbb{Z}^2 \). La regola che determina l'evoluzione è la seguente:
Se la posizione della particella al tempo \(n \) è \( (X_n,Y_n) = (x_n,y_n) \) allora la posizione al tempo \(n+1\) della particella \( (X_{n+1},Y_{n+1} )\) sarà una dei quattro punti \((x_n+1,y_n), (x_n-1,y_n),(x_n,y_n+1),(x_n,y_n-1) \) con probabilità \( 1/4 \). La particella parte all'origine \( (X_0,Y_0) = (0,0) \)
i) Calcola \( \mathbb{E}[X_n] \)
ii) Calcola \( \mathbb{E}[R_n^2] \) dove \( R_n^2 = X_n^2+Y_n^2 \)
a)
i) \[ \mathbb{E}[Z_1^2 - Z_2^2]= \mathbb{E}[Z_1^2]- \mathbb{E}[Z_1^2] = \operatorname{Var}(Z_1) + \mathbb{E}[Z_1]^2 - \left( \operatorname{Var}(Z_2) + \mathbb{E}[Z_2]^2 \right) \]
E pertanto siccome la legge di \(Z_1,Z_2 \) è \(N(0,1) \) abbiamo che
\[\mathbb{E}[Z_1^2 - Z_2^2]=\operatorname{Var}(Z_1) + \mathbb{E}[Z_1]^2 - \left( \operatorname{Var}(Z_2) + \mathbb{E}[Z_2]^2 \right) = 1 - 1 = 0 \]
ii) \( M_{X}(t)=M_{Z_1^2 - Z_2^2}(t)=M_{Z_1^2}(t)M_{-Z_2^2} \)
Dunque abbiamo che
\[ M_{Z_1^2}(t) = \mathbb{E}[e^{Z_1^2 t}] = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{y^2 t} e^{-y^2/2}dy = \frac{1}{\sqrt{2 \pi}}\int_{-\infty}^{\infty} e^{\frac{-y^2}{2} ( 1-2t)}dy \]
Ponendo il cambio di variabile \( x = \sqrt{1-2t}y \) otteniamo
\[ \frac{1}{\sqrt{2 \pi}} \frac{1}{\sqrt{1-2t}}\int_{-\infty}^{\infty} e^{-\frac{x^2}{2} }dx = \frac{1}{\sqrt{1-2t}}\]
Analogamente per \( M_{Z_2^2}(t) = \frac{1}{\sqrt{1+2t}}\) otteniamo pertanto
\[ M_X(t) = \frac{1}{\sqrt{1-4t^2}} \]
iii)
\[ P\{Z_1^2 - Z_2^2 = x \mid Z_1 + Z_2 = u \}= P\{(Z_1 - Z_2)(Z_1+Z_2) = x \mid Z_1 + Z_2 = u \} = P\{Z_1 - Z_2 = x/u \mid Z_1 + Z_2 = u \} = \frac{P\{Z_1 - Z_2 = x/u\} P \{Z_1+Z_2=u\}}{P \{ Z_1 + Z_2=u \}}= P\{Z_1 - Z_2 = x/u\} \]
b)
i) Le variabili aleatorie \(X_1^2 ,\ldots,X_2^2 \) sono tutte indipendenti e con funzione generatrice dei momenti \(M_{X_i^2}(t)= \frac{1}{\sqrt{1-2t}} = (1-2t)^{-1/2} \)
Pertanto \[ M_{Y}(t) = \prod_{j=1}^{k} M_{X_j^2}(t) = (1-2t)^{-k/2} \]
Abbiamo pertanto che
\[ \mathbb{E}[Y] = M_{Y}'(0) = \left.\begin{matrix}
k(1-2t)^{-k/2-1}
\end{matrix}\right|_{t=0} = k \]
E
\[ \mathbb{E}[Y^2] = M_{Y}''(0) = \left.\begin{matrix}
(k^2+2k)(1-2t)^{-k/2-2}
\end{matrix}\right|_{t=0} = k^2 +2k \]
Pertanto \[ \operatorname{Var}(Y)=\mathbb{E}[Y^2] -\mathbb{E}[Y]^2 = k^2 + 2k - k^2 = 2k \]
ii)
Abbiamo che
\[ \mathbb{E}[Y]= \mathbb{E}[\mathbb{E}[Y \mid K] ] \]
e abbiamo che
\[ \mathbb{E}[Y \mid K] = \phi(K) = \left\{\begin{matrix}
\mathbb{E}[Y \mid K=k]& \text{se} & f_K(k) \neq 0 \\
0& \text{altrimenti}
\end{matrix}\right. \]
Poiché abbiamo che \( f_K(k)= e^{- \lambda} \frac{ \lambda^k}{k!} \neq 0 \) abbiamo dunque che per il punto precedente
\( \phi(K)=\mathbb{E}[Y \mid K=k]=K \)
Pertanto \( \mathbb{E}[K]=\lambda \). Mentre per la varianza
\[ \operatorname{Var}(Y)= \operatorname{Var}(\mathbb{E}[Y\mid K]) + \mathbb{E}[\operatorname{Var}(Y \mid K )]= \operatorname{Var}(K) + \mathbb{E}(2K) = \operatorname{Var}(K) + 2\mathbb{E}(K) = 3 \lambda \]
c) \( X_n = \sum_{k=0}^{n} S_k \) dove \( S_k = 1 \) se si sposta orizontalmente a destra, \( S_k = -1 \) se si sposta orizontalmente a sinistra e \( S_k = 0 \) altrimenti.
Abbiamo che
\[ \mathbb{E}[X_n] = \sum_{k=0}^{n} \mathbb{E}[S_k] = \sum_{k=0}^{n} \left( \frac{1}{4} - \frac{1}{4} \right) = 0 \]
Mentre per quanto riguarda
\[ \mathbb{E}[X_n^2] = \sum_{k=0}^{n} \mathbb{E}[S_k^2] + \sum_{0 \leq k \neq j \leq n} \mathbb{E}[S_k] \mathbb{E}[S_j] = \sum_{k=0}^{n} \mathbb{E}[S_k^2] = \sum_{k=0}^{n} \left( \frac{1}{4} + \frac{1}{4} \right) = \frac{n}{2} \]
Pertanto
\[ \mathbb{E}[R_n^2]= \mathbb{E}[X_n^2] + \mathbb{E}[Y_n^2] =n \]