Probabilità condizionata variabili aleatorie.

Messaggioda 3m0o » 28/01/2020, 00:17

Vi sembrano corretti i miei svolgimenti? In particolare i punti a) iii) , b) ii) e c) ii) di cui non sono sicuro e vorrei sapere se sono corretti il modo di procedere e i ragionamenti poiché avrò un esame a breve e non sono minimamente sicuro di come ho fatto. Grazie.

a)Consideriamo una variabile aleatoria \(X=Z_1^2 - Z_2^2 \) dove \(Z_1,Z_2\) sono delle variabili aleatorie indipendenti che seguono una legge normale standard \(N(0,1)\).
i) Calcolare la speranza e la varianza di \(X \)
ii) Calcolare \(M_X(t) \) la funzione generatrice dei momenti di \(X \)
iii) Trovare la distribuzione condizionata di \(X \) sapendo che \(Z_1 + Z_2=u \)
b) Siano \(X_1 ,\ldots,X_k \) delle variabili aleatorie indipendenti e identicamente distribuite secondo una legge normale \(N(0,1) \). Diciamo che \(Y:= X_1^2 + \ldots + X_k^2 \) segue una legge \( \chi_k^2 \)
i) Calcolare la speranza e la varianza di \(Y \)
ii) Se \(K \) segue una legge di Poisson \( \mathcal{P}(\lambda) \) e \( (Y\mid K=k ) \) segue una legge \( \chi_k^2 \) cosa vale la speranza e la varianza di \(Y \)?
c) Consideriamo due successioni di variabili aleatorie \( (X_n)_{n \in \mathbb{N}} \) e \( (Y_n)_{n \in \mathbb{N}} \) che descrivono l'evoluzione di una particella in \( \mathbb{Z}^2 \). La regola che determina l'evoluzione è la seguente:
Se la posizione della particella al tempo \(n \) è \( (X_n,Y_n) = (x_n,y_n) \) allora la posizione al tempo \(n+1\) della particella \( (X_{n+1},Y_{n+1} )\) sarà una dei quattro punti \((x_n+1,y_n), (x_n-1,y_n),(x_n,y_n+1),(x_n,y_n-1) \) con probabilità \( 1/4 \). La particella parte all'origine \( (X_0,Y_0) = (0,0) \)
i) Calcola \( \mathbb{E}[X_n] \)
ii) Calcola \( \mathbb{E}[R_n^2] \) dove \( R_n^2 = X_n^2+Y_n^2 \)


a)
i) \[ \mathbb{E}[Z_1^2 - Z_2^2]= \mathbb{E}[Z_1^2]- \mathbb{E}[Z_1^2] = \operatorname{Var}(Z_1) + \mathbb{E}[Z_1]^2 - \left( \operatorname{Var}(Z_2) + \mathbb{E}[Z_2]^2 \right) \]
E pertanto siccome la legge di \(Z_1,Z_2 \) è \(N(0,1) \) abbiamo che
\[\mathbb{E}[Z_1^2 - Z_2^2]=\operatorname{Var}(Z_1) + \mathbb{E}[Z_1]^2 - \left( \operatorname{Var}(Z_2) + \mathbb{E}[Z_2]^2 \right) = 1 - 1 = 0 \]

ii) \( M_{X}(t)=M_{Z_1^2 - Z_2^2}(t)=M_{Z_1^2}(t)M_{-Z_2^2} \)
Dunque abbiamo che
\[ M_{Z_1^2}(t) = \mathbb{E}[e^{Z_1^2 t}] = \frac{1}{\sqrt{2 \pi}} \int_{-\infty}^{\infty} e^{y^2 t} e^{-y^2/2}dy = \frac{1}{\sqrt{2 \pi}}\int_{-\infty}^{\infty} e^{\frac{-y^2}{2} ( 1-2t)}dy \]
Ponendo il cambio di variabile \( x = \sqrt{1-2t}y \) otteniamo
\[ \frac{1}{\sqrt{2 \pi}} \frac{1}{\sqrt{1-2t}}\int_{-\infty}^{\infty} e^{-\frac{x^2}{2} }dx = \frac{1}{\sqrt{1-2t}}\]
Analogamente per \( M_{Z_2^2}(t) = \frac{1}{\sqrt{1+2t}}\) otteniamo pertanto
\[ M_X(t) = \frac{1}{\sqrt{1-4t^2}} \]
iii)
\[ P\{Z_1^2 - Z_2^2 = x \mid Z_1 + Z_2 = u \}= P\{(Z_1 - Z_2)(Z_1+Z_2) = x \mid Z_1 + Z_2 = u \} = P\{Z_1 - Z_2 = x/u \mid Z_1 + Z_2 = u \} = \frac{P\{Z_1 - Z_2 = x/u\} P \{Z_1+Z_2=u\}}{P \{ Z_1 + Z_2=u \}}= P\{Z_1 - Z_2 = x/u\} \]

b)
i) Le variabili aleatorie \(X_1^2 ,\ldots,X_2^2 \) sono tutte indipendenti e con funzione generatrice dei momenti \(M_{X_i^2}(t)= \frac{1}{\sqrt{1-2t}} = (1-2t)^{-1/2} \)
Pertanto \[ M_{Y}(t) = \prod_{j=1}^{k} M_{X_j^2}(t) = (1-2t)^{-k/2} \]
Abbiamo pertanto che
\[ \mathbb{E}[Y] = M_{Y}'(0) = \left.\begin{matrix}
k(1-2t)^{-k/2-1}
\end{matrix}\right|_{t=0} = k \]
E
\[ \mathbb{E}[Y^2] = M_{Y}''(0) = \left.\begin{matrix}
(k^2+2k)(1-2t)^{-k/2-2}
\end{matrix}\right|_{t=0} = k^2 +2k \]
Pertanto \[ \operatorname{Var}(Y)=\mathbb{E}[Y^2] -\mathbb{E}[Y]^2 = k^2 + 2k - k^2 = 2k \]

ii)
Abbiamo che
\[ \mathbb{E}[Y]= \mathbb{E}[\mathbb{E}[Y \mid K] ] \]
e abbiamo che
\[ \mathbb{E}[Y \mid K] = \phi(K) = \left\{\begin{matrix}
\mathbb{E}[Y \mid K=k]& \text{se} & f_K(k) \neq 0 \\
0& \text{altrimenti}
\end{matrix}\right. \]
Poiché abbiamo che \( f_K(k)= e^{- \lambda} \frac{ \lambda^k}{k!} \neq 0 \) abbiamo dunque che per il punto precedente
\( \phi(K)=\mathbb{E}[Y \mid K=k]=K \)
Pertanto \( \mathbb{E}[K]=\lambda \). Mentre per la varianza
\[ \operatorname{Var}(Y)= \operatorname{Var}(\mathbb{E}[Y\mid K]) + \mathbb{E}[\operatorname{Var}(Y \mid K )]= \operatorname{Var}(K) + \mathbb{E}(2K) = \operatorname{Var}(K) + 2\mathbb{E}(K) = 3 \lambda \]

c) \( X_n = \sum_{k=0}^{n} S_k \) dove \( S_k = 1 \) se si sposta orizontalmente a destra, \( S_k = -1 \) se si sposta orizontalmente a sinistra e \( S_k = 0 \) altrimenti.
Abbiamo che
\[ \mathbb{E}[X_n] = \sum_{k=0}^{n} \mathbb{E}[S_k] = \sum_{k=0}^{n} \left( \frac{1}{4} - \frac{1}{4} \right) = 0 \]
Mentre per quanto riguarda
\[ \mathbb{E}[X_n^2] = \sum_{k=0}^{n} \mathbb{E}[S_k^2] + \sum_{0 \leq k \neq j \leq n} \mathbb{E}[S_k] \mathbb{E}[S_j] = \sum_{k=0}^{n} \mathbb{E}[S_k^2] = \sum_{k=0}^{n} \left( \frac{1}{4} + \frac{1}{4} \right) = \frac{n}{2} \]
Pertanto
\[ \mathbb{E}[R_n^2]= \mathbb{E}[X_n^2] + \mathbb{E}[Y_n^2] =n \]
3m0o
Cannot live without
Cannot live without
 
Messaggio: 833 di 5329
Iscritto il: 02/01/2018, 15:00

Re: Probabilità condizionata variabili aleatorie.

Messaggioda tommik » 28/01/2020, 15:50

premesso che non ho né tempo né voglia di guardarlo tutto...mi pare tanto un tema d'esame riassuntivo: si passa dalle proprietà della gaussiana ai processi stocastici...

Hint: se vuoi attirare l'attenzione è preferibile postare quesiti più corti...altrimenti uno si stufa di rispondere, oppure sa rispondere solo in parte e lascia perdere di rispondere...questa ovviamente è solo la mia modesta opinione. Sto lavorando, tra l'altro, e quindi difficilmente riuscirò a ritagliarmi tanto tempo per leggere bene tutto.

Faccio però notare subito una cosa che aiuta molto nella soluzione, soprattutto perché fa risparmiare tempo.

Le $Z_i^2$ sono delle $chi_((1))^2$ indipendenti e quindi, ad esempio, il primo punto dell' a) viene subito

$mathbb{E}[X]=1-1=0$ (come hai giustamente ma inutilmente calcolato) e


$mathbb{V}[X]=2+2=4$ (che invece non hai nemmeno calcolato)

Stessa cosa per media e varianza della somma delle $k$ gaussiane al quadrato: la media è giustamente k mentre la varianza $2k$ ma non servono calcoli.....sono dati noti dalla distribuzione.

Idem per la fgm...si calcola con le proprietà note della fgm, non servono conti (tra l'altro non ho controllato la correttezza del risultato)

Per la distribuzione condizionata sarei anche io partito come te....ma va determinata, tu non lo hai fatto.


Il resto non l'ho guardato.....
tommik
Moderatore
Moderatore
 
Messaggio: 5214 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Probabilità condizionata variabili aleatorie.

Messaggioda 3m0o » 28/01/2020, 16:10

Ti ringrazio per i consigli riguardo al postare domande e soprattutto per il tempo dedicato alla risposta e lettura.
Effettivamente è una domanda di un vecchio esame. Comunque a corso non abbiamo visto la distribuzione chi quadrato (e siccome il programma è il medesimo nemmeno chi ha svolto questo esame), quindi non possiamo utilizzare i valori noti sulla speranza,varianza e funzioni generatrici dei momenti della distribuzione chi quadrato. Il professore ha definito la distribuzione chi quadrato nel testo di esame, quindi i miei calcoli non sono "inutili" :-D
Si la varianza mi è sfuggita.
La distribuzione condizionata in che modo potrei determinarla?
Ultima modifica di 3m0o il 28/01/2020, 16:17, modificato 1 volta in totale.
3m0o
Cannot live without
Cannot live without
 
Messaggio: 836 di 5329
Iscritto il: 02/01/2018, 15:00

Re: Probabilità condizionata variabili aleatorie.

Messaggioda tommik » 28/01/2020, 16:11

se non avete fatto la chi quadro avrete fatto il calcolo dei momenti della gaussiana? Altrimenti puoi guardare questo interessante topic (calcoli subito i momenti di ogni gaussiana standard o comunque centrata). Qui non si tratta di avere o non aver fatto un certo argomento....ti ho calcolato tutti i momenti di qualunque Gaussiana centrata (quindi con media zero) utilizzando lo sviluppo in serie della Fgm

EDIT: oppure c'è questa soluzione da manicomio di @pilloeffe...che comunque è corretta

L'indipendenza delle $Z_i$ implica anche l'indipendenza delle $Z_i^2$ e quindi

$mathbb{V}[Z_1^2-Z_2^2]=mathbb{V}[Z_1^2]-mathbb{V}[Z_2^2]$

Poi hai che, per definizione,

$mathbb{V}[Y]=mathbb{E}[Y^2]-mathbb{E}^2[Y]$

3m0o ha scritto:Il professore ha definito la distribuzione chi quadrato nel testo di esame, quindi i miei calcoli non sono "inutili" :-D


scusa...(però mi pare una grossa carenza se uno sta studiando probabilità)
tommik
Moderatore
Moderatore
 
Messaggio: 5216 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Probabilità condizionata variabili aleatorie.

Messaggioda 3m0o » 28/01/2020, 16:40

tommik ha scritto:se non avete fatto la chi quadro avrete fatto il clacolo dei momenti della gaussiana?

L'indipendenza delle $Z_i$ implica anche l'indipendenza delle $Z_i^2$ e quindi

$mathbb{V}[Z_1^2-Z_2^2]=mathbb{V}[Z_1^2]-mathbb{V}[Z_2^2]$

Poi hai che, per definizione,

$mathbb{V}[Y]=mathbb{E}[Y^2]-mathbb{E}^2[Y]$

Si quando ho scritto che la varianza mi è sfuggita intendevo dire che mi sono dimenticato di calcolarla
Ma per la varianza mi troverei meglio a fare così.
\( \mathbb{V}[Z_i^2]=\mathbb{E}[Z_i^4]-\mathbb{E}^2[Z_i^2]= M_{Z_i}^{(k)}(0)- (M_{Z_i}^{(2)}(0))^2 \)
E siccome è nota la funzione generatrice dei momenti delle variabili \(N(0,1) \) ed è uguale a \( M_{Z_i}(t)=e^{t^2/2} \) otteniamo che
\[ M_{Z_i}^{(2)}(0)= \left.\begin{matrix}
e^{t^2/2}(t^2+1)
\end{matrix}\right|_{t=0} = 1 \]
e
\[ M_{Z_i}^{(4)}(0)= \left.\begin{matrix}
e^{t^2/2}(t^4+6t^2+3)
\end{matrix}\right|_{t=0} = 3 \]
Pertanto
\( \mathbb{V}[X]= 3-1+3-1=4 \)
3m0o
Cannot live without
Cannot live without
 
Messaggio: 837 di 5329
Iscritto il: 02/01/2018, 15:00

Re: Probabilità condizionata variabili aleatorie.

Messaggioda 3m0o » 28/01/2020, 16:48

scusa...(però mi pare una grossa carenza se uno sta studiando probabilità)

A corso non l'abbiamo vista, negli esercizi l'abbiamo vista. Fondamentalmente nella mia università i corsi sono strutturati con ore di teoria e ore di esercizi associati, spesso il professore nel corso di teoria ci dà risultati, teoremi o mezzi utili con cui dovremmo essere in grado poi di determinare quasi tutti gli altri risultati relativi al corso. Ma all'esame possiamo utilizzare senza dimostrare, senza "giustificare" o senza calcolare solo i risultati visti a corso mentre quelli negli esercizi non li possiamo usare.

edit: Probabilmente l'anno di questo esame la chi quadro non l'ha messa negli esercizi e avrà pensato di mettergliela nell'esame.
3m0o
Cannot live without
Cannot live without
 
Messaggio: 838 di 5329
Iscritto il: 02/01/2018, 15:00

Re: Probabilità condizionata variabili aleatorie.

Messaggioda tommik » 29/01/2020, 06:34

Intanto ho guardato tutti i punti a) e b) e sono tutti perfetti. =D>

Anche la determinazione della legge condizionata va bene ma non hai terminato il lavoro:

Sappiamo che la v.a. $Y=Z_1-Z_2~N(0;2)$

Definiamo la CDF condizionata richiesta

$mathbb(P)[Z_1^2-Z_2^2<=x|Z_1+Z_2=u]=mathbb(P)[uY<=x]=mathbb(P)[Y<=x/u]$

e questo vale $AA u!=0$ fissato (che in sostanza è come hai fatto tu)

In formule la CDF condizionata viene

$F=int_(-oo)^(x/u) 1/(sqrt(2)sqrt(2pi))e^(-y^2/(2\cdot2))dy$

Derivi ed ottieni la densità richiesta

$f=1/(usqrt(2)\cdot sqrt(2pi))e^(-x^2/(2\cdot2u^2))$

Dato che ciò è valido per qualunque $u$ fissato tranne che per $u=0$ ma $mathbb(P)[U=0]=0$ la densità richiesta è quasi certamente una normale di media zero e varianza $2u^2$
tommik
Moderatore
Moderatore
 
Messaggio: 5218 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Probabilità condizionata variabili aleatorie.

Messaggioda 3m0o » 29/01/2020, 15:34

Grazie!
3m0o
Cannot live without
Cannot live without
 
Messaggio: 839 di 5329
Iscritto il: 02/01/2018, 15:00


Torna a Statistica e probabilità

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite