Ciao a tutti, avrei qualche dubbio su questo esercizio...
Mi vengono date due variabili aleatorie $X,Y$ assolutamente continue e i.i.d., con densità
$f(z)=1/z^2 1_{[1,+\infty)}(z)$
Sono definite inoltre $U=XY$ e $V=X$. L'esercizio richiede di:
1. Calcolare la densità congiunta di $(U,V)$.
2. Calcolare la densità marginale di $U$.
3. Calcolare $prob(X>2|U<=2)$.
4. Stabilire se $U$ e $V$ sono indipendenti.
Il primo punto l'ho risolto con il metodo dello jacobiano, ottenendo $f_{(U,V)}(u,v)=1/(vu^2)1_{[v,+\infty)\times[1,+\infty)}(u,v)$.
Il problema sorge dal punto 2... la densità marginale di $U$ viene $f_U(u)=+\infty$ e non ho idea di come trattarla.
Anche perché in ogni caso, se non ho capito male, $prob(X>2|U<=2)=0$ anche se $U$ avesse una densità definita da una funzione, visto che $X>2$ e $Y>=1$ dunque $U=XY$ non potrà mai essere minore o uguale a 2... quindi, visto che $V=X$ mi verrebbe da dire che $U$ e $V$ non sono indipendenti, poiché la probabilità condizionata calcolata prima non è uguale alla sola $prob(X>2)$... è giusto? Come si tratta un caso in cui una densità è infinita?