Correlazione tra variabili

Messaggioda mobley » 09/10/2019, 10:12

Buongiorno forum, ho due domande da porvi.
Ho due variabili: $U~ U(-1,1)$ e $V=2|U|-1$. Chiede nell'ordine di:
1) calcolare la distribuzione di $V$
2) calcolare la media di $V$
3) dimostrare l'eventuale correlazione di $U$ e $V$
4) dimostrare l'eventuale indipendenza di $U$ e $V$ (oltre a una probabilità), ma ancora devo mettermici.
Il punto 1) prevede che $V~ U(-1,1)$ dove $(0<=|U|<=1)rArr(-1<=V<=1)$.
Il punto 2) è banalmente $0$.

I dubbi riguardano per ora il punto 3), ma temo che tornerò ad aggiornare presto il post perchè ho la sensazione che troverò qualche difficoltà anche per il punto 4).

Premesso che indipendenza implica incorrelazione ma non il contrario, dimostro l'incorrelazione tramite nullità della covarianza:
$cov(U,V):=\mathbb(E)[UV]-\mathbb(E)[U]\mathbb(E)[V]=\mathbb(E)[UV]=\mathbb(E)[U(2|U|-1)]=\mathbb(E)[2U|U|-U]=\mathbb(E)[2U|U|]$

[1° dubbio (anche se di analisi)] Vale sempre la relazione $x|x|=(x\cdot(-x)+x\cdotx)$?

Provando in questo modo, e sapendo che $(0<=|u|<=1)=(0<=-u,u<=1)=(0<=-u<=1)uu (0<=u<=1)=(-1<=u<=0)uu (0<=u<=1)$
$=2[\mathbb(E)[U(-U)+U(U)]]=2[\mathbb(E)[-U^2]+\mathbb(E)[U^2]]=2[\int_(-1)^(0)-u^2 1/2du+\int_(0)^(1)u^2 1/2du]$

[2° dubbio]Perchè svolgendo il primo integrale con la funzione integranda negativa si verifica effettivamente l'incorrelazione mentre se si applica la proprietà degli estremi di integrazione per poi sommare tra loro i due integrali questo non avviene?
mobley
Senior Member
Senior Member
 
Messaggio: 459 di 1246
Iscritto il: 16/06/2017, 17:23

Re: Correlazione tra variabili

Messaggioda tommik » 09/10/2019, 10:59

mobley ha scritto:
[2° dubbio]Perchè svolgendo il primo integrale con la funzione integranda negativa si verifica effettivamente l'incorrelazione mentre se si applica la proprietà degli estremi di integrazione per poi sommare tra loro i due integrali questo non avviene?


ehhh?????? Se esponi analiticamente questa proprietà e la differenza di risultato vediamo...

La covarianza in questione si riconduce a calcolare

$int_-1^1x|x|dx=0$

In qualunque modo tu lo voglia calcolare viene sempre zero....anzi non vi è nemmeno la necessità di calcolarlo analiticamente ma basta guardare (o semplicemente visualizzare mentalmente) come è fatta la funzione $y=x|x|$

....e sapendo come sono fatte le parabole $y=-x^2$ e $y=x^2$ mi pare che non ci sia modo di sbagliarsi...

EDIT: anzi fai così: prendi un foglio di carta e disegna con la penna blu le due parabole

1) $y=-x^2$

2) $y=x^2$

poi prendi la penna rossa e ricalca la parabola 1) quando la x è negativa e la parabola 2) quando la x è positiva. Il tuo integrale è l'area che la funzione rossa genera con l'asse delle x. Ti accorgerai facilmente che l'area di sinistra (quando x è minore di zero) è negativa e combacia esattamente (in valore assoluto) con l'area di destra....risultato....zero.

In termini (un poco) più formali possiamo dire che: l'integrale definito su un intervallo simmetrico allo zero di una funzione dispari è zero.
tommik
Moderatore
Moderatore
 
Messaggio: 5059 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Correlazione tra variabili

Messaggioda mobley » 09/10/2019, 11:29

mobley ha scritto:[1° dubbio (anche se di analisi)] Vale sempre la relazione $ x|x|=(x\cdot(-x)+x\cdotx) $?

Lo prendo come un silenzio-assenso?

Comunque prima di arrivare alla conclusione data dal libro ho provato in diversi modi.
A) Basandomi sul fatto che $|U|$ è positivo: $2\mathbb(E)[U|U|]=2\mathbb(E)[U^2]=\int_(-1)^(1)u^2 1/2du=2/3$.
B) Scomponendo $x|x|$ come sopra: $2[\int_(-1)^(0)-u^2 1/2du+\int_(0)^(1)u^2 1/2du]=2[\int_(0)^(1)u^2 1/2du+\int_(0)^(1)u^2 1/2du]=2[1/2(\int_(0)^(1)u^2du+\int_(0)^(1)u^2du)]=2[1/2(2\int_(0)^(1)u^2du)]=2/3$
mobley
Senior Member
Senior Member
 
Messaggio: 460 di 1246
Iscritto il: 16/06/2017, 17:23

Re: Correlazione tra variabili

Messaggioda tommik » 09/10/2019, 12:33

:shock: :shock:

quindi mi pare di capire che secondo te

A) $U*|U|=U^2$

B)$int_(-1)^0 -f(x)dx=int_0^1 f(x)dx$

mobley ha scritto:[1° dubbio (anche se di analisi)] Vale sempre la relazione $ x|x|=(x\cdot(-x)+x\cdotx) $?
Lo prendo come un silenzio-assenso?


no, prendila come "non voglio rispondere" ma solo osservare che hai scritto

$x*|x|=(-x^2+x^2)=0$

che, oltre ad essere falso, è diverso da ciò che hai scritto in A) che pure è falso.

Riprendendo ciò che hai scritto prima

mobley ha scritto:
$2[\mathbb(E)[-U^2]+\mathbb(E)[U^2]]=2[\int_(-1)^(0)-u^2 1/2du+\int_(0)^(1)u^2 1/2du]$



il calcolo della media con i due integrali è corretto (hai sbagliato a risolvere) mentre il primo membro è un'altra fesseria1. Infatti, se fosse vera, si protrebbe dire che

$2{-mathbb{E}[U^2]+mathbb{E}[U^2]}=0$ sempre, a prescindere dalla densità di $U$....mentre invece la tua media è zero in particolari casi, a seconda di come è fatta la densità

Dovrei aver finito....ho modificato più volte la risposta, anche perché è davvero difficile predisporre una risposta esauriente ad un messaggio che evidenzia tutte queste lacune...in altri termini non so davvero cosa devo necessariamente spiegare e cosa dare per noto....oltretutto sto rispondendo nei ritagli di tempo tra un lavoro e l'altro....

Note

  1. volendo cercare una inutile ma corretta formulazione in termini di valore atteso potresti dire che

    $2mathbb{E}[U*|U|]=2{1/2mathbb{E}[-U^2|U<0]+1/2mathbb{E}[U^2|U>0]}=1/2[-1/6+1/6]=0$
tommik
Moderatore
Moderatore
 
Messaggio: 5060 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Correlazione tra variabili

Messaggioda mobley » 09/10/2019, 14:21

:roll: dall'ultima risposta che mi hai dato quasi mi vergogno a risponderti. Mi ha messo in crisi quel modulo, e non avevo assolutamente pensato ad esprimere i valori attesi come valori attesi condizionati.

Comunque ho terminato anche il punto 4), che chiedeva di stabilire se le variabili sono indipendenti e (probabilmente come suggerimento) invitava a calcolare $\mathbb(P)(V<0|U=1)$.
Spero sia corretto.

$\mathbb(P)(V<0|U=1)=(\mathbb(P)((2|U|-1)<0nn U=1))/(\mathbb(P)(U=1))=\mathbb(P)((2|U|-1)<0nn U=1)$

$=\mathbb(P)(|U|<1/2nn U=1)=O/$


Allora siccome
$\mathbb(P)(V<0|U=1):=\int_(-\infty)^(0)f_{(V|U=1)}(v|1)dv$

$rArr d(\int_(-\infty)^(0)f_{(V|U=1)}(v|1))=d(0)rArr f_{(V|U=1)}(v|1)=0$

$f_{(V|U=1)}(v|1)=(f(1,v))/(f_U(1))rArr 0=(f(1,v))/(1/2)rArr f(1,v)=0!= 1/4\mathbb(1)_{(-1,1)}(1,v)$

le variabili non sono indipendenti.

EDIT:
Testo nascosto, perché contrassegnato dall'autore come fuori tema. Fai click in quest'area per vederlo.
Infatti non so davvero come ringraziarti tommik... Precisione e puntualità nelle risposte incredibili. Se ti trovassi a Roma un giorno di questi manda un messaggio che ti pago da bere :lol:


EDIT:
In realtà avevo anche pensato di dimostrarlo graficamente:

Immagine

Siccome il supporto della congiunta è diverso da $\mathbb(1)_{(-1,1)^2}$ le variabili sono indipendenti. Tuttavia se fosse corretto dimostrarlo in questo modo non saprei ad es. come dimostrarlo graficamente nel caso in cui $W=X+Y$ e $Z=X-Y$ sono entrambe $N(0,2)$.
mobley
Senior Member
Senior Member
 
Messaggio: 461 di 1246
Iscritto il: 16/06/2017, 17:23

Re: Correlazione tra variabili

Messaggioda tommik » 09/10/2019, 14:59

molto semplicemente (non ho tempo di leggere il tutto), io farei così:

$mathbb{P}[V<0]=1/2$ (E' una uniforme in $(-1;1)$)

$mathbb {P}[V<0||U|>1/2]=0$, dato che $V=2|U|-1>0$ $AA|U|>1/2$

e quindi dato che $mathbb{P}[V] !=mathbb{P}[V|Uin A]$ le variabili non sono indipendenti

EDIT: tu non hai ancora capito come fare i grafici....ed è per quello che non riesci mai ad azzeccare gli estremi di integrazione....dovresti riprendere addirittura i libri delle superiori, secondo me

Ecco il grafico corretto, da cui si evince subito che, se U è maggiore di 0.5 (in valore assoluto), V non può essere minore di zero...

(click per ingrandire l'immagine)
Immagine

EDIT 2: ho letto ciò che hai scritto e non va bene, ci sono troppi errori da commentare e quindi faccio giusto un accenno. In generale, per calcolare la probabilità richiesta in modo analitico ci sono due strade: calcolare PRIMA la densità condizionata e POI integrare tale densità sul dominio richiesto oppure passare attraverso il calcolo di alcuni limiti di integrali, anche doppi (puoi trovare un semplice esempio esplicativo qui).
Per il tuo esercizio, tra l'altro, la probabilità richiesta non ha senso in quanto si chiede di calcolare la probabilità condizionata all'evento $U=1$ che non appartiene al dominio di $U$ , uniforme su $(-1;1)$ e quindi non è nemmeno definita la densità condizionata $f(v|u)$ dato che ti verrebbe $f_U(1)=0$.
tommik
Moderatore
Moderatore
 
Messaggio: 5061 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Re: Correlazione tra variabili

Messaggioda gugo82 » 09/10/2019, 15:03

mobley ha scritto:
[1° dubbio (anche se di analisi)] Vale sempre la relazione $x|x|=(x\cdot(-x)+x\cdotx)$?


Ma perché?


P.S.: Non è un dubbio “di Analisi”, è proprio ignoranza delle basi.
Sono sempre stato, e mi ritengo ancora un dilettante. Cioè una persona che si diletta, che cerca sempre di provare piacere e di regalare il piacere agli altri, che scopre ogni volta quello che fa come se fosse la prima volta. (Freak Antoni)
Avatar utente
gugo82
Cannot live without
Cannot live without
 
Messaggio: 22544 di 44915
Iscritto il: 12/10/2007, 23:58
Località: Napoli

Re: Correlazione tra variabili

Messaggioda tommik » 09/10/2019, 18:08

mobley ha scritto: :roll: Tuttavia se fosse corretto dimostrarlo in questo modo non saprei ad es. come dimostrarlo graficamente nel caso in cui $W=X+Y$ e $Z=X-Y$ sono entrambe $N(0,2)$.


Quest'altra "chicca" me l'ero persa...si vede che l'hai aggiunta dopo. Sempre dal tema:" la Teoria, questa sconosciuta "1, se due variabili gaussiane sono non correlate allora sono anche indipendenti; in altri termini, in un modello gaussiano

$"( indipendenza)" harr "( non correlazione)"$


Dimostrazione 1: (ne esisteranno sicuramente altre, questa mi è venuta di botto così)

Testo nascosto, fai click qui per vederlo
La densità di due variabili congiuntamente gaussiane è questa:


$f_(XY)(x, y)=1/(2 pi sigma_X sigma_Y sqrt(1-rho^2))e^(-1/(2(1-rho^2))[(x-mu_X)^2/sigma_X^2-2rho((x-mu_X)(y-mu_Y))/(sigma_Xsigma_Y)+ (y-mu_Y)^2/sigma_Y^2 ]$

Ora basta porre $rho=0$ per verificare che $f_(XY)(x, y)=f_X(x)f_Y(y)$


EDIT
Dimostrazione 2: qui ci ho dovuto pensare un po' di più ma è uscita proprio carina

Testo nascosto, fai click qui per vederlo
Siano $X,Y$ iid $N(theta;1)$

Dimostrare che $Z=X+Y$ e $W=X-Y$ sono indipendenti.

È evidente che $Z~N(2theta;2)$ mentre $W~N(0;2)$

Ma allora $W$ è ancillare per $theta$ mentre $Z$, Statistica canonica di classe esponenziale, è CSS (Statistica Sufficiente, minimale e Completa) per $theta$ e quindi per il Teorema di Basu $Z,W$ sono indipendenti.

(Porre $sigma^2=1$ non fa perdere generalità alla dimostrazione)

Note

  1. ti ricordo che "conoscere la Teoria " significa averla studiata, capita e fatta propria scrivendo valide ed originali dimostrazioni; più le dimostrazioni sono eleganti e meglio si conosce la teoria
tommik
Moderatore
Moderatore
 
Messaggio: 5062 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago


Torna a Statistica e probabilità

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite