Errore di misura e coefficienti di regressione

Messaggioda raffamaiden » 05/09/2017, 14:56

Stavo leggendo qui

Ipotizziamo di avere il seguente modello:

\(y_i = \alpha + \beta x_i^* + \epsilon_i \)

Purtroppo \( x_i^* \) non è osservabile. Possiamo solo osservare:

\( x_i = x_i^* + \upsilon_i \)

Dove \( \upsilon_i \) è un errore di misura

Sostituendo si ricava

\( y_i = \alpha + \beta (x_i - \upsilon_i) + \epsilon_i = \alpha + \beta x_i + u_i \)

Dove \( u_i = \epsilon_i - \beta \upsilon_i \)

Questa è l'equazione in funzione del segnale rumoroso \( x_i \)

Ora il testo dice che \( x_i \) e \(u_i\) sono correlati. Questo ok. E che la stima di \( \beta \) è sottostimato. Questo non lo capisco

Ipotizzando \( \beta > 0\), se \( v \uparrow \Rightarrow x \uparrow \) ma anche \( u \downarrow \) quindi l'effetto sulla stima di \( \beta \) non mi è chiaro
raffamaiden
 

Re: Errore di misura e coefficienti di regressione

Messaggioda raffamaiden » 09/09/2017, 09:44

Hello, is anybody in there?
Just nod if you can hear me.
Is there anyone at home?

Testo nascosto, fai click qui per vederlo
Pink Floyd è un marchio registrato. Tutti i diritti riservati
raffamaiden
 

Re: Errore di misura e coefficienti di regressione

Messaggioda Injuria » 09/09/2017, 22:13

Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).

Ma cosa succede se $Cov(x, e) != 0$ ?

Lo stimatore dei minimi quadrati convergerà a:

$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $

dove

$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$


*Tranne nel caso limite di variabile degenere.
Avatar utente
Injuria
Senior Member
Senior Member
 
Messaggio: 464 di 1094
Iscritto il: 21/10/2007, 00:33

Re: Errore di misura e coefficienti di regressione

Messaggioda raffamaiden » 11/09/2017, 23:25

Injuria ha scritto:Lasciando perdere un attimo Wikipedia, in realtà il segno della distorsione (sovrastima o sottostima) dipende dal segno della covarianza fra $x$ ed $e$. Quindi se il termine d'errore è correlato positivamente con la variabile esplicativa del modello vi sarà una sovrastima del parametro, viceversa una sottostima.
Infatti quando $Cov(x, e) = 0$ si può dimostrare che lo stimatore del parametro converge asintoticamente a:
$\(Cov(x, y)) / (Var(x))$ (dimostrazione semplice presente in qualsiasi libro di statistica di base).

Ma cosa succede se $Cov(x, e) != 0$ ?

Lo stimatore dei minimi quadrati convergerà a:

$ \(Cov(x, y)) / (Var(x)) - (Cov(x, e)) / (Var(x)) $

dove

$(Cov(x, e)) / (Var(x)) $ è la distorsione rispetto allo stimatore corretto di cui sopra.
Da cui è facile evincere che, dato che la varianza è sempre positiva*, la sovrastima o la sottostima de parametro dipende unicamente dal segno di $Cov(x, e)$


*Tranne nel caso limite di variabile degenere.


Grandissimo. Grazie :smt023
raffamaiden
 

Re: Errore di misura e coefficienti di regressione

Messaggioda markowitz » 13/09/2017, 17:55

No ragazzi. [-X
Il segno della distorsione è da studiare nel problema delle variabili omesse ma nel caso di endogeneità prodotta da errori di misura (del tipo che tratti sopra) presente nei regressori ci si riconduce ad una sottostima sistematicamente del parametro. Si parla di attenuation bias
ecco una dimostrazione
https://it.wikipedia.org/wiki/Regressio ... _variabili
markowitz
Senior Member
Senior Member
 
Messaggio: 528 di 1034
Iscritto il: 14/02/2010, 21:50

Re: Errore di misura e coefficienti di regressione

Messaggioda Injuria » 14/09/2017, 08:30

Ciao markowitz, hai ragione, in caso di errori di misura della variabile esplicativa gli effetti sono diversi, errore mio di confusione. Però anche in questo caso bisogna vedere il segno del parametro: infatti si parla di "attenuazione" ovvero di un appiattimento della retta di regressione e quindi di tendenza allo zero. Dunque se il parametro è positivo ci sarà una sottostima, se il parametro è negativo una sovrastima.
Avatar utente
Injuria
Senior Member
Senior Member
 
Messaggio: 468 di 1094
Iscritto il: 21/10/2007, 00:33

Re: Errore di misura e coefficienti di regressione

Messaggioda markowitz » 14/09/2017, 14:46

Si certo hai ragione anche tu, ho tralasciato il caso $beta<0$.
Diciamo che intendevo una sottostima di $|beta|$ :D
markowitz
Senior Member
Senior Member
 
Messaggio: 529 di 1034
Iscritto il: 14/02/2010, 21:50


Torna a Statistica e probabilità

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite