Pagina 1 di 2

Analisi serie storiche

MessaggioInviato: 13/02/2019, 18:27
da riccardo.direnzo
Ciao. Sto studiando gli ARMA, per ora sono ancora nella fase introduttiva; sul libro di testo è scritto che una proprietà importante per questi processi è che per ogni funzione di autocovarianza $ gamma (k) $ t.c. $ lim_(k -> infty) gamma(k)=0 $ esiste un processo ARMA y con funzione di autocovarianza $ gamma_y(k) $ t.c. $ gamma_y(k)=gamma(k) $ per ogni k. Una domanda ma quando scriviamo $ lim_(k -> infty) gamma(k)=0 $ non stiamo dicendo che il processo è anche asintoticamente incorrelati (posta la $ V(y_t) $ finita)?

Re: Analisi serie storiche

MessaggioInviato: 13/02/2019, 19:20
da Gughigt
L'incorrelazione asintotica c'è se fissata la fase ($t$) l'autocovarianza tende a zero per \(\displaystyle k \rightarrow \pm \infty \). In altre parole il processo è asintoticamente incorrelato se vale che:

\(\displaystyle \lim_{ k \rightarrow \pm \infty}\gamma_{t}(k)=0 \)


Dovrebbe essere così.

Re: Analisi serie storiche

MessaggioInviato: 14/02/2019, 22:41
da riccardo.direnzo
Ok. Grazie mille. Un'altra cosa, sto calcolando VALORE ATTESO, VARIANZA, AUTOCOVARIANZA (sempre ARMA) e mi servirebbe un aiuto per quest'ultima. Il libro mi dà solo i risultati e Io invece vorrei capire come calcolarli.
Il processo è il seguente
$ y_t=theta_(0)epsilon_(t)+theta_(1)epsilon_(t-1)+...+theta_(q)epsilon_(t-q) $
supponendo $ epsilon ~ WN(0, sigma_(epsilon)^2) $
Con VALORE ATTESO e VARIANZA ci sono
$ E(y_t)=0 $
$ E(y_(t)^2)=sigma_(epsilon)^2 sum_(j=0)^q theta_(j)^2 $
Infatti calcolando:
$ E(y_t)=E(sum_(j=0)^q theta_(j)epsilon_(t-1))=sum_(j=0)^q theta_(j)E(epsilon_(t-1))=0 $
$ E(y_(t)^2)=E[(sum_(j=0)^q theta_(j)epsilon_(t-1))(sum_(j=0)^q theta_(j)epsilon_(t-1))]=sum_(j=0)^q theta_(j)^(2)E(epsilon_(t-1)^2)=sigma_(epsilon)^(2)sum_(j=0)^q theta_(j)^(2) $
Per quanto riguarda l'AUTOCOVARIANZA, invece, sul libro è scritta così:
$ E(y_(t)y_(t-k))=E[(theta_(0)epsilon_(t)+theta_(1)epsilon_(t-1)+...+theta_(q)epsilon_(t-q)) (theta_(0)epsilon_(t-k)+theta_(1)epsilon_(t-k-1)+...+theta_(q)epsilon_(t-k-q))] $
È uguale a $ sigma_(epsilon)^2 sum_(j=0)^(q-k)theta_(j)theta(j+k), text(se) k<=q $
Vale 0 se $ k>q $

Non riesco a scrivere L'AUTOCOVARIANZA in forma compatta per calcolare il passaggio intermedio così come ho fatto per la VARIANZA :lol: . Poi, non riesco a capire quel q - k sopra la sommatoria, e come interpreto la relazione "sdoppiata", cioè quando k<=q e k>q. Grazie

Re: Analisi serie storiche

MessaggioInviato: 15/02/2019, 17:22
da Gughigt
Il processo che hai scritto non è un \(\displaystyle ARMA \) ma un \(\displaystyle MA(q) \).
Se ti serve l'autocovarianza di un ARMA:
\(\displaystyle \gamma(k)=E[(y_{t}-\mu)(y_{t-k}-\mu)] \)

\(\displaystyle =\phi_{1}E[(y_{t-1}-\mu)(y_{t-k}-\mu)]+...+\phi_{p}E[(y_{t-p}-\mu)(y_{t-k}-\mu)] \)

\(\displaystyle +E[(\varepsilon_{t-k}(y_{t-k}-\mu)]+\theta_{1}E[(\varepsilon_{t-1}(y_{t-k}-\mu)]+...+\theta_{q}E[(\varepsilon_{t-q}(y_{t-k}-\mu)] \)

Nota che \(\displaystyle E[(\varepsilon_{t-q}(y_{t-k}-\mu)] \) è nullo (prova a verificarlo così ti eserciti), per questo se \(\displaystyle k>q \) vale \(\displaystyle 0 \). In altre parole se il lag che stai cercando è maggiore dell'ordine della parte \(\displaystyle MA \) del processo l'autocovarianza è nulla.
Allora:
\(\displaystyle E[(y_{t}-\mu)(y_{t-k}-\mu)] \)

\(\displaystyle =\phi_{1}E[(y_{t-1}-\mu)(y_{t-k}-\mu)]+...+\phi_{p}E[(y_{t-p}-\mu)(y_{t-k}-\mu)] \)

Quindi:
\(\displaystyle \gamma(k)=\phi_{1}\gamma(k-1)+\phi_{2}\gamma(k-2)+...+\phi_{p}\gamma(k-p) \)

Con \(\displaystyle k=q+1, q+2,... \).
Di conseguenza, dopo \(\displaystyle q \) ritardi ottieni che la funzione di autocovarianza segue un'equazione alle differenze di ordine \(\displaystyle p \) nei parametri dell'\(\displaystyle AR \).
Chiaro? :wink:
Ti scrivo l'autocovarianza del \(\displaystyle MA(q) \)?

Re: Analisi serie storiche

MessaggioInviato: 15/02/2019, 21:20
da riccardo.direnzo
Ok, e ti ringrazio. Siccome il mio professore è particolarmente pignolo ed lo non sopporto imparare formule a memoria, e sai com'è l'econometria ne è piena. Mi basterebbe solo capire come arrivare da questa $ E(y_(t)y_(t-k))=[(theta_(0)epsilon_(t)+theta_(1)epsilon_(t-1)+...+theta_(q)epsilon_(t-q)) (theta_(0)epsilon_(t-k)+theta_(1)epsilon_(t-k-1)+...+theta_(q)epsilon_(t-k-q))] $
a questa $ sigma_(epsilon)^2 sum_(j=0)^(q-k) theta_(j)theta_(j+k) $
Magari è una stupidaggine, anzi sicuramente lo è, ma non riesco a capire perché j+k a pedice del secondo fattore theta e il q-k ad apice della sommatoria, anche perché poi basterebbe porre k=0 per ottenere $ sigma_(epsilon)^2 sum_(j=0)^(q-0) theta_(j)theta_(j+0) = sigma_(epsilon)^2 sum_(j=0)^(q) theta_(j)theta_(j) = sigma_(epsilon)^2 sum_(j=0)^(q) theta_(j)^2 $
Ti ringrazio anche per il processo AR, ma per quello già ci ero

Re: Analisi serie storiche

MessaggioInviato: 15/02/2019, 22:56
da Gughigt
Quella sopra è la autocovarianza di un \(\displaystyle ARMA(p,q) \) e non un \(\displaystyle AR \) (sebbene un $ARMA$ sia esprimibile come \(\displaystyle AR(\infty) \)).
Quando poni $k=0$ sei in un caso particolare: stai cercando la covarianza con “sé stessa”, che è evidentemente la varianza.
Ad ogni modo, l'autocovarianza di un \(\displaystyle MA(q) \):

\(\displaystyle \gamma(k)=E[(\theta(L)\varepsilon_{t})(\theta(L)\varepsilon_{t-k})] \)

\(\displaystyle =E[(\varepsilon_{t}+...+\theta_{k}\varepsilon_{t-k}+...+\theta_{q}\varepsilon_{t-q})(\varepsilon_{t-k}+\theta_{1}\varepsilon_{t-k-1}+...+\theta_{q}\varepsilon_{t-q-k})] \)

\(\displaystyle =E[(\theta_{j}\varepsilon_{t-k}^{2}+\theta_{1}\theta_{k+1}\varepsilon_{t-k-1}^{2}+...+\theta_{q}\theta_{q-k}\varepsilon_{t-k}^{2}] \)

\(\displaystyle =(\theta_{j}+\theta_{1}\theta_{k+1}+...+\theta_{q}\theta_{q-k})\sigma_{\varepsilon}^2 \)

Con \(\displaystyle k=1,...,q \).
Se \(\displaystyle k>q \) evidentemente \(\displaystyle \gamma(k)=0 \).

Vediamo, per capire meglio, cosa succede nel caso e.g. di \(\displaystyle MA(2) \)
\(\displaystyle \gamma(0)=(1+\theta_{1}^{2}+\theta_{2}^{2})\sigma^2 \)

\(\displaystyle \gamma(1)=E[(\varepsilon_{t}+\theta_{1}\varepsilon_{t-1}+\theta_{2}\varepsilon_{t-2})(\varepsilon_{t-1}+\theta_{1}\varepsilon_{t-2}+\theta_{2}\varepsilon_{t-3})] \)

\(\displaystyle =\theta_{1}E[\varepsilon_{t-1}^{2}]+\theta_{1}\theta_{2}E[\varepsilon_{t-2}^{2}] \)

\(\displaystyle =(\theta_{1}+\theta_{1}\theta_{2})\sigma_{\varepsilon}^{2} \)

\(\displaystyle \gamma(j)=0 \) se \(\displaystyle j=3,4,... \)


Credo che ora dovresti aver capito come si arriva alla sommatoria.

Re: Analisi serie storiche

MessaggioInviato: 16/02/2019, 10:25
da riccardo.direnzo
Ok, tutto chiaro anche l'esempio numerico. Scusami però, abbi un po' di di pazienza :roll:, potresti essere più completo e dare meno per scontato sulla forma generica (gentilmente spiegandomi passaggio per passaggio, prodotto per prodotto, termine per termine - no che non lo sappia fare, però - magari mi dici cosa si annulla e cosa rimane), come arrivi da
$ E[(epsilon_(t)+theta_ (1)epsilon_(t-1)+...+theta_(q)epsilon_(t-q))(epsilon_(t-k)+theta_ (1)epsilon_(t-k-1)+...+theta_(q)epsilon_(t-k-q))] $
a questa
$ E(theta_(j)epsilon_(t-k)^2+theta_(1)theta_(k+1)epsilon_(t-k-1)^2+...+theta_(q)theta_(q-k)epsilon_(t-q-k)^2) $

Re: Analisi serie storiche

MessaggioInviato: 16/02/2019, 11:49
da Gughigt
Innanzitutto dove vedi scritto $j$ volevo dire $k$. Per capire cosa si annulla ti basta sapere che per come è definito il White Noise si ha che:

\(\displaystyle E[\varepsilon_{t}\varepsilon_{t+k}]=0 \\ \forall k=1,2,... \)

Cioè le covarianze tra tutte le \(\displaystyle \varepsilon \) sono nulle, quindi tutte le volte che moltiplichi \(\displaystyle \varepsilon \) con pedici diversi è $0$ (Ovviamente sotto l’operatore valore atteso eh). Non dovresti più avere dubbi a questo punto.

P.S. Dovresti rivedere bene tutti i processi, confondere un $MA$ con un $ARMA$ è grave, sebbene l’$MA$ sia un caso particolare dell’$ARMA$ (con la parte autoregressiva nulla) ed anche non ricordarsi che gli errori sono tutti incorrelati temporalmente.. mi raccomando perché sono cose importanti e ti serviranno per i vari processi ad eteroschedasticità condizionata ($ARCH$, $GARCH$ etc.)

Re: Analisi serie storiche

MessaggioInviato: 16/02/2019, 12:28
da riccardo.direnzo
Si si ci sono, ora è davvero finalmente tutto chiaro. Infatti, ora mi ci trovo, grazie per la pazienza sei stato davvero gentile

Re: Analisi serie storiche

MessaggioInviato: 16/02/2019, 18:07
da riccardo.direnzo
Cortesemente dimmi solo se è giusto.

Con $ q=1 $
$ E[(theta_(0)epsilon_(t)+theta_(1)epsilon_(t-1)) (theta_(0)epsilon_(t-1)+theta_(1)epsilon_(t-2))] = E(theta_(0)^2epsilon_(t)epsilon_(t-1)+theta_(0)theta_(1)epsilon_(t)epsilon_(t-2)+theta_(0)theta_(1)epsilon_(t-1)^2+theta_(1)^2epsilon_(t-1)epsilon_(t-2)) $
portando fuori i coefficienti
$ theta_(0)^2E(epsilon_(t)epsilon_(t-1))+theta_(0)theta_(1)E(epsilon_(t)epsilon_(t-2))+theta_(0)theta_(1)E(epsilon_(t-1)^2)+theta_(1)^2E(epsilon_(t-1)epsilon_(t-2)) $
Poiché $ epsilon_(t)~WN(0,sigma_(epsilon)^2) $
dove $ E(epsilon_(t)epsilon_(t-k))=0, AA k!=0 text((*)) $
resta solo $ theta_(0)theta_(1)E(epsilon_(t-1)^2) hArr theta_(0)theta_(1)sigma_(epsilon)^2 $
essendo nulle tutte le altre per la $ text((*)) $.

Con $ q=2 $
$ E[(theta_(0)epsilon_(t)+theta_(1)epsilon_(t-1)+theta_(2)epsilon_(t-2)) (theta_(0)epsilon_(t-1)+theta_(1)epsilon_(t-2)+theta_(2)epsilon_(t-3))]=E(theta_(0)^2epsilon_(t)epsilon_(t-1)+theta_(0)theta_(1)epsilon_(t)epsilon_(t-2)+theta_(0)theta_(2)epsilon_(t)epsilon_(t-3)+theta_(0)theta_(1)epsilon_(t-1)^2+theta_(1)^2epsilon_(t-1)epsilon_(t-2)+theta_(1)theta_(2)epsilon_(t-1)epsilon_(t-3)+theta_(0)theta_(2)epsilon_(t-1)epsilon_(t-2)+theta_(1)theta_(2)epsilon_(t-2)^2+theta_(2)^2epsilon_(t-2)epsilon_(t-3))=theta_(0)^2E(epsilon_(t)epsilon_(t-1))+theta_(0)theta_(1)E(epsilon_(t)epsilon_(t-2))+theta_(0)theta_(2)E(epsilon_(t)epsilon_(t-3))+theta_(0)theta_(1)E(epsilon_(t-1)^2)+theta_(1)^2E(epsilon_(t-1)epsilon_(t-2))+theta_(1)theta_(2)E(epsilon_(t-1)epsilon_(t-3))+theta_(0)theta_(2)E(epsilon_(t-1)epsilon_(t-2))+theta_(1)theta_(2)E(epsilon_(t-2)^2)+theta_(2)^2E(epsilon_(t-2)epsilon_(t-3)) $
Sempre per la $ text((*)) $
restano solo $ theta_(0)theta_(1)E(epsilon_(t-1)^2)+theta_(1)theta_(2)E(epsilon_(t-2)^2) hArr theta_(0)theta_(1)sigma_(epsilon)^2+theta_(1)theta_(2)sigma_(epsilon)^2 hArr sigma_(epsilon)^2(theta_(0)theta_(1)+theta_(1)theta_(2)) $

Quindi generalizzando si ha:
$ sigma_(epsilon)^2(theta_(0)theta_(1)+theta_(1)theta_(2)+...+theta_(q)theta_(q-k))=sigma_(epsilon)^2 sum_(j=0)^(q-k)theta_(j)theta_(j+k) $
Giusto?