Quella sopra è la autocovarianza di un \(\displaystyle ARMA(p,q) \) e non un \(\displaystyle AR \) (sebbene un $ARMA$ sia esprimibile come \(\displaystyle AR(\infty) \)).
Quando poni $k=0$ sei in un caso particolare: stai cercando la covarianza con “sé stessa”, che è evidentemente la varianza.
Ad ogni modo, l'autocovarianza di un \(\displaystyle MA(q) \):
\(\displaystyle \gamma(k)=E[(\theta(L)\varepsilon_{t})(\theta(L)\varepsilon_{t-k})] \)
\(\displaystyle =E[(\varepsilon_{t}+...+\theta_{k}\varepsilon_{t-k}+...+\theta_{q}\varepsilon_{t-q})(\varepsilon_{t-k}+\theta_{1}\varepsilon_{t-k-1}+...+\theta_{q}\varepsilon_{t-q-k})] \)
\(\displaystyle =E[(\theta_{j}\varepsilon_{t-k}^{2}+\theta_{1}\theta_{k+1}\varepsilon_{t-k-1}^{2}+...+\theta_{q}\theta_{q-k}\varepsilon_{t-k}^{2}] \)
\(\displaystyle =(\theta_{j}+\theta_{1}\theta_{k+1}+...+\theta_{q}\theta_{q-k})\sigma_{\varepsilon}^2 \)
Con \(\displaystyle k=1,...,q \).
Se \(\displaystyle k>q \) evidentemente \(\displaystyle \gamma(k)=0 \).
Vediamo, per capire meglio, cosa succede nel caso e.g. di \(\displaystyle MA(2) \)
\(\displaystyle \gamma(0)=(1+\theta_{1}^{2}+\theta_{2}^{2})\sigma^2 \)
\(\displaystyle \gamma(1)=E[(\varepsilon_{t}+\theta_{1}\varepsilon_{t-1}+\theta_{2}\varepsilon_{t-2})(\varepsilon_{t-1}+\theta_{1}\varepsilon_{t-2}+\theta_{2}\varepsilon_{t-3})] \)
\(\displaystyle =\theta_{1}E[\varepsilon_{t-1}^{2}]+\theta_{1}\theta_{2}E[\varepsilon_{t-2}^{2}] \)
\(\displaystyle =(\theta_{1}+\theta_{1}\theta_{2})\sigma_{\varepsilon}^{2} \)
\(\displaystyle \gamma(j)=0 \) se \(\displaystyle j=3,4,... \)
Credo che ora dovresti aver capito come si arriva alla sommatoria.