E' evidente che $(ax+b)$ e $(hat(a)x+hat(b))$ non sono la stessa cosa.
Una volta stimati i parametri con il metodo che preferisci, anche gli errori saranno stimati, dunque avrai anche $hat(z)$
In termini più precisi e generalizzando il problema a k regressori, abbiamo:
Modello: $ul(y)=Xul(beta)+ul(epsilon)$
Simbologia:
$ul(y)=$ variabile osservabile, vettore di dimensioni $(nxx1)$
$X=$ matrice dei dati deterministicamente osservabile di dimensioni $(nxxk)$
$ul(beta)=$ vettore non noto (da stimare) di dimensione $(kxx1)$
$ul(epsilon)=$ variabile aleatoria su cui vengono avanzate alcune ipotesi (è detta variabile aleatoria non osservabile), vettore di dimensione $(nxx1)$
Ipotesi di base:
1. $E[ul(epsilon)]=ul(0)$
2. $E[ul(epsilon)ul(epsilon)']=sigma^2I_n$
3. $"rango"(X)=k$ (la matrice $X$ ha rango pieno)
Commenti sulle ipotesi di base
1. se non fosse vera, basterebbe una traslazione.
2. la matrice varianze covarianze ha tutte le varianze uguali fra di loro e tutte le covarianze nulle $rarr$ sugli errori si fa l'ipotesi di omoschedasticità e sono non correlati. Per l'ipotesi 1. la varianza degli errori coincide con il loro momento secondo.
3. la matrice $X$ ha rango pieno, ovvero le sue colonne sono linearmente indipendenti $rarr$ non vi è collinearità. Tale ipotesi è cruciale per poter applicare il metodo dei minimi quadrati per stimare il vettore ignoto dei parametri.
Minimizzando lo scalare $ul(epsilon)'ul(epsilon)$ ci accorgiamo che:
$ul(epsilon)'ul(epsilon)=(ul(y)-Xul(beta))'(ul(y)-Xul(beta))$
è una forma quadratica limitata inferiormente dallo zero, per cui basterà derivare rispetto a $beta$ e porre uguale a zero
$ul(epsilon)'ul(epsilon)=ul(y)'ul(y)-ul(y)'Xul(beta)-ul(beta)'X'ul(y)+ul(beta)'X'Xul(beta)=ul(y)'ul(y)-2ul(beta)'X'ul(y)+ul(beta)'X'Xul(beta)$
$partial/(partialbeta)(ul(epsilon)'ul(epsilon))=-2X'ul(y)+2X'Xul(beta)=ul(0)$
$X'Xul(beta)=X'ul(y)$
ottenendo così la stima
$ul(hat(beta))=(X'X)^(-1)X'ul(y)$
Con le assunzioni fatte, $E(ul(y))=Xul(beta)$
Se ora sostituiamo $hat(beta)$ a $beta$ otteniamo anche le previsioni del modello (che sono comunque delle previsioni in media):
$ul(hat(y))=Xul(hat(beta))$
e l'errore di previsione è dunque
$ul(hat(epsilon))=ul(y)-ul(hat(y))$
L'errore di previsione può essere espresso anche in modi diversi (ma è sempre lui)
$ul(hat(epsilon))=ul(y)-Xul(hat(beta))$
$ul(hat(epsilon))=ul(y)-X(X'X)^(-1)X'ul(y)$
$ul(hat(epsilon))=[I-X(X'X)^(-1)X']ul(y)$
$ul(hat(epsilon))=[I-P]ul(y)$
Oppure anche
$ul(hat(epsilon))=(I-P)ul(y)=(I-P)(Xul(beta)+ul(epsilon))=(I-P)Xul(beta)+(I-P)ul(epsilon)$
essendo però
$(I-P)Xul(beta)=Xul(beta)-PXul(beta)=Xul(beta)-X(X'X)^(-1)X'Xul(beta)=ul(0)$
abbiamo
$ul(hat(epsilon))=(I-P)ul(epsilon)$
Tale ultima relazione NON permette di calcolare l'errore di previsione $ul(hat(epsilon))$ me è solo un modo (molto utile per stimare $sigma^2$) per esprimere $ul(hat(epsilon))=f(ul(epsilon))$
Infatti abbiamo
$E[ul(hat(epsilon))'ul(hat(epsilon))]=E[ul(epsilon)'(I-P)(I-P)ul(epsilon)]=E[ul(epsilon)'(I-P)ul(epsilon)]=(n-k)sigma^2$
Testo nascosto, fai click qui per vederlo
Prima di tutto occorre osservare che
1) le matrici $P$ e $(I-P)$ sono simmetriche ed idempotenti:
$P=X(X'X)^(-1)X' rarr P^2=X(X'X)^(-1)X'X(X'X)^(-1)X'=X(X'X)^(-1)X'$
$(I-P)^2=I-2P+P^2=I-P$
2) essendo simmetriche ed idempotenti il $"rango"(I-P)="Traccia"(I_n-P)=n-"Traccia"(P)=n-k$ essendo evidentemente
$"Traccia"[X(X'X)^(-1)X']="Traccia"[X'X(X'X)^(-1)]="Traccia"(I_k)=k$
3) Con $G$ matrice simmetrica si ha
$E[ul(epsilon)'Gul(epsilon)]=E[sum_i epsilon_i^2g_(ii)+sum sum_(i !=j)g_(ij)epsilon_iepsilon_j]=E[sum_iepsilon_i^2g_(ii)]=sigma^2"Traccia"(G)$
Da cui consegue subito che
$hat(sigma)^2=(ul(hat(epsilon))'ul(hat(epsilon)))/(n-k)$ è stimatore non distorto per $sigma^2$
Tale stimatore è calcolabile così:
$hat(sigma)^2=((ul(y)-Xhat(ul(beta)))'(ul(y)-Xhat(ul(beta))))/(n-k)$
A questo punto, inserendo anche l'ipotesi più forte di Normalità nella distribuzione dei residui, per le note proprietà del modello Gaussiano:
$((ul(y)-Xhat(ul(beta)))'(ul(y)-Xhat(ul(beta))))/sigma^2~chi_((n-k))^2$
Per quanto riguarda una prima spiegazione sui residui della regressione mi pare sufficiente fermarmi qui. Spero che questa risposta possa essere utile a te ed anche ad altri utenti. Se ancora non fosse chiaro ti invito a consultare testi specifici
1.