A parte il fatto che, fra tutti i modi possibili di calcolare l'informazione di Fisher, il tuo libro ha scelto sicuramente il peggiore:
Testo nascosto, fai click qui per vederlo
E' abbastanza evidente che, essendo il campionamento casuale, ogni elemento ha la medesima informazione e quindi l'informazione della n-upla è n volte l'informazione di un singolo elemento. Di conseguenza, l'informazione di Fisher può essere così calcolata:
1) $nE{partial/(partial theta)log f}^2$
$log f= log (1/theta)-y/theta$
$partial/(partial theta)log f=y/theta^2-1/theta=1/theta^2(y-theta)$
$nE{partial/(partial theta)log f}^2=n/theta^4E{y-theta}^2=n/theta^4V(y)=n/theta^2$
Ma, per note proprietà di regolarità del modello esponenziale, anche così
2)
$-nE{partial^2/(partial theta^2)log f}$
$partial^2/(partial theta^2) log f=-2y/theta^3+1/theta^2$
$-nE{...}=(2ntheta)/theta^3-n/theta^2=n/theta^2$
Per il passaggio che non capisci invece basta osservare che:
$E{[Sigma_i(theta-y_i)]^2}=E{(ntheta-Sigma_(i)y_i)^2}=$
$=E{n^2theta^2-2nthetaSigma_iy_i+(Sigma_iy_i)^2}=$
$=n^2theta^2-2nthetantheta+ntheta^2+n^2theta^2=ntheta^2$
Quindi, in definitiva, ottieni $1/theta^4 ntheta^2=n/theta^2$ come deve essere.
^^^^^^^
Ora invece veniamo a ciò che mi interessa di più: @absinth, non sei un neoiscritto, perché non rispetti il regolamento?
Come dovresti sapere, una volta scaduta l'immagine , il thread rimane orfano e quindi incomprensibile ed inutile.
Per stavolta ok... ma la prossima volta ti chiudo la discussione , sei avvisato