Ok bene....ora è tutto chiaro ed è esattamente come ho scritto nel precedente post.
In realtà si può applicare la fattorizzazione anche prima di calcolare la verosimiglianza perché esiste un'altra strada: si può riscrivere la densità nella forma canonica della famiglia esponenziale e da lì trovare lo stimatore sufficiente....ma non mettiamo troppa carne al fuoco...
Come vedi la densità è quella che ti ho scritto....il libro la "maschera" un po' per non farti vedere che è una distribuzione nota, altrimenti avresti già finito l'esercizio. Riscriviamo dunque la densità semplificandola così:
$f_(theta)(x)=theta^3/2x^2e^(-thetax)$ per $theta>0$, $x>0$ (nel post precedente ho usato la funzione indicatrice per indicare il dominio, ma è lo stesso).
Per calcolare la verosimiglianza, avendo un campione casuale di ampiezza $n$, dove ogni elemento è indipendente e con la stessa distribuzione f, basta moltiplicare le $n$ densità identiche ottenendo
$L_(ul(x))(theta)=theta^(3n)/2^n Pi_(i=1)^(n)x_(i)^2e^(-thetaSigmax)$
Per rispondere al punto a) semplicemente osserviamo che la verosimiglianza (la densità della n-upla campionaria ) può essere riscritta così:
$f_theta(ul(x))=(Pi_(i=1)^(n)x_(i)^2)/2^n*theta^(3n) e^(-thetaSigmax)$
Ora come vedi $L=h(ul(x))g[t(ul(x)),theta]$ ovvero è il prodotto di due funzioni:
$h(ul(x))=(Pi_(i=1)^(n)x_(i)^2)/2^n$ che non dipende da $theta$
$g[t(ul(x)),theta]=theta^(3n) e^(-thetaSigmax)$ che dipende sia da $theta$ che dai dati (le $x_i$) ma, ATTENZIONE ATTENZIONE, dipende dai dati SOLO ATTRAVERSO UNA SPECIFICA FUNZIONE: la somma. Questa funzione, ovvero questa statistica è la statistica sufficiente.
Quindi $T=sum_(i=1)^(n)X_i$ è lo stimatore sufficiente
1Veniamo ora alla ricerca dello stimatore MLE per $theta$ o per una sua funzione. Dato che esiste la proprietà di invarianza secondo cui lo stimatore di massima verosimiglianza di $g(theta)$ è $g(hat(theta))$ conviene concentrarsi sul calcolo dello stimatore di $theta$
Occorrere massimizzare la logverosimiglianza....
Facciamo subito un'osservazione: nell'espressione della $L$ vediamo che alcune quantità non dipendono da $theta$ quindi, una volta che calcoleremo $partial/(partialtheta)l(theta)$, avremo una serie di funzioni uguali a zero; diventa allora più comodo riscrivere la verosimiglianza così:
$L(theta) prop theta^(3n)e^(-thetaSigmax)$
a questo punto ti scrivo i passaggi ma sono davvero banali
$logL=3nlogtheta-thetaSigmax$
$partial/(partialtheta)logL=(3n)/theta -Sigmax=(3n-thetaSigmax)/theta=0$
$hat(theta)=(3n)/(Sigmax)$
abbiamo finito. Il punto trovato è un massimo, non serve la derivata seconda.....
inoltre per trovare lo stimatore della media basta sostiture l'espressione di $hat(theta)$ in $E(X)=3/theta$ al posto di $theta$
ora dovrebbe essere chiaro...