esercizio interessante, già postato
QUI da un altro utente....che però piuttosto che darsi da fare ha preferito chiedere di essere cancellato dal forum.
Prima osservazione: la tua funzione non è una densità di probabilità...prova ad integrare su tutto il dominio e vedrai che non fa 1. La densità corretta è quella che ha scritto l'altro utente nel topic del link. Non cambia nulla, alla fine lo stimatore è quello perché la funzione che hai postato tu è comunque "proporzionale" ad una densità ben posta.
Seconda osservazione: Sarebbe utile, come nell'esempio del link, provare a risolvere l'esercizio per $n=2$ e poi per $n$ generico.
Per $n=2$ ho fatto tutti i conti e nel link ti ho indicato più o meno i passaggi da seguire...non è difficile, una volta stabilito il dominio della verosimiglianza, passi al log, derivi, poni =0 e risolvi (tenendo presente che il dominio è vincolato dal parametro).
Terza osservazione: Per $n>2$, al crescere di $n$, lo stimatore di ML "tende" ad avvicinarsi sempre più a $x_((n))^+$ dove con $x_((n))$ intendo il massimo valore delle osservazioni, ovvero l'ennesima statistica d'ordine.
Per arrivare a questa conclusione non è necessario cercare di fare i conti esplicitamente ma bastano alcune osservazioni sulla funzione di verosimiglianza
$L(theta) prop (theta-x_1)/theta^2xx (theta-x_2)/theta^2xx (theta-x_3)/theta^2xx ...xx (theta-x_n)/theta^2xx mathbb(1)_([x_((n));+oo))(theta)$