anonymous_58f0ac ha scritto:
In tutto??? Mi era parso di capire che almeno il punto $1)$ fosse uguale!
Non è questione di "passaggi", anzi sotto alcune condizioni il risultato può essere lo stesso. E' proprio diversa la logica sottostante
qui un esercizio propedeutico che ho inventato proprio per far entrare l'utente nella logica bayesiana
qui un topic
qui una prima dispensina (davvero base, non esaustiva) che rende bene l'idea su come procedere
Prima di leggere il mio tutorial devi necessariamente avere un minimo (anche un po' più di un minimo) di basi. La logica bayesiana è completamente diversa da quella classica.
Se sei interessato sto preparando un bel topic sulle "osservazioni critiche" alle tecniche di Statistica Classica in contrapposizione a quella Bayesiana....ma per metterlo nero su bianco...anzi, nero su forum mi ci vuole del tempo...
Per iniziare a capire la differenza di logica fra Classico e Bayesiano dovresti almeno leggere anche
l'altro tutorial, sulla ricerca dello stimatore ottimo in senso Classico...
qui un primo esempio sulla coerenza delle stime.
Vediamone un altro
Sia $X~N(theta;1)$. Il problema è quello di fare inferenza in modo Classico sul parametro ignoto $theta$, cioè sulla media della popolazione
Estraiamo un campione casuale $(X_1,X_2)$ e proponiamo i seguenti stimatori
$T_1=(X_1+X_2)/2$
$T_2=X_1$
Nella statistica classica la scelta tra due stimatori avviene generalmente confrontando l'Errore Quadratico Medio (EQM).
Vediamo subito che i due stimatori sono non distorti, essendo
$mathbb{E}[T_1]=1/2(theta+theta)=theta$
$mathbb{E}[T_2]=theta$
...e quindi per "misurare" la bontà dei due stimatori confrontiamo le loro varianze
$mathbb{V}[T_1]=1/4(1+1)=1/2$, $AA theta$
$mathbb{V}[T_2]=1$, $AA theta$
Quindi, ragionando in modo classico, $T_1$ è sempre preferito a $T_2$. Inoltre, per ragioni note e spiegate nei link precedenti, $T_1$ è lo stimatore ottimo in senso classico (la sua varianza raggiunge addirittura il limite inferiore di Cramér Rao)
Conclusione: scegliamo SEMPRE $T_1$ rispetto a $T_2$ (ed anche rispetto a qualunque altro stimatore non distorto) INDIPENDENTEMENTE da qualunque altra informazione in nostro possesso (è una scelta oggettiva).
Supponiamo ora di effettuare un esperimento e di aver ottenuto i seguenti dati
$x_1=4$
$x_2=1$
A questo punto le due stime saranno
$hat(T)_1=5/2$
$hat(T)_2=4$
Consideriamo ora l'errore quadratico (in funzione di $theta$) che si commette dopo aver osservato il dato sperimentale
1) $(theta-5/2)^2$
2) $(theta-4)^2$
Se disegnamo il grafico di tali errori, in funzione di $theta$
osserviamo che, a dispetto di tutta la teoria classica, se $theta>13/4$ (intersezione fra le due parabole) lo stimatore $T_2$ è preferito allo stimatore $T_1$.
Il fatto è dovuto che nella Statistica Classica si confronta la media degli errori indipendentemente da altre informazioni in nostro possesso
...vale quindi la pena di pensare ad un ragionamento induttivo coerente: ovvero usare il teorema di Bayes con tutto ciò che ne consegue.