[TUTORIAL]: L'approccio Bayesiano al problema della prova di ipotesi

Messaggioda tommik » 01/07/2019, 10:19

I tipici problemi che si presentano in Statistica sono quelli della stima e di prova delle ipotesi. Secondo un autorevole professore di fama internazionale (e mio relatore di laurea): "la distribuzione finale esaurisce il problema dell'inferenza statistica in termini bayesiani".

La distribuzione finale (a posteriori, o Posterior) si calcola utilizzando il teorema di Bayes:

$pi(theta|ul(x))=(pi(theta)p(ul(x)|theta))/(int_(Theta)pi(theta)p(ul(x)|theta) d theta)$


dato che il denominatore è integrato è un numero e quindi, più semplicemente, definiamo

$pi(theta|ul(x)) proppi(theta)p(ul(x)|theta)$


dove $pi(theta)$ è la distribuzione iniziale (Prior) mentre $p(ul(x)|theta)$ è la verosimiglianza ottenuta dall'osservazione dei dati sperimentali, dato il parametro.

Tuttavia esistono situazioni in cui è utile ricercare una conveniente sintesi della distribuzione finale. La ricerca di questa sintesi avviene spesso mediante il ricorso alla Teoria delle Decisioni.

Ricerca della distribuzione iniziale $pi(theta)$

Esistono diversi modi per definire una distribuzione iniziale, ma il modo più comune (e comodo) è quello di cercare una distribuzione iniziale che sia coniugata al modello statistico sperimentale. Una distribuzione iniziale si dice coniugata al modello se la distribuzione finale è la stessa, a parte i parametri.
Per i principali modelli statistici noti esistono tabelle che dicono quale sia la distribuzione iniziale coniugata e come si calcolano gli iperparametri a posteriori, ovvero i parametri della distribuzione finale risultante.
Esiste però un metodo molto interessante per ricercare direttamente la distribuzione a priori coniugata ed è il seguente teorema di fattorizzazione.

Se la verosimiglianza del modello ammette la seguente fattorizzazione

$p(ul(x)|theta)=g[t(ul(x)),n,theta]psi(ul(x))$


con $t$ riassunto esaustivo (stimatore sufficiente, per dirlo in termini classici) e $g$, come funzione di $theta$, integrabile su tutto $Theta$

Allora la distribuzione iniziale coniugata ha la seguente forma

$pi(theta) prop g(s,m,theta)$


Esempio 1

Partiamo da un modello uniforme $U[0;theta]$

con funzione di verosimiglianza

$p(ul(x)|theta)=1/theta^n mathbb{1}_([x_((n));+oo))(theta)$


E' evidente che

$g[t,n,theta]=1/theta^n mathbb{1}_([x_((n));+oo))(theta)$

e quindi

$pi(theta) prop 1/theta^m mathbb{1}_([s;+oo))(theta)$

che è una distribuzione di Pareto, come si può controllare dalla tabella linkata precedentemente e che evidentemente è proprio la distribuzione coniugata al modello essendo

$pi(theta|ul(x)) prop 1/theta^m mathbb{1}_([s;+oo))(theta)1/theta^n mathbb{1}_([x_((n));+oo))(theta)=1/theta^(m+n)mathbb{1}_([max(s,x_((n)));+oo))(theta)$

Esempio 2

partendo da un modello di poisson, con funzione di verosimiglianza

$p(ul(x)|theta) =1/(Pi_i x_i!) e^(-n theta)theta^(Sigma_i x_i)$

si deduce subito che

$g(t,n,theta)=theta^t e^(-ntheta)$ e quindi

$pi(theta) prop theta^s e^(-mtheta)$

che è la distribuzione coniugata al modello di Poisson ed è evidentemente una densità di tipo Gamma.

Fatte queste doverose premesse (che si possono trovare in modo dettagliato su qualunque testo specifico di Statistica Bayesiana) passiamo ora all'analisi dei vari sistemi di prova delle ipotesi.
In linea generale, il problema viene risolto calcolando le probabilità finali delle due ipotesi e mettendole a confronto in qualche modo.

CASO 1: IPOTESI SEMPLICI


${{: ( mathcal{H}_0:theta=theta_0 ),( mathcal{H}_1:theta=theta_1 ) :}$


Per calcolare le probabilità finali dobbiamo porre come probabilità iniziali due valori

$P(theta=theta_0)=p$

$P(theta=theta_1)=1-p$

Per mettere a confronto le due probabilità finali consideriamo il seguente rapporto (Bayes Factor)

$(P(theta_0|ul(x)))/(P(theta_1|ul(x)))$

e deciderò per l'ipotesi $mathcal(H)_0$ se e solo se il rapporto precedente è


$(P(theta_0|ul(x)))/(P(theta_1|ul(x)))>1 rarr (P(theta_0|ul(x)))/(1-P(theta_0|ul(x)))>1 rarr P(theta_0|ul(x))>1/2$

Oppure, ciò che è lo stesso,

$(p(ul(x)|theta_0))/(p(ul(x)|theta_1))>(1-p)/p$

In altri termini, se le ipotesi sono entrambe semplici, la regola di decisione si basa sul rapporto delle verosimiglianze (similmente al caso della Statistica Classica, solo che qui non è necessario conoscere la distribuzione del rapporto di verosimiglianza).

Esercizio 1

Si acquista un lotto di prodotti che proviene interamente da uno dei due fornitori, A oppure B ma non si hanno particolari informazioni circa la provenienza di tale lotto. E' noto però che la difettosità dei prodotti provenienti da A è del 10% mentre quella dei prodotti provenienti da B è del 20%. Per stabilire la provenienza del lotto si esaminano 20 esemplari del lotto trovandone 3 difettosi, ovvero una percentuale del 15%. Come possiamo decidere da quale dei due fornitori arriva il lotto?


Innanzitutto osserviamo che, non avendo particolari informazioni a priori circa la provenienza del lotto, la distribuzione iniziale non influisce sul processo di decisione e quindi possiamo tralasciarla.
Eseguendo il rapporto fra le verosimiglianze otteniamo

$(p(ul(x)|theta_0))/(p(ul(x)|theta_1))=(0.1^3xx0.9^17)/(0.2^3xx0.8^17)~~17/18$

che ci fa quindi decidere per il fornitore B (la verosimiglianza del denominatore è la più alta....ovvero la più verosimile)

Ovviamente posso calcolare la probabilità a posteriori di $theta_1$ per semplice normalizzazione ottenendo

$18/(17+18)>1/2$

che porta alla stessa decisione

Esercizio 2

CASO 2: IPOTESI SEMPLICE VS IPOTESI COMPOSTA


${{: ( mathcal{H}_0:theta=theta_0 ),( mathcal{H}_1:theta !=theta_0 ) :}$


Anche qui imponiamo a priori (in base alle nostre conoscenze) le due probabilità

$pi(theta=theta_0)=p$

Ora però, data la complessità dell'ipotesi alternativa, dobbiamo distribuire la massa di probabilità $(1-p)$ attribuita all'ipotesi alternativa su tutto l'insieme $Theta_1$ e per farlo ci serve una densità $g(omega)$ tale per cui, per ogni sottoinsieme $B sub Theta_1$, si abbia

$mathbb{P}[theta in B]=(1-p)int_B g(omega)d omega$

A questo punto la regola di decisione, similmente al caso precedente è la seguente: Prendo la decisione di scegliere l'ipotesi di lavoro se e solo se

$(mathbb{P}[theta_0|ul(x)])/(mathbb{P}[theta_1|ul(x)])=p/(1-p) (p(ul(x)|theta_0))/(int_(Theta_1) p(ul(x)|omega)g(omega)d omega)>1$

Esercizio 3

Nelle acque antistanti un tratto di costa hawaiana capita con una certa frequenza che i sub entrino in contatto visivo con gli squali. Nella tabella sottostante sono riportati, per cinque anni, il numero di avvistamenti di squali in quelle acque e quante volte ad un avvistamento è seguito un attacco da parte di uno squalo.

20022003200420052006
Numero di avvistamenti899610
Numero di attacchi53535


Si supponga che la probabilità $p$ che un avvistamento sia seguito da un attacco sia costante nel tempo e che gli avvistamenti siano indipendenti tra loro.
In base ad uno studio condotto a livello internazionale, si ritiene che la probabilità che l'incontro tra un sub ed uno squalo dia luogo ad un attacco da parte del predatore marino sia pari a $0.45$.

Assumendo una distribuzione iniziale che assegni probabilità $0.5$ a $p=0.45$ e distribuita uniformemente altrove, si verifichi l'ipotesi


${{: ( mathcal{H}_0:p=0.45 ),( mathcal{H}_1:p !=0.45 ) :}$


Applicando il ragionamento esposto precedentemente, il rapporto delle verosimiglianze (misto) diventa

$(0.45^21*0.55^21)/(int_0^1 theta^21(1-theta)^21d theta)=(Gamma(44))/(Gamma(22)Gamma(22))0.45^21*0.55^21=(43!)/(21!*21!)0.45^21*0.55^21=4.26>1$

Quindi accetto $mathcal(H)_0$

CASO 3: IPOTESI COMPOSTE


Supponiamo di avere il seguente sistema di ipotesi, entrambe composte

${{: ( mathcal{H}_0: theta<=theta_0 ),( mathcal{H}_1:theta >theta_0) :}$


Per risolvere un problema di questo tipo introduciamo la "funzione di danno bayesiano". La scelta della funzione di danno dipende ovviamente dal ricercatore e quindi anche la regola di decisione può essere differente.

La funzione di danno più semplice è la seguente:

$D(theta, d_0)={{: ( 0 , ; theta<=theta_0 ),( 1, ;theta>theta_0) :}$

$D(theta, d_1)={{: ( 0 , ; theta>theta_0 ),( 1, ;theta<=theta_0) :}$

Dove con $D(theta, d_i)$ indico il danno che si verifica prendendo la decisione $d_i$, collegata all'accettazione dell'ipotesi $mathcal(H)_i$

Decido per l'ipotesi $mathcal(H)_0$ sse il danno probabile determinato da tale decisione è minore (a posteriori) di quello che si avrebbe scegliendo l'ipotesi alternativa.

In termini formali, accetto $mathcal(H)_0$ se e solo se

$int_(theta_0)^(+oo)pi(theta|ul(x))d theta<int_(-oo)^(theta_0)pi(theta|ul(x))d theta$

e quindi se e solo se

$int_(-oo)^(theta_0)pi(theta|ul(x))d theta>1/2$

Volendo posso anche scegliere una funzione di danno "più fine" che non sia soltanto zero-uno, o c'è danno oppure no, ma che valuti il danno in misura crescente all'allontanarsi di $theta$ dal valore di soglia.

Formalmente, per il medesimo sistema di ipotesi, posso utilizzare la seguente funzione di danno bayesiano

$D(theta, d_0)={{: ( 0 , ; theta<=theta_0 ),( (theta-theta_0), ;theta>theta_0) :}$

$D(theta, d_1)={{: ( 0 , ; theta>theta_0 ),( (theta_0-theta), ;theta<=theta_0) :}$

Im questo caso, prenderò la decisione $d_0$ di scegliere $mathcal(H)_0$ se e solo se

$int_(theta_0)^(+oo)(theta-theta_0)pi(theta|ul(x))d theta<int_(-oo)^(theta_0)(theta_0-theta)pi(theta|ul(x))d theta$

ovvero, svolgendo i conti, se e solo se

$mathbb{E}[theta|ul(x)]<theta_0$

Con l'utilizzo della funzione di danno precedente, in poche parole, si sceglie per l'ipotesi nulla se e solo se la Mediana a posteriori è minore di $theta_0$

E' evidente che se la distribuzione è simmetrica ed unimodale il risultato sarà identico: nel caso di distribuzione asimmetrica, i due risultati, benché diversi, non dovrebbero portare a decisioni contrapposte perché ciò significherebbe che stiamo prendendo una decisione "borderline" e quindi potrebbe essere il caso di fare ulteriori indagini prima di decidere. Sta comunque al ricercatore definire il metodo decisionale.

Il medodo descritto permette di decidere anche con un sistema di ipotesi molto complesso come il seguente

${{: ( mathcal{H}_0: theta in [a;b]),( mathcal{H}_1:theta !in [a;b]) :}$


Basta infatti usare una funzione di danno come la seguente

$D(theta, d_0)={{: ( 0 , ; theta in [a;b] ),( 1, ;theta !in [a;b]) :}$

$D(theta, d_1)={{: ( 0 , ; theta !in [a;b] ),( 1, ;theta in [a;b]) :}$

e quindi subito troviamo la regola di decisione per la scelta di $mathcal(H)_0$ come segue:

Accetto l'ipotesi di lavoro se e solo se

$1-int_a^b pi(theta|ul(x))d theta<int_a^b pi(theta|ul(x))d theta rarr int_a^b pi(theta|ul(x))d theta>1/2$


Esercizio 4

Per recarsi in ufficio, un pendolare può viaggiare in treno oppure in autobus. Egli vuole stabilire con quale dei due mezzi ha maggiore probabilità di arrivare in orario al lavoro sulla base dell'esperienza passata: su $n= 7$ volte che ha preso il treno è sempre arrivato in orario, mentre su $m=9$ volte che ha preso l'autobus è arrivato una volta in ritardo.
Siano $theta$ e $psi$ le probabilità di arrivare in orario al lavoro viaggiando in treno ed in autobus, rispettivamente. Si assumano come indipendenti le prove e si scelga per $(theta, psi)$ una distribuzione a priori che prevede che le due leggi marginali siano indipendenti e uniformi su $[0;1]$

Si verifichi quindi l'ipotesi $theta>psi$


$pi(theta, psi|ul(x),ul(y)) prop theta^7 psi^8(1-psi)="Beta"(8;1)*"Beta"(9;2)=(Gamma(9))/(Gamma(8)Gamma(1))theta^7*(Gamma(11))/(Gamma(9)Gamma(2))psi^8(1-psi)=720theta^7psi^8(1-psi)$

da cui

$mathbb{P}[theta>psi|ul(x),ul(y)]=720int_0^1psi^8(1-psi)d psi int_(psi)^1theta^7 d theta=...=0.71>0.5$

quindi accetto l'ipotesi che $theta>psi$

Esercizio 5

La tabella sottostante riporta i dati relativi al numero di asteroidi, di diametro superiore o uguale a 20 kmm entrati in collisione con la superficie emersa della Terra negli ultimi 600 milioni di anni. In particolare, la tabella fornisce il numero di collisioni per archi temporali di ampiezza 100 Ma. Si assuma che la variabile $Y$ che descrive il numero di collisioni in 100 Ma segua una legge di Poisson di parametro $theta$ e che l'osservazione disponibile possa considerarsi come un campione casuale semplice $(y_1,...,y_n)$ da $Y$.

Periodo (100 Ma da oggi)0-11-22-33-44-55-6
Numero di Collisioni1666241


Assumendo come distribuzione a priori una Gamma di parametri (1;0.2) si provi, sulla base dell'osservazione campionaria, l'ipotesi che il numero medio di collisioni in 100 Ma sia maggiore di 4.



La distribuzione a priori, coniugata col modello, è evidentemente una esponenziale negativa con densità

$h(theta) =0.2e^(-0.2theta)$

da cui otteniamo una posterior gamma del tipo

$h(theta|ul(x)) prop theta^35 e^(-(0.2+6)theta)~"Gamma"[36;6.2]$

Il sistema di ipotesi da sottoporre a verifica è il seguente

${{: ( mathcal(H)_0:theta>4 ),( mathcal(H)_1:theta<=4 ) :}$

Per quanto detto precedentemente, accetto $mathcal(H)_0$ se e solo se $mathbb{E}[theta|ul(x)]>4$

essendo evidentemente $mathbb{E}[theta|ul(x)]=36/(6.2)=5.8>4$ Accetto l'ipotesi di lavoro

Esercizio 6

In un esperimento biologico viene misurata la lunghezza di certi mircorganismi. I valori in micron rilevati su 10 unità sono ${0.22;0.2;0.18;0.16;0.19;0.31;0.2;0.046;0.23;0.27}$.
Si assume che essi siano realizzazioni iid da una variabile $N(theta; 0.3)$. Il parametro $theta$ rappresenta dunque la lunghezza media di questa specie di microrganismi.
Si consideri come distribuzione a priori (distribuzione impropria) per $theta$ la funzione $h(theta)prop mathbb{1}_([0;+oo))(theta)$. Dopo aver mostrato che la distribuzione a Posteriori è una valida pdf, verificare l'ipotesi che $theta>0.22$



Essendo come noto $Sigma_x(x-theta)^2=Sigma_x(x-bar(x))^2+n(bar(x)-theta)^2$ e considerando che la prima somma non dipende da theta (si può considerare inglobata nella costante di normalizzazione), la distribuzione a posteriori sarà del tipo

$h(theta|ul(x)) prop exp{-n/(2sigma^2)(theta-bar(x))^2}mathbb{1}_([0;+oo))(theta)$

Da tale espressione si vede subito che $exp{.}$ è il nucleo di una Gaussiana $f~N(bar(x), sigma^2/n)$ moltiplicato per la funzione indicatrice....è quindi evidente che la suddetta distribuzione a posteriori è una valida pdf: una gaussiana troncata sul supporto $[0;+oo)$, ovvero

$h(theta|ul(x))=1/(1-F(0))sqrt(n)/(sigma sqrt(2pi)) exp{-n/(2sigma^2)(theta-bar(x))^2}mathbb{1}_([0;+oo))(theta)=$

$=1/(1-Phi(-(bar(x)sqrt(n))/sigma))sqrt(n)/(sigma sqrt(2pi)) exp{-n/(2sigma^2)(theta-bar(x))^2}mathbb{1}_([0;+oo))(theta)$

Per provare l'ipotesi formulata verifichiamo il seguente sistema di ipotesi composte

${{: ( mathcal(H)_0:theta>0.22 ),( mathcal(H)_1:theta<=0.22 ) :}$

utilizzando la funzione di danno seguente

$D(theta,d_0)={{: ( 0 , ; theta>0.22 ),( 1 , theta<=0.22 ) :}$

$D(theta,d_1)={{: ( 0 , ; theta<=0.22 ),( 1 , theta>0.22 ) :}$

per provare l'ipotesi basta calcolare

$1-F(0.22|ul(x))=1-(F(0.22)-F(0))/(1-F(0))=(1-F(0.22))/(1-F(0))=(1-Phi((0.22-0.201)/(0.173)))/(1-Phi(-1.158))=0.52>0.5$

Il processo decisionale porta dunque ad accettare l'ipotesi di lavoro ma in modo piuttosto "bordeline". Proviamo dunque a cambiare il processo decisionale utilizzando l'altra funzione di danno definita precedentemente e dunque calcolando

$mathbb{E}[theta|ul(x)]=1/(1-Phi((-0.2006)/sqrt(0.03)))int_(0)^(+oo) theta/sqrt(2pi0.03)e^(-1/(0.06)(theta-0.2006)^2)d theta=0.24>0.22$

anche così il processo decisionale porta ad accettare l'ipotesi che $theta>0.22$

Esercizio 7

Nel "gioco delle 3 carte" il banco mostra tre carte scoperte (J=fante di quadri, Q=donna di picche, K=re di cuori) per poi disporle, coperte, sul tavolino. Lo scommettitore punta una somma per scoprire una carta e riceve la somma raddoppiata se la carta scoperta è la donna di picche. In $n=8$ man del gioco, cui partecipano 3 soggetti diversi (A,B e C), si registrano i seguenti risultati

ScommettitoreBBCAAACB
Carta ScopertaQQKKQKQJ


Si adotti l'ipotesi semplificatrice secondo cui la probabilità di vncere è la stessa per tutte le mani e i risultati delle diverse mani sono indipendenti.
Dopo aver trovato la distribuzione iniziale coniugata si scelga quella di media $1/2$ e varianza $1/12$ e si provi l'ipotesi secondo cui la probabilità di vincere è maggiore del 50%




Ovviamente lla verosimiglianza è una binomiale, la cui distribuzione iniziale coniugata è una beta. Dato che si chiede una beta di media $1/2$ e varianza $1/12$ è chiaro che la distribuzione iniziale è una uniforme su $(0;1)$ ovvero una $"Beta(1;1)$

In sostanza abbiamo:

La verosimiglianza $p(ul(x)|theta) prop theta^4(1-theta)^4$

La priori: $h(theta)=1$

La posterior: $h(theta|ul(x))~"Beta"(5;5)$

per provare l'ipotesi di lavoro basta calcolare, a posteriori, $mathbb{P}[(theta>0.5|ul(x))>0.5$

Dato che la $"Beta"(n;n)$ è simmetrica intorno a $1/2$ non servono conti e la probabilità richiesta viene esattamente 0.5.

In pratica il test non permette di decidere.


Esercizio 8

Siano $N$ e $M$, rispettivamente, il numero di falli effettivamente commessi e il numero di falli fischiati dall'arbitro durante una partita di calcio. Si supponga valida l'ipotesi semplificatrice secondo la quale l'arbitro fischia un fallo effettivamente commesso con probabilità $theta$ (mentre sia nulla la probabilità che venga fischiato un fallo inesistente), che tale probabilità sia costante nel tempo e che la decisione di fischiare un fallo in una particolare circostanza sia indipendente dalle scelte operate in altri momenti.
Sulla base del numero M di falli fischiati dall'arbitro, si vuole verificare l'ipotesi che $N>30$

A tal proposito si suppone che N abbia, a priori, una distribuzione di Poisson di parametro $lambda>0$ e si consideri $M=20$, $lambda=30$ e $theta=0.6$


Condizionatamente al numero di falli commessi, la verosimiglianza dei falli fischiati è una binomiale

$mathbb{P}(M=m|N)=((N),(m))theta^m(1-theta)^(N-m)=(N!)/(m!(N-m)!)theta^m(1-theta)^(N-m)$

Essendo interessati al calcolo della distribuzione a posteriori $h(N|M)$ possiamo tralasciare tutto ciò che non dipende da $N$ ed aggiungere tutto ciò che ci serve per "vedere" una distribuzione nota....

Quindi

$h(N|M=m) prop (1-theta)^(N-m)/((N-m)!)e^(-lambda)lambda^N$

$h(N|M=m) prop [(1-theta)lambda]^(N-m)/((N-m)!)e^(-lambda(1-theta))$

che è evidentemente ancora una $Po[lambda(1-theta)]$ ma definita sul supporto $N=m,m+1,m+2,....$

Provare l'ipotesi che $N>30$ significa calcolare, a posteriori,

$mathbb{P}[N>30|M=20]=mathbb{P}[N-m>10|M=20]=1-Phi((10.5-12)/sqrt(12))~~0.667>0.5$

e quindi accetto l'ipotesi di lavoro

Esercizio 9

Secondo i seguaci del culto di Cthulhu, l'adorazione "dei Grandi Antichi che vissero ere prima che comparisse l'uomo, venuti dalle stelle sul mondo Giovane", garantirebbe agli adepti una sopravvivenza media di più di mille anni. In particolare, si narra di un gruppo di adepti morti all'età di ${106;818;2837;227;426;122;3728;571}$ anni, rispettivamente.
Si supponga di voler verificare tale teoria assumendo che i dati riportati costituiscano un campione casuale semplice da una variabile $X$ con distribuzione esponenziale negativa di parametro incognito $theta>0$ e scegliendo una distribuzione a Priori coniugata col modello di media 1 e varianza 1.44.


La distribuzione a Priori coniugata per il modello esponenziale è, come noto e come facilemente desumibile dal teorema di fattorizzazione, una Gamma. Dai dati della traccia troviamo subito che la distribuzione a Priori è una gamma di parametri

${{: ( a/b=1 ),( a/b^2=1.44 ) :}rarra=b=0.694$

e quindi la distribuzione a posteriori è una Gamma di parametri

$pi(theta|ul(x)) prop theta^(alpha-1)e^(-beta theta)theta^n e^(-theta Sigma_i x_i)=theta^(0.694-1)e^(-0.694 theta)theta^8 e^(-theta (8835+0.694)$

$pi(theta|ul(x))~ "Gamma"[8.694;8835.694]$

$f_X(x)=theta e^(-theta x)$

Il sistema di ipotesi da sottoporre a verifica è il seguente:

${{: ( mathcal{H}_0: 1/theta >=1000),( mathcal{H}_1:1/theta <1000) :}$


Per provare tale sistema utilizzo la seguente funzione di danno bayesiano:


$D(theta, d_0)={{: ( 0 , ; 1/theta>=1000),( (1000-1/theta), ;1/theta <1000) :}$

$D(theta, d_1)={{: ( 0 , ; 1/theta <1000 ),( (1/theta-1000), ;1/theta>=1000) :}$

e quindi accetto $mathcal(H)_0$ se e solo se

$int_(0.001)^(+oo)(1000-1/theta) pi (theta|ul(x)) d theta<int_(0)^(0.001)(1/theta-1000) pi (theta|ul(x)) d theta$

Ovvero se e solo se

$int_(0)^(+oo)1/thetapi (theta|ul(x)) d theta>1000$

che si può scrivere come

$mathbb{E}[1/theta|ul(x)]>1000$

Ora, dato che la distibuzione finale di $theta$ è una gamma, allora la distribzuione di $1/theta$ è una Gamma inversa e quindi facilmente troviamo che

$mathbb{E}[1/theta|ul(x)]=(8835.694)/(8.694-1)=1148>1000$

che porta ad accettare l'ipotesi di lavoro


Esercizio 10

Siano $(x_1,...,x_n)$ determinazioni iid di una variabile casuale X con distribuzione uniforme sull'intervallo $(0;theta)$. Supponendo di osservare il campione

${5.54;1.14;1.89;3.94;1.53;4.17;3.09;4.22;2.64;2.06}$


e di scegliere nella famiglia coniugata la Prior di parametri $alpha=2$ e $beta=1$, si verifichi l'ipotesi $5.8<theta<6$


Come visto nell'esempio 1 sopra, la distribuzione coniugata al modello uniforme è una Pareto.

Quindi

$pi(theta)=(alpha beta^alpha)/theta^(alpha+1)mathbb{1}_((beta;+oo))(theta)$

$L(theta)=1/theta^n mathbb{1}_((x_((n));+oo))(theta)$

che portano subito a trovare la Posterior:

$pi(theta|ul(x)) prop 1/theta^(alpha+n+1)mathbb{1}_(max((x_((n));beta);+oo))(theta)$

Sostituendo troviamo

$pi(theta|ul(x)) =(12*5.54^12)/theta^13mathbb{1}_((5.54;+oo))(theta)$

e quindi $mathbb{P}[5.8<theta<6|ul(x)]=int_(5.8)^(6)pi(theta|ul(x)) d theta=0.192<0.5$

Rifiuto l'ipotesi proposta.
tommik
Moderatore
Moderatore
 
Messaggio: 4884 di 11278
Iscritto il: 23/04/2015, 13:13
Località: Cassano Magnago

Torna a Statistica e probabilità

Chi c’è in linea

Visitano il forum: Nessuno e 1 ospite