Un termometro digitale avente una risoluzione di 1 grado è stato appena tolto dalla sua confezione con cui è arrivato dal fornitore. Dall'esperienza precedente si sa che quel tipo di termometri ha il 60% di probabilità di indicare la temperatura giusta mentre ha una probabilità del 20% di sbagliare di $ +1\^\circ C$ e il 20% di sbagliare di $ -1\^\circ C$. La sensazione fisiologica dello sperimentatore è tale che costui creda, dalla sua esperienza passata, che la temperatura ambiente sia molto probabilmente $ 20\^\circ C$ o $ 21\^\circ C$ (40% di probabilità per ciascuno dei valori). Egli crede quattro volte di meno ai valori contigui a questi e si sente praticamente sicuro di escludere valori inferiori a $ 19\^\circ C$ o superiori a $ 22\^\circ C$. Il termometro fornisce una lettura di $ 21\^\circ C$. Come vengono modificati i gradi di fiducia sulle diverse temperature?
Ho pensato di applicare il teorema di Bayes, per esempio a $ 20\^\circ C$:
$ P(20\^\circ C | T. 21\^\circ C) = \frac{P(T .21\^\circ C | 20\^\circ C) P(20\^\circ C)}{P(T .21\^\circ C)}$
Il denominatore si può scomporre e ok, ma non so come calcolare le varie $ P(T .21\^\circ C | X\^\circ C ) $, mi verrebbe da dire che il fatto che il termometro misuri 21 gradi è indipendente dalla credenza che ci siano X gradi o sbaglio? se si come posso andare avanti?