Salve a tutti, non ho capito come si possa risolvere il seguente quesito:
Devo leggere tramite uno strumento con fondoscala $1 V$ e risoluzione $0.0002 V$ un intervallo di valori di tensioni che vanno da $0.001 V$ a $0.04 V.$
L'esercizio chiede che tipo di circuito si può implementare per avere un errore del 1 % su TUTTO l'intervallo di misura.
Dal testo so che il mio intervallo di misura va da $(0.001 \pm 0.0002)V$(errore 20%) a $(0.04 \pm 0.0002)V$(errore 0.5%).
Nel primo caso basta amplificare il segnale con un amplificatore a guadagno $G = 20$ così da avere $(0.001*20 \pm 0.0002)$(errore 1%) mentre il secondo andrebbe dovrebbe essere de-amplificato e devo fare così per ogni misura nell'intervallo(cioè dovrei cercare un guadagno per ogni misura!).
Sapreste consigliarmi il circuito che fa al mio caso? Quello che non capisco è come fare ad avere la stessa % di errore per ogni misura.
Grazie!