Salve a tutti, non ho capito come si possa risolvere il seguente quesito:
Devo leggere tramite uno strumento con fondoscala $1V$ e risoluzione $0.0002V$ un intervallo di valori di tensioni che vanno da $0.001V$ a $0.04V$.
L'esercizio chiede che tipo di circuito si può implementare per avere un errore del 1 % su TUTTO l'intervallo di misura.
Dal testo so che il mio intervallo di misura va da $(0.001±0.0002)V$(errore del 20%) a $(0.04±0.0002)V$(errore del 0.5%).
Nel primo caso basta amplificare il segnale con un amplificatore a guadagno G=20 così da avere $(0.001⋅20±0.0002)$(errore del 1%) mentre il secondo andrebbe dovrebbe essere de-amplificato e devo fare così per ogni misura nell'intervallo(cioè dovrei cercare un guadagno per ogni misura!).
Sapreste consigliarmi il circuito che fa al mio caso? Quello che non capisco è come fare ad avere la stessa % di errore per ogni misura.
Grazie!