L'esercizio è molto semplice in pratica chiede di scrivere secondo lo standard IEEE 754 il numero decimale -3 (32 bit)
Ecco come imposto l'esercizio:
passo da decimale a binario $ [3]_(dc)->[11]_(bn) $
dopo normalizzo $ 11 = 0,11*2^2 $
dunque l'esponente è 2 ma dato che vado a sommare 127 (è in rappresentazione eccesso 127) mi salta fuori $ 1111111+10=10000001 $
il segno è meno quindi il primo bit è 1: 1|10000001|10000000000000000000000
Ora quello che non capisco è perché al prof l'esponente viene |10000000|