Premetto che la sto studiando adesso senza aver seguito le lezioni quindi non sono molto "ferrata" sull'argomento e inoltre è una delle materie che mi risulta più difficile da capire...
Il testo dell'esercizio è:
su un filo lungo 0,5 m scorre una corrente di modo comune di 10 $\mu$A alla frequenza di 10 MHz. A 10 m di distanza viene misurato il campo elettrico prodotto da tale corrente, mediante un'antenna connessa a un analizzatore di spettro. L'altezza e l'orientamento dell'antenna vengono cambiate, rispetto al piano di massa di riferimento, per cercare il massimo di campo, che corrisponde ad un segnale letto sull'analizzatore di -100 dBm. Sapendo che il cavo utilizzato per collegare l'antenna all'analizzatore attenua 5dB a 10 MHz, determinare il fattore di antenna, in $dBm^(-1)$ , dell'antenna impiegata alla frequenza di misura.
Ho pensato di utilizzare la formula:
$AF=V_(SA)+perdite-E$
dove V è il campo misurato dall'analizzatore ed E è il campo elettrico incidente ma il problema è che non so come trovare E, è da ieri che sto cercando sul libro, sulle dispense, sugli esercizi e su internet ma non riesco a trovare il minimo spunto...