Aroldo ha scritto:Ciao, ho un dubbio sulla frequenza di campionamento e cercando sul web non ho trovato risposta. Per campionare senza aliasing e quindi perdita di informazioni, bisogna campionare almeno alla frequenza di Nyquist. Per questo motivo, ad esempio, lo standard dei CD utilizza un campionamento a 44.100 Hz. In teoria (senza contare la perdita dovuta alla quantizzazione) si può tornare al segnale originale, quindi, a rigor di logica, campionando a diverse frequenze tutte superiori a Nyquist, non si dovrebbero avere differenze tra una e l'altra nella ricostruzione del segnale analogico. Quindi, in pratica, per quale ragione campionare musica a 96 KHz? L'audio di alta qualità è solitamente campionato a frequenze molto elevate, ma non capisco perchè questo dovrebbe migliorarne, appunto, la qualità.
C'è sicuramente qualcosa che mi sfugge. E' una domanda molto specifica, spero che qualcuno mi sappia rispondere.
Ciao,
il paradigma di campionamento a cui ti riferisci parlando del rate di Nyquist si basa sul teorema di Shannon per cui campionando con un'opportuna frequenza è possibile ricostruire il segnale originario senza compromissione dell'informazione.
Campionando un segnale continuo nel dominio del tempo si ottiene la ripetizione periodica della sua trasformata di Fourier, ovvero della sua rappresentazione frequenziale. Il fenomeno dell'aliasing si manifesta quando, campionando non abbastanza fittamente, le varie trasformate si sovrappongono, sovrapposizione che porta all'irreversibile perturbazione dell'informazione. Il rate di nyquist coincide con la larghezza di banda della trasformata originaria, un parametro che dipende dalla natura del segnale di interesse, in particolare dipende dalla sua complessità dimensionale rispetto alle armoniche della sua rappresentazione frequeziale, cioè dalla sua espansione in frequenza.
Scegliendo frequenze di campionamento opportune, che siano maggiori o uguali a tale rate, essendo la frequenza di campionamento il periodo di ripetizione delle trasformate, queste non si sovrapporrano ed è sufficiente predisporre un filtro ricostruttore che prelevi solo la trasformata originaria centrale (passa basso).
Spesso però i segnali non hanno banda finita, e per effettuare quest'operazione occorre limitarla preventivamente, tagliando oltre le frequenze di interesse, si scartano cioè frequenze inutili ai fini della qualità desiderata. La risoluzione di interesse diventa dunque il nuovo rate di Nyquist di riferimento, ed ecco perchè nel tuo caso è possibile rilevare diverse frequenze di campionamento. Le tue perplessità avrebbero senso se si parlasse di un segnale naturalmente limitato in banda per cui oltre il rate minimo i campioni acquisiti sempre più fitti e numerosi costituiscono informazione superflua.
Se te ne intendi di analisi funzionale te lo posso far capire in questo modo:
l'operazione di filtraggio e recupero della trasformata originaria nel dominio della frequenza, dove l'operazione di convoluzione si traduce in un semplice prodotto puntuale tra funzione di trasferimento e ingresso, si visualizza facilmente a livello grafico: Il passa basso taglia le frequenze e preleva solo al centro.
Valutando la cosa nel dominio del tempo si ha la convoluzione tra il segnale campionato e la risposta impulsiva (antitrasformata di un rect è un sinc), quindi risulta essere una combinazione lineare dei campioni acquisiti e queste funzioni sinc.
Un campionamento non sufficientemente fitto porta al problema dell'aliasing, facilmente visualizzabile in frequenza dove le trasformate si sovrappongono e la trasformata da prelevare è compromessa, mentre nel tempo si ha un problema di sottodeterminazione, un numero esiguo di coefficienti rispetto alla base "sinc" in virtù della sua complessità dimensionale e come conseguenza è impossibile ricostruire il segnale.
Come giustamente dici tu campionando oltre il rate di Nyquist, per un segnale naturalmente limitato in banda, in frequenza si notano le ripetizioni della trasformata sempre più spaziate, ma si tratta di un distanziamento inutile una volta superato il rischio di sovrapposizione, mentre ragionando nel dominio del tempo si ha un surplus di coefficienti acquisiti, informazioni inutili che vanno a comporre una rappresentazione del segnale non più rispetto ad una base ma rispetto ad un sistema di generatori, descrizione solo meno compatta ed eccedente rispetto alla complessità dimensionale del segnale.
Nel tuo caso come dicevo si tratta sicuramente di segnali non finiti in frequenza da limitare artificialmente, definendo un proprio rate e dunque ha senso avere qualità maggiori in funzione della frequenza di campionamento.
Spero di essere stato abbastanza chiaro