Ciao a tutte e a tutti, di recente mi sono imbattuto in una serie di articoli nei quali concetti presi dalla teoria dell'informazione sono applicati allo studio del linguaggio umano.
L'autore degli articoli afferma che "power laws are not the most efficient distributions for codewords in variable length codes" (cfr. [1], metà di pagina 5). A suo dire la distribuzione ottimale sarebbe invece quella geometrica in quanto "geometric (exponential) distributions enable the average information in a set of codewords to be minimized (such that we ought to expect an optimal communicative code to employ geometric rather than Zipfean distributions)" (cfr. [1], inizio di pagina 20).
Lo stesso autore, in un altro articolo, torna ad affermare che "Information theory [...] shows that the most efficient way of distributing codewords [...] is by distributing their probabilities geometrically" (cfr. [2], inizio di pagina 1001).
Queste affermazioni purtroppo non sono motivate con dimostrazioni formali e l'unico riferimento fornito è [3], in cui sostanzialmente si afferma che data una sorgente i cui elementi sono distribuiti secondo una geometrica è possibile ottenere una codifica ottimale tramite Golomb o Huffman. Questo però non giustifica le affermazioni dell'autore che sembra identificare la geometrica come la migliore distribuzione in assoluto.
Sono io che mi sto perdendo qualcosa? È possibile giustificare e dimostrare queste affermazioni?
[1] Ramscar, M. (2019). Source codes in human communication.
[2] Ramscar, M. (2021). How children learn to communicate discriminatively.
[3] Gallager, R., & Van Voorhis, D. (1975). Optimal source codes for geometrically distributed integer alphabets (corresp.). IEEE Transactions on Information theory, 21(2), 228-230.