Credo che siano due diverse definizioni di autocorrezione che si usano per situazioni diverse.
Se guardi la pagine Wiki che hai visto anche tu:
https://en.wikipedia.org/wiki/AutocorrelationE' divisa principalmente in due paragrafi, uno per i processi stocastici e poi una per i segnali deterministici.
Per i processi stocastici viene sempre usata la media probabilistica per descrivere le varie funzioni (autocorrelazione, autocovarianza, ecc). Non si vede ma la sommatoria esplicita, il calcolo esplicito su tutti i campioni.
Questa per intenderci non si vede mai (o una cosa simile):
$ c( \Delta x, \Delta y) = \sum_{x=0}^{N} \sum_{y=0}^{N} I(x,y)I(x+ \Delta x, y+ \Delta y) $
Questo e' ragionevole perche' per un processo stocastico non ha molto senso parlare di un segnale di cui sono determinati tutti i campioni in modo da poter applicare la formula. Un processo stocastico genera processi che appunto sono aleatori, per cui servono formule che colgano le proprieta' tipiche delle variabili aleatorie, come ad es. il valore atteso.
Poi si parla di segnali deterministici (o determinati secondo me) di cui si conoscono i valori, i campioni, e quindi si puo' applicare il calcolo esplicito dell'autocorrelazione su tutto il segnale (la formula di prima). Inoltre il segnale deve essere limitato nel tempo oppure essere a quadrato integrabile per poter applicare la formula.
Questa frase nella pagina Wiki secondo me chiarisce meglio questa distinzione:
The discrete autocorrelation R R at lag ℓ \ell for a discrete-time signal y ( n ) y(n) is
Formula Omessa.
The above definitions work for signals that are square integrable, or square summable, that is, of finite energy. Signals that "last forever" are treated instead as random processes, in which case different definitions are needed, based on expected values. Si tratta quindi di due definizioni diverse da usare in due contesti diversi.