Chiaramente stiamo parlando di cose diverse. Tu metti l'accento sull'intelligenza, la logica, la capacità deduttiva, Godel, Popper, Penrose, ecc ecc ; sono questioni interessanti certamente, ma che non scalfiscono neanche di striscio la questione del "sentire", che per me è tutt'uno col senso di "esserci".
Quello che tu chiami “sentire” è molto vago e indefinito, come ti sei reso conto non si riesce a fornire una spiegazione del perché un uomo può farlo e una macchina no, perché non si riesce a definire che cosa è. Ora, di certo io non sono riuscito a spiegarlo nel migliore dei modi, ma invece la definizione di coscienza che ho portato, penso sia più consistente, per molti versi è chiaro come la natura della mente umana sia diversa da quella di un’intelligenza artificiale. Potresti vederla come una definizione più formale del tuo “sentire”, cioè il sentire di una macchina è diverso da quello di uomo proprio perché in un uomo un’esperienza non è mai fine a se stessa ma produce conoscenza. Dal momento in cui mangi la fragola essa diventa un nuovo oggetto del tuo mondo non precedentemente costituito, un mondo fatto di regole e categorie flessibili oltre ogni limite. Mentre una macchina può avere solo regole e oggetti precostituiti, o almeno con dei template fissati, una nuova esperienza in lei potrà solo andare a riempire un contenitore, non a generarne di nuovi.
In totale disaccordo. Quel che penso - o temo - è che non c'è molto da trovare "dietro", ossia che, sotto l'aspetto fisico, credo che sappiamo abbastanza sul funzionamento del cervello, e non sarà una più precisa mappatura delle connessioni a risolvere il mistero.
Il mio campo è il machine learning e ti posso dire che ce lo sogniamo la notte di poter creare un’AI con le caratteristiche che ha il cervello umano. Per esempio il principale metodo per ottimizzare i pesi delle connessioni sinaptiche tra neuroni è la discesa del gradiente, metodo brutalmente ignorante che si basa sul retropropagare la derivata e sperare che converga a un ottimo locale sufficientemente buono. Questo ci costringe a usare funzioni di attivazione che abbiano buone proprietà rispetto alla derivazione, cioè lineari o pseudo-lineari, che non tendano ad annullare il gradiente, altrimenti l’apprendimento diventerebbe impossibile. Ecco sappiamo che il cervello usa funzioni di attivazione altamente non lineari, non abbiamo idea di come ottimizzi le proprie sinapsi, sicuramente non opera la discesa del gradiente. Non mi sembra assurdo pensare che sia qualcosa di più simile alla quantum annealing
https://en.wikipedia.org/wiki/Quantum_annealing . Google sta anche comprando computer quantistici costruiti all’unico scopo di fare quantum annealing per trovare ottimi globali su reti neurali, al fine di finanziare l’interesse e la ricerca nel settore
https://en.wikipedia.org/wiki/D-Wave_Systems .
Ok che sappiamo già un sacco di cose sul funzionamento del cervello (fisica/chimica). Mettiamola così, allora: è un po' un problema come da ingegneri, che mica mettono in discussione la fisica, ma dalla fisica non ricavano un granché quando devono studiare strutture complicate. Faccio ancora un piccolo tentativo per spiegarmi meglio. Ammettiamo che sappiamo il meccanismo di funzionamento dei neurotrasmettitori: ma ci sono aspetti sia di dettaglio che di sistema ed organizzazione complessiva del sistema nervoso, che sono lì a sfidarci perché proviamo a capirli. Penso a quelle cosa tipo le "proprietà emergenti" (con le quali mio nipote tempo fa mi faceva una capa tanta...). Sono aspetti sistemici che non hanno dietro nessuna magia, ma solo son complicati da capire. Non so se mi sono spiegato (ne dubito), ma è dalla comprensione di questi aspetti che poi deriva la possibilità di "misurare" non solo cosa pensi, ma che sensazione provi. Non vedo per quale motivo la sensazione che provi prima volta che assaggi una fragola dovrebbe essere refrattaria ad una analisi "oggettiva" (in altri termini, io posso sapere quale è la sensazione che tu provi).
Certo che deve passare ancora un po' di acqua sotto i ponti, ma non capisco per quale motivo ci dovrebbe essere una sorta di complessità inesplorabile. Anche se, pensando ad esempio alla complessità computazionale, può benissimo essere che la resistenza si riveli alla fin fine "invincibile".
Nei miei post precedenti non mettevo in dubbio il fatto che un giorno potremmo capire il “come” funziona il cervello, mettevo in dubbio il fatto che ne capiremo mai il “perché”. Anche ammesso che si possa comprendere per filo e per segno come funziona il cervello e costruirne un modello, saremo in grado di dimostrare le proprietà matematiche di questo modello? Cioè di capire cosa è o non è in grado di fare? Poiché anche noi usiamo lo stesso modello non sarebbe una contraddizione? Certo adesso è fuori contesto, ma non è da escludere che un domani quanto ci troveremo a formalizzare il problema non incorreremo davvero nell’incompletezza di Godel. Detto questo, certo l’uomo potrebbe non aver bisogno della teoria per passare alla pratica, come ha fatto la natura. Per esempio, come dicevo prima, simulando l’evoluzione e allora potrebbe creare un’intelligenza vera aldilà di ogni limite teorico.
Ma facciamo un passo in dietro, siamo sicuri di poter capire il come? Se i fenomeni quantistici sono parte integrante del modo in cui funziona il cervello allora il suo stato potrebbe essere inconoscibile. Oltre alla logica anche la fisica potrebbe porre un limite invalicabile allo studio e la comprensione della coscienza.
Dipende da cosa intendi per "sapere". Se vuoi dire che possiamo sapere, neurone per neurone, cosa stanno facendo, non c'è problema. Se invece intendi dire che tu "senti" il gusto della fragola, allora non so immaginare in che modo ti possa dare il suo responso il sofisticato rivelatore che immagini di usare, in modo da farti sentire qualcosa. Qualcosa come "elettrodi nel tuo cervello" o cose del genere? Beh, anche questo potrebbe non essere un problema. Però.... qui si fa implicitamente l'ipotesi che tu abbia applicato il Sofisticato Rlvelatore ad un cervello analogo al tuo, per cui, alla fine, si tratta di replicare i famosi pattern neurali da un cervello all'altro, ma dello stesso modello. Una cosa fantascientifica oggi, ma in linea di principio non impossibile. Ma cosa succede fra cervelli - o, a questo punto, fra SISTEMI diversi? Cosa sente una rana quando acchiappa una mosca? Pensi davvero di poterlo "sapere"? Non sarebbe come prendere un eseguibile per Windows e caricarlo pari pari su un Apple? Sì, i bit sono gli stessi, però... non funziona
“I limiti del mio linguaggio sono i limiti del mio mondo”. Wittgenstein ha risposto nel migliore dei modi a questa domanda. In poche parole Wittgenstein sosteneva che ci fosse un isomorfismo tra forma di vita e linguaggio, due entità possono comunicare solo nella misura in cui condividono lo stesso modello del mondo. Se anche il leone potesse parlare, per capirlo dovresti aver vissuto nella savana e dovresti essere un leone. In informatica si dice che due AI possono comunicare solo se hanno la stessa ontologia. Riportandolo al nostro contesto per sapere perfettamente cosa prova la rana quando prende la mosca, il tuo cervello dovrebbe essere identico al suo, dovresti essere la rana.