da gabriella127 » 25/05/2023, 14:49
Non ho ancora visto il video, poi lo vedo.
Sono d'accordo, come avevo detto, che nella vulgata comune e giornalistica, si tende a divinizzare l'AI, e francamente non lo trovo pericoloso di per sé, ma semplicemente sottoculturale.
Se ben vedi, ma questo da sempre, quelli più critici e meno scioccamente entusiasti sono spesso state le persone del settore, molti sviluppatori di internet e AI, che sanno di che si parla e ne conoscono meglio di noi pregi e difetti.
Parlo ad esempio di quelli che lavorano nella Sylicon Valley e mandavano i figli nelle scuole Steineriane dove i computer sono proibiti, o uno dei guru di internet Jaron Lanier, che ha scritto bestsellers super-critici su come si è evoluta internet (la chiama 'la fregatura', non di per sé ma per come nei fatti si è sviluppata).
Non credo che ci sia un disegno particolare unico dietro questa divinizzazione, non perché siano buoni ma perché gli interessi possono essere contrastanti, caso mai interessi particolari sì, anche fortissimi, ma molto è la sciatteria dell'informazione, compreso il fatto che bisogna attirare il pubblico con informazioni emotive e ad effetto, favorire la contrapposizione, spaccare il mondo in bianco e nero. Spiegare davvero è diventata cosa rara.
Questo non vuol dire che non ci siano in gioco interessi fortissimi, anche contrastanti, che influenzano anche l'informazione, e naturalmente ci sono parti sociali ed economiche più forti di altri. Non è certo complottismo, questo ormai lo dice persino Mattarella (una frase misteriosa in proposito nel suo ultimo discorso di Capodanno, tipo ''ci sono poteri sovranazionali etc. etc.," non ricordo bene) e la Von der Leyen ("ci sono al giorno d'oggi poteri più forti degli stati" ha detto di recente). Giorgio Paris in una intervista di un paio di giorni fa, a la Stampa, mi pare, ha detto che lo preoccupano più gli interessi delle case farmaceutiche che l'AI.
La scienza ha sempre presentato dei pericoli, e sta agli scienziati (vedi bomba atomica) ma soprattutto alla società stabilire se e dove ci devono essere limiti. Il problema è che ora i cambiamenti sono sempre più veloci.
Ma oltre a pericoli eclatanti (bomba in testa o controllo delle menti o aspetti effettivamente inquietanti come il riconoscimento facciale mal usato) ce ne sono di molto più sfuggenti difficili da individuare e difficili da gestire, che coinvolgono anche la vita quotidiana, e il futuro dei nostri ragazzi e bambini, perché non si può ne' fare i luddisti ne' accettare qualsiasi cosa a come capita, vedendo nell'innovazione tecnologica sempre il 'bene' (o il 'male').
La cosa è ora esplosa nei media con ChatGpt, perché è entrata subito nella quotidianetà. Ed è ovvio che ci saranno interessi economici che vorrebbero piazzare la Chatgpt pure in mano ai neonati, o la vorrebbero far usare pure per fare la pizza.
Ma ad esempio una cosa che si sa, ci sono ormai ricerche in merito, è che per la prima volta dal dopoguerra il quoziente di intelligenza medio nei paesi occidentali è diminuito, e alcuni studiosi lo attribuiscono alla iperconnessione, telefonini, internet, etc.
(In questo momento, mentre scrivo, vorrei che la ricerca si occupasse un po' meno di AI e un po' più di come tenere lontane le zanzare, ci sono quest'anno zanzare refrattarie al freddo, al Vape, al Napalm, penso anche all'atomica, che mi stanno già tormentando a maggio).
Easy reading is damned hard writing. (Nathaniel Hawthorne, The Scarlet Letter)