Come costruire una mente: istruzioni per l’uso

Come costruire una mente: istruzioni per l’uso

Il dubbio ce lo ha insinuato Cartesio, e poteva essere altrimenti? Molti anni dopo la notte dell’illuminazione, un’esperienza quasi mistica che lo colse il 10 novembre 1619 a Neubourg quando intravide i tratti della filosofia moderna, nelle notti di meditazione quasi buddistica accanto al focolare del suo buen retiro olandese (“chiuderò gli occhi, mi tapperò le orecchie, disconnetterò tutti i sensi”), Cartesio giocò a dubitare di tutto per poi dimostrare di nuovo sostanzialmente ciò in cui già credeva. Le dimostrazioni sono passate, ma il dubbio ci è rimasto. In particolare, il dubbio radicale sull’esistenza di un mondo esterno, indipendente dalla nostra coscienza e rivelato attraverso i sensi, porta con sé anche il dubbio sull’esistenza di altre coscienze. Cartesio non si sofferma molto su questo aspetto, ma è chiaramente una conseguenza dei suoi presupposti: se dubitiamo dell’esistenza di oggetti esterni di cui abbiamo esperienza mediata dai sensi, a maggior ragione possiamo dubitare dell’esistenza di altre coscienze, di cui abbiamo una conoscenza ancora più indiretta, dal momento che finora nessuno ha trovato il modo di accedere direttamente a un flusso di coscienza che non sia il proprio. E allora non potrebbe essere, per esempio, che siamo circondati da automi con sembianze umane talmente perfette da trarci in inganno? Cartesio considera l’ipotesi, ma la scarta sulla base del fatto che le macchine non potrebbero mai “usare la parola come facciamo noi per comunicare agli altri i nostri pensieri” (Discorso sul metodo, 1637). Comprensibilmente, Cartesio non riusciva a concepire la possibilità che una macchina potesse padroneggiare talmente bene il linguaggio da ingaggiare un essere umano in un dialogo sensato.

L’arrivo della IA

Quattro secoli dopo, questa certezza è stata spazzata via dagli ultimi modelli linguistici generativi, una forma di intelligenza artificiale (IA) in grado di manipolare il linguaggio naturale con straordinaria abilità. È interessante osservare come proprio il linguaggio sia alla base del celebre test di Turing, ovvero un metodo per rilevare se una macchina è cosciente proposto dal matematico inglese Alan Turing in un fondamentale articolo del 1950, “Computing Machinery and Intelligence”: “Propongo di considerare il seguente problema: le macchine possono pensare?”. Alan Turing notoriamente propose una definizione operativa di pensiero: se il comportamento esterno dell’oggetto che stiamo esaminando è indistinguibile da quello di un essere pensante, allora l’oggetto si deve definire capace di pensiero. Propose anche di valutare tale comportamento attraverso sequenze di input e output in linguaggio naturale. In parole povere, se un esaminatore, dialogando con una macchina, non riesce a distinguerla da un essere umano, allora dobbiamo concludere che la macchina è pensante.

Il test di Turing

Quando Turing propose il suo famoso test nessuno riusciva a immaginare come una macchina avrebbe potuto superarlo senza essere in qualche modo cosciente. Oggi i cosiddetti modelli linguistici di grandi dimensioni (large language models o LLM, come per esempio il general pre-trained transformer alla base della popolare applicazione ChatGPT sviluppata da Open AI) hanno dimostrato di poter superare il test di Turing in alcune situazioni, anche di fronte a esaminatori consapevoli delle limitazioni di questi modelli. Nell’ultimo test di massa effettuato con un milione e mezzo di valutatori umani (D. Jannay et al., “Human or not? A gamified approach to the Turing test”, 2023), in seicentomila mila casi il valutatore non ha riconosciuto la macchina dietro le risposte. Se il test fosse stato effettuato ai tempi di Turing, con valutatori ignari dell’esistenza e delle caratteristiche degli LLM, probabilmente sarebbe stato superato quasi sempre. La reazione tipica di fronte a questo fatto non è, ovviamente, riconoscere che gli LLM sono coscienti, ma affrettarsi a dichiarare, con deplorevole sciovinismo antropocentrico, che il test di Turing non è sufficientemente discriminativo.

Ritorno al futuro?

In questo caso però lo sciovinismo parrebbe giustificato. In effetti, Turing non formulò mai una procedura dettagliata per il suo famoso test, considerandolo più una sorta di esperimento mentale. Ragione per la quale l’esito del test dipende fortemente da come viene eseguito nella pratica. Per esempio, quanto dovrebbe durare il dialogo? L’esaminatore dovrebbe essere una persona qualunque, oppure uno specialista come il Deckard di Blade Runner, perfettamente a conoscenza dei punti deboli dell’IA? Il test dovrebbe usare solo il linguaggio, o sono ammesse anche altre modalità di interazione? Inoltre, siamo sicuri che il test, così concepito, sia davvero in grado di discriminare un’entità cosciente? è concepibile un’entità intelligente ma non cosciente? Un modello avanzato di IA potrebbe superare il test senza per questo essere cosciente o intelligente? Viceversa, potrebbe un modello avanzato di IA non superare il test ma essere dotato di intelligenza, benché diversa da quella umana?

I modelli IA

Paradossalmente, il fatto che gli ultimi straordinari sviluppi dell’IA abbiano moltiplicato le domande è un buon segno. Significa che la conoscenza sta avanzando, che le questioni rivelano nuovi aspetti, che occorre fare nuove distinzioni. Per esempio, la distinzione fra coscienza, intelligenza, comprensione e espressione linguistica. Finora abbiamo avuto sotto gli occhi un unico esempio di entità che riunisce in sé tutti questi aspetti: noi stessi. Perciò facciamo fatica a immaginare entità che possono esprimersi fluentemente in linguaggio naturale senza essere coscienti, o senza comprendere quello che dicono. Oppure entità intelligenti ma non coscienti di sé. Ma i recenti sviluppi ci hanno messo di fronte a tutte queste possibilità. Per comprendere meglio come ciò sia possibile, è necessario descrivere brevemente come funzionano questi modelli di IA.

Quindi: come si costruisce una mente?

Storicamente, si sono tentate due strade per realizzare un’intelligenza artificiale: una basata sulla logica e il formalismo simbolico, e una sulla simulazione della struttura di base del cervello, ovvero le reti di neuroni. Benché la prima abbia dato qualche risultato apprezzabile, nonostante gli sforzi non è mai arrivata a realizzare compiti che a noi sembrano semplicissimi, come per esempio riconoscere un’immagine, oppure funzioni come tradurre un testo, più complesse ma sempre lontane dalle vette del pensiero e della creatività umane. Anche l’approccio a reti di neuroni sembrava stagnante fino a qualche anno fa. Poi c’è stata l’esplosione degli ultimi anni, che sembra aver dimostrato come, in fatto di intelligenza, le dimensioni contino. Solo quando i modelli artificiali hanno raggiunto un numero di parametri paragonabile al numero di neuroni del cervello umano (circa cento miliardi) si sono cominciati a vedere risultati incoraggianti.

Certo, le regole matematiche che descrivono come le reti neurali artificiali si comportano sono molto più semplici di quelle che presiedono al funzionamento dei neuroni, ma il principio di base sembra lo stesso: una rete di nodi di calcolo interconnessi che propaga un segnale in ingresso (per esempio, l’immagine di un gatto) e lo trasforma durante il percorso per ottenere un risultato in uscita (la decisione, o inferenza finale: è proprio un gatto!). Come il segnale in ingresso viene trasformato dipende dal valore di miliardi di parametri del modello matematico, valore che non è stabilito a priori o dedotto mediante una qualche regola logica, ma viene appreso durante una fase di addestramento in cui vengono presentate al modello molte immagini diverse e un algoritmo ne regola finemente tutti i parametri interni finché il modello non riconosce correttamente le immagini contenenti un gatto.

Un mattone dopo l’altro

Con questi semplici mattoni, ma interconnessi in una struttura molto complessa, possiamo simulare alcune delle funzioni che normalmente associamo all’intelligenza. Nel caso specifico dei modelli linguistici generativi, il modello matematico viene addestrato su una quantità enorme di testi di ogni genere al fine di apprendere la distribuzione statistica dell’espressione linguistica umana. In tal modo il modello riesce a produrre testi sensati in linguaggio naturale generando passo per passo la parola successiva più probabile.

Alcuni hanno voluto sminuire questo tipo di IA generativa dichiarandola un semplice pappagallo statistico, sulla scia della linguista americana Emily Bender (Bender et al., “”On the Dangers of Stochastic Parrots”, 2021). Sebbene questa definizione sia compatibile con il funzionamento interno dei modelli linguistici attuali, credo che sia anche ingenerosa. In fondo, questo è esattamente quello che fa in continuazione il cervello umano senza che noi ne siamo coscienti: predire costantemente l’evento successivo. Scrive Claudio Magrini nel suo libro “Cervello, manuale dell’utente”: “Mentre ascoltiamo un bravo docente, il nostro cervello analizza automaticamente i suoni, le sillabe e le parole cercando di prevedere i suoni, le sillabe, le parole e persino le idee successive”. Del resto, l’IA ha cominciato a fare progressi concreti quando ha abbandonato l’obiettivo, troppo ambizioso in questa fase, di ricreare un’intelligenza comparabile o superiore a quella umana, concentrandosi sullo sviluppo di singole funzioni, come riconoscere le immagini, tradurre un testo, giocare a scacchi, ecc. La domanda è: una volta che avremo tutti i mattoni, potremo metterli insieme per costruire un’intelligenza completa simile, o addirittura superiore, a quella umana? Secondo la colorita analogia della cipolla proposta da Alan Turing: “Esaminando le funzioni della mente troviamo alcune operazioni che possiamo spiegare in termini puramente meccanici. Ma questa cosa, diciamo allora, non corrisponde alla vera mente: è una sorta di buccia che dobbiamo togliere se vogliamo raggiungere la mente vera e propria. Ma poi ci troviamo di fronte a un ulteriore strato da sbucciare. Procedendo in questo modo arriveremo mai alla mente ‘reale’, o alla fine troveremo uno strato che non racchiude più nulla?”.

Opportunità o pericolo?

Da questo punto di vista, gli sviluppi dell’IA ci stanno offrendo una straordinaria opportunità di progredire nella soluzione di uno dei più grandi misteri rimasti, ovvero l’origine e la natura della coscienza e dell’intelligenza umane. Una prima svolta nella direzione giusta è stata possibile grazie ai progressi delle neuroscienze e allo sviluppo di strumenti in grado di monitorare l’attività del cervello. Questo approccio più umile e sperimentale ha portato molti più frutti di secoli di speculazioni astratte, e ci ha mostrato quanto fosse lontano dalla verità il concetto di Cartesio della mente come una sostanza completamente staccata e indipendente dal corpo. Oggi sappiamo che la mente è inestricabilmente legata al corpo “in una incessante coreografia interattiva. I pensieri formati nel cervello possono indurre stati emozionali poi eseguiti dal corpo, mentre quest’ultimo può modificare il paesaggio cerebrale e pertanto il substrato dei pensieri” (Antonio Damasio, “Il Sé viene alla mente”). Allo stesso modo, la possibilità di creare modelli computazionali delle funzioni cerebrali ci consentirà, sperabilmente, di studiarne i meccanismi interni e di fare ulteriori progressi sulla strada della comprensione del mondo e di noi stessi.

Diego Ragazzi

Diego Ragazzi si laurea in ingegneria elettronica con indirizzo matematico-fisico al Politecnico di Milano e dal 1996 lavora nel campo delle nuove tecnologie digitali, in particolare applicate al mondo dell’energia e della sostenibilità. Ama viaggiare e ha abitato in Francia e negli Stati Uniti. Dal 2014 è socio co-fondatore di un’azienda vinicola artigianale.

Related Posts

Amici della Vespa, il raduno a Dardagny

Amici della Vespa, il raduno a Dardagny

Europee: voto agli studenti fuori sede

Europee: voto agli studenti fuori sede

Benvenuta GlobalAI Association!

Benvenuta GlobalAI Association!

La Voce compie due anni

La Voce compie due anni

No Comment

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Articoli recenti