Il peso del linguaggio nell’era dell’IA

La domanda è insidiosa perché riguarda un tema un po’ preso sottogamba o addirittura trascurato: oggi che valore hanno le parole? Con l’intelligenza artificiale che intende allargarsi in modo smisurato e perciò determinare tutto, il quesito è tutt’altro che astratto. Forse è giunto il momento di tornare a fare i conti con il significato autentico delle parole. E dunque del linguaggio. Per non alzare bandiera bianca davanti all’offensiva degli algoritmi. E continuare a dare una chance originale all’umano.


31 gennaio 2024
La parola e l’algoritmo
di Lorenzo Buggio

A novembre dello scorso anno, una mattina mi sono imbattuto in una notizia che parlava dell’introduzione, in Svizzera, della possibilità di confessarsi davanti a un’intelligenza artificiale. Questo fenomeno è stato riportato da diverse testate giornalistiche come un tentativo da parte della Chiesa, nel contesto svizzero, di avvicinare i giovani alla religione. Tuttavia, tale iniziativa non è stata accolta senza suscitare alcune domande, soprattutto riguardo alle implicazioni etiche che l’introduzione dell’intelligenza artificiale potrebbe comportare. In particolare, molti articoli sollevavano il dubbio sulla validità di una confessione che non avverrebbe più di fronte a un prete, figura umana e consacrata per svolgere quel ruolo, ma davanti a un’intelligenza artificiale progettata da alcuni programmatori.

Andare al punto centrale

Ciò su cui vorrei riflettere non riguarda l’aspetto religioso, ma piuttosto una domanda che mi è sorta leggendo i vari articoli su questo tema, ovvero: “Che valore hanno le parole?”.
A partire da questo interrogativo, mi è subito tornata in mente una frase di Jacques Lacan, psichiatra e psicoanalista francese del secolo scorso, che nel suo Seminario XX afferma: “(…) ma appunto leggere una lettera e leggere non sono la stessa cosa. È evidente che nel discorso analitico si tratta solo di questo (…) di ciò che si legge al di là di quello che avete incitato il soggetto a dire (…)”.
Andare al di là di ciò che si è detto: questo è il punto centrale del linguaggio. Le parole non possono essere ridotte semplicemente a ciò che esprimiamo in un dato momento. Questo tema, che potrebbe sembrare astratto, si riflette in modo molto concreto nella nostra vita quotidiana. Quante volte ci è capitato di dire qualcosa e di scoprire che il nostro interlocutore non ha compreso le nostre parole nel modo in cui le avevamo intese? O, ancora, quante volte abbiamo usato la stessa parola o lo stesso aggettivo in contesti diversi o con persone diverse, cercando di trasmettere significati differenti?
Se affrontiamo questo punto, dobbiamo renderci conto che la questione centrale con l’intelligenza artificiale è che essa non funziona con una vera e propria ‘intelligenza’, nonostante ciò emerga dal suo stesso nome. L’IA si basa infatti solo su algoritmi: tutti gli input che riceve vengono processati e rielaborati secondo questi algoritmi, che, seppur possano diventare sempre più complessi con l’uso, restano comunque strutturati in schemi fissi e predeterminati.
E qui emerge una questione fondamentale: possiamo ridurre il valore delle nostre parole a semplici algoritmi?
Alcuni psicologi e psicoterapeuti stanno già cercando di sviluppare sistemi di intelligenza artificiale in grado di analizzare il linguaggio dei pazienti per facilitare la diagnosi. In questi sistemi, le parole vengono ricondotte a categorie predefinite e collegate direttamente a diagnosi psicologiche. Di conseguenza, l’intelligenza artificiale analizza le parole del paziente e fornisce una diagnosi.
Ecco il secondo punto su cui vorrei soffermarmi, partendo da un’altra domanda e cioè: è davvero possibile categorizzare una persona in modo così oggettivo e algoritmico, come fa un’intelligenza artificiale con i suoi input? La domanda è quasi retorica ma in un altro senso: un soggetto non può essere ridotto alla sua diagnosi. Questo non vuol dire che la diagnosi non sia utile, ad esempio per indirizzare una cura, ma quando una persona viene definita solo attraverso una diagnosi, si perde la possibilità di vederla nella sua totalità, limitandosi a osservare solo il sintomo che si manifesta in quel momento.

Ben vengano gli errori

Un altro motivo per cui sarebbe problematico ridurre una persona a una categoria è che le categorie difficilmente accettano l’errore. In altre parole, un algoritmo non può ammettere di sbagliare. L’errore, invece, è una componente fondamentale del nostro apprendimento. Sebbene spesso venga associato a un apprendimento infantile, legato alle prime fasi della nostra conoscenza, in realtà continuiamo a imparare dai nostri errori per tutta la vita, sia nella sfera privata che in quella professionale. A questo proposito, mi torna in mente una dedica di Donald Winnicott che si trova all’inizio del suo libro “Gioco e realtà”: «Ai miei pazienti che hanno pagato per insegnarmi». Winnicott, infatti, ha sempre sottolineato come la possibilità di comprendere l’effetto delle sue parole e dei suoi interventi fosse cruciale per la sua crescita professionale. Per lui, il punto centrale della formazione, anche in ambito analitico, non è l’idea di evitare l’errore o di non dire mai qualcosa di sbagliato, ma piuttosto di essere in grado di sbagliare e, da quell’errore, trarre sempre un insegnamento.
Questo punto mi sembra particolarmente rilevante perché sottolinea come le parole abbiano un peso particolare: da esse possiamo imparare. È vero che l’intelligenza artificiale impara dalla nostra interazione con essa, ma è altrettanto vero che non può comprendere il valore di quell’insegnamento. Può solo migliorare l’algoritmo, ma senza mai percepire il significato profondo che si cela dietro le parole.

Perdersi lungo questo cammino

Dunque, concludo con una riflessione: sicuramente, nel mondo moderno avremo sempre più a che fare con l’intelligenza artificiale, tanto nella vita professionale quanto in quella privata. Questo è un tema che avevo già trattato nella mia prima prova di maturità e, anche dopo pochi anni, sono ancora convinto che non dobbiamo temere l’ingresso dell’intelligenza artificiale nelle nostre vite—che si tratti del lavoro, delle relazioni personali o della sfera pubblica. Ciò che dobbiamo temere, invece, è la possibilità di “perderci” lungo questo cammino. Con ‘perdersi’, intendo perdere una parte fondamentale di ciò che ci rende umani: la capacità di comprendere il valore delle parole. Se arriviamo al punto in cui non saremo più in grado di attribuire significato alle nostre parole, dovendo fare affidamento sulle macchine per interpretarle nei nostri rapporti, allora avremo davvero perso qualcosa di essenziale.