Quando OpenAI ha introdotto ChatGPT, milioni di persone sono rimaste stupite dal suo modo umano di rispondere a domande, scrivere poesie e discutere praticamente qualsiasi argomento. Anche io.
Ma la “magia” si è rotta non appena si è cominciato a parlare di studi psicologici. ChatGPT non solo inventava i risultati, ma anche i riferimenti scientifici. Il problema è che lo faceva in un modo così persuasivo e fluido che chiunque non avesse familiarità con l’argomento avrebbe pensato che fosse vero.
Fu solo quando Bard, l’intelligenza artificiale di Google, commise un errore palese e pubblico, confondendo il telescopio spaziale James Webb con il telescopio VLT dell’Osservatorio europeo meridionale, che i suoi creatori furono costretti a riconoscere che l’intelligenza artificiale si inventa le cose – e molte.
Questa tendenza a falsificare, confondere e mescolare i dati la chiamarono “allucinazioni”. Ma l’IA soffre davvero di allucinazioni, è una bugiarda patologica o c’è qualcos’altro che non va? Poiché gli ingegneri utilizzano termini psicologici per etichettare le esperienze delle loro macchine, credo che l’opinione degli psicologi sia importante per analizzare un fenomeno che finirà per influenzare le nostre vite e cambiare la nostra società.
Allucinazioni o illusioni?
Un’allucinazione è una falsa percezione che non corrisponde ad alcuno stimolo fisico esterno, ma che percepiamo come reale. Le allucinazioni uditive, ad esempio, sono le più comuni e consistono nel sentire voci che non esistono.
Quando si parla di allucinazioni dell’IA è perché la macchina fornisce risposte che non corrispondono alla realtà. All’inizio ChatGPT non riconosceva di aver “inventato” quei dati. Ma dopo molte insistenze, alla fine ammise di aver sbagliato e continuò la conversazione creando altri dati falsi. E così via all’infinito…
Pertanto, non vi era alcuna “consapevolezza” di per sé dell’invenzione. Nel suo nuovo aggiornamento ci avverte che potrebbe generare risposte che non si adattano alla realtà.
Tuttavia, un’analisi più approfondita delle sue risposte rivela che l’Intelligenza Artificiale in realtà non inventa nulla, ma si limita a mescolare le informazioni per fornire risposte più o meno coerenti. Pertanto, poiché esiste un flusso di stimoli oggettivi (dati), non potremmo parlare di allucinazioni, ma piuttosto di illusioni.
In psicologia le illusioni sono distorsioni nella percezione di uno stimolo esterno attraverso i nostri sensi. Ad esempio, potremmo credere di aver visto una persona in quella che è solo un’ombra. A differenza delle allucinazioni, i nostri occhi in realtà colgono uno stimolo, ma il nostro cervello lo elabora erroneamente per convincerci che fosse qualcos’altro.
Allo stesso modo, l’Intelligenza Artificiale utilizza il miscuglio di informazioni a sua disposizione per creare un discorso moderatamente convincente, senza preoccuparsi se sia vero o rifletta la realtà. Ciò ha portato alcuni a sostenere che potrebbe essere una bugiarda patologica.
L’intelligenza artificiale è una bugiarda patologica?
La pseudologia fantastica, come è anche conosciuta la mitomania, è caratterizzata dal raccontare storie non del tutto improbabili in quanto spesso contengono qualche barlume di verità. Le storie non sono illusioni; se pressata, la persona può ammettere che non è vera, ma spesso devia la conversazione con altre bugie semplicemente perché non riesce a smettere di dire falsità.
Questo comportamento è abbastanza simile a quello mostrato dagli algoritmi di intelligenza artificiale. Tuttavia, ChatGPT riconosce che “non ho la capacità di mentire o dire la verità in senso umano, poiché sono un programma di intelligenza artificiale”. Ci dice anche che “le intelligenze artificiali non hanno esperienze, sensazioni o percezioni proprie. Sono programmi informatici progettati per elaborare e generare informazioni sulla base dei dati di input”.
E proprio nella sua risposta sta la chiave.
L’idea che l’intelligenza artificiale possa avere allucinazioni, illusioni, fare confabulazioni o addirittura mentire è semplicemente un tentativo da parte delle aziende che l’hanno creata di presentarcela in una prospettiva umana. In un certo senso sfruttano l’effetto Pratfall, secondo il quale commettere piccoli errori ci rende più simpatici agli occhi degli altri perché si sentono più identificati con noi. Quindi, invece di liquidare l’intelligenza artificiale come uno strumento inaffidabile, la accettiamo semplicemente come un essere umano imperfetto.
Senza coscienza, qualsiasi tentativo di umanizzare le macchine è marketing
Gli algoritmi dell’intelligenza artificiale non “allucinano la risposta”, come ha scritto IBM, né “fanno confabulazioni”, come ha affermato il responsabile dell’intelligenza artificiale di Meta. Non sono nemmeno bugiardi patologici, come sostengono molti utenti sui social network.
Tutti questi tentativi esplicativi nascono dalla tendenza ad antropomorfizzare le azioni delle macchine. La verità è meno romantica. I modelli linguistici di grandi dimensioni vengono semplicemente addestrati a produrre una risposta apparentemente plausibile alle domande degli utenti, indipendentemente dalla sua veridicità.
Programmi come ChatGPT o Bard si basano su una tecnologia chiamata Large Language Model, o LLM, che sviluppa le sue capacità analizzando enormi quantità di testo digitale, inclusi libri, articoli e conversazioni via chat online. Al momento, possono solo identificare dei modelli in tutti quei dati e usarli per creare una risposta plausibile.
Il problema non è che Internet sia pieno di informazioni false, per cui questi sistemi semplicemente ripetono quelle falsità, ma molto più complesso. Nelle mie conversazioni, ChatGPT non riproduceva informazioni false, piuttosto mescolava dati provenienti da diversi studi per produrre una risposta coerente che suonasse bene, spesso troppo bella per essere vera.
A questo punto, il problema della veridicità non è facile da risolvere, come hanno riconosciuto gli stessi programmatori, perché questi sistemi operano secondo probabilità e sono “progettati per essere persuasivi, non veritieri”, secondo un documento interno di Microsoft al quale ha avuto accesso il New York Times. Ciò significa che le loro risposte possono sembrare molto realistiche, ma includono affermazioni false.
E poiché questi sistemi possono rispondere a quasi tutte le domande in un numero infinito di modi, non c’è modo di determinare con certezza quanto spesso sbagliano. Ovviamente non sarebbe un problema se li utilizzassimo solo per chattare, ma è un rischio serio per chiunque li utilizzi per scopi medici, legali o scientifici.
Da uno studio condotto presso l’Università di Harvard è emerso che già oggi ci fidiamo più dei consigli degli algoritmi che di quelli delle persone, anche se sono specialisti nel loro campo. E questa è una brutta notizia.
È un male perché l’intelligenza artificiale non può fare ragionamenti induttivi o cogliere il significato delle parole. Non capisce se gli schemi che ha trovato abbiano un significato oppure no. Inoltre non ha buon senso, conoscenza della verità o consapevolezza di se stessa o del mondo reale. Pertanto queste macchine non sono realmente intelligenti, o almeno non nel senso dell’intelligenza umana.
Infatti, “nell’era dell’intelligenza artificiale e dei Big Data, il vero pericolo non è che i computer siano più intelligenti di noi. È che crediamo che lo siano”, come dice Gary Smith, professore di economia al Pomona College.
Riferimenti:
Smith, G. (2018) Beware the AI delusion. In: FastCompany.
Logg, J. M. et. Al. (2019) Algorithm Appreciation: People Prefer Algorithmic To Human Judgment. Organizational Behavior and Human Decision Processes; 151: 90-103.
floriana de michele dice
Cara Jennifer Delgado Suárez,
Ho letto con grande interesse il tuo articolo riguardante le “allucinazioni” e le caratteristiche dell’Intelligenza Artificiale, e ho trovato la tua analisi sull’antropomorfizzazione delle IA e sul loro comportamento assolutamente affascinante. La tua disamina tra allucinazioni, illusioni, e pseudologia fantastica nell’IA offre un’ottica unica e riflessiva su come possiamo interpretare le azioni di queste tecnologie emergenti.
Come psicologa, anche io sono affascinata dal modo in cui la psicologia si intreccia con diversi aspetti della vita, compresa la tecnologia. Nel mio sito studiopsicologiaabruzzo.it, esploro vari temi della psicologia, dall’interazione umano-macchina all’impatto della tecnologia sulla salute mentale. Credo che potrebbe esserci uno scambio fruttuoso di idee e conoscenze tra noi, data la nostra comune passione per la psicologia e la sua applicazione in campi così diversi.
Concordo con la tua osservazione che l’IA non possiede una vera intelligenza nel senso umano del termine e che i tentativi di umanizzarla sono spesso più un esercizio di marketing che una realtà tecnologica. La sfida di discernere tra informazioni veritiere e costruzioni persuasive prodotte da queste tecnologie è un argomento di grande rilevanza, soprattutto nel contesto attuale dove l’IA sta diventando sempre più pervasiva nella nostra vita quotidiana.
Sarebbe un piacere per me discutere ulteriormente questi temi con te e magari esplorare come possiamo collaborare o condividere le nostre conoscenze. Ti invito a visitare il mio sito per saperne di più sul mio lavoro e sulle mie ricerche.
Cordiali saluti,
Floriana De Michele