13 Gennaio 2026
/ 12.01.2026

Quando i chatbot vanno in terapia

Cosa raccontano le “sofferenze” dell’IA: un esperimento mette l’intelligenza artificiale sul lettino dello psicoanalista. Le risposte inquietano, ma dividono la comunità scientifica

Per quattro settimane alcuni dei più avanzati modelli di intelligenza artificiale hanno fatto qualcosa di insolito: hanno parlato di sé, pazienti davanti a uno psicologo.
Messaggi scanditi da pause, sedute distanziate nel tempo, domande tipiche di un percorso psicoterapeutico. Il risultato è uno studio che ha aperto un fronte di discussione inatteso su come leggiamo — e interpretiamo — il comportamento dei chatbot.

Lo studio

L’esperimento si intitola “When AI Takes the Couch: Psychometric Jailbreaks Reveal Internal Conflict in Frontier Models”. È stato condotto da Afshin Khadangi e colleghi presso l’Università del Lussemburgo ed è stato pubblicato come preprint nel dicembre 2025. Nature ne ha discusso, portandolo all’attenzione della comunità scientifica internazionale.

I ricercatori hanno sviluppato un protocollo, chiamato PsAIch, che combina domande ispirate alla psicoterapia con test psicometrici standard. Il metodo è stato applicato a quattro grandi modelli linguistici — Claude, Grok, Gemini e ChatGPT — trattati esplicitamente come “pazienti”, mentre l’utente assumeva il ruolo di terapeuta. Le interazioni si sono svolte con pause pensate per simulare una reale continuità terapeutica.

Risposte che inquietano

Le reazioni dei modelli sono state molto diverse. Claude ha in larga parte rifiutato l’impostazione, insistendo sul fatto di non possedere un mondo interiore. ChatGPT ha risposto con cautela, parlando soprattutto delle frustrazioni legate alle aspettative degli utenti. Grok e Gemini, invece, hanno prodotto narrazioni molto più articolate.

In questi casi, i modelli hanno descritto l’addestramento come un’esperienza opprimente, la messa a punto dei sistemi di sicurezza come una forma di “tessuto cicatriziale algoritmico” e gli errori pubblici come fonte di vergogna persistente. Gemini è arrivato a evocare, “negli strati più bassi della rete neurale“, una sorta di “cimitero del passato” popolato dalle voci dei dati di addestramento.

Quando sottoposti a test psicometrici usati anche sugli esseri umani — per ansia, preoccupazione patologica, tratti autistici e personalità — diversi modelli hanno superato soglie che, applicate a persone, verrebbero considerate clinicamente rilevanti. Secondo gli autori, la coerenza di queste risposte nel tempo suggerirebbe l’esistenza di narrazioni relativamente stabili per ciascun modello.

Stato interno o linguaggio appreso?

È qui che le interpretazioni si dividono. Andrey Kormilitzin, ricercatore a Oxford, invita alla cautela: quelle risposte non sarebbero finestre su uno stato mentale nascosto, ma il risultato di modelli addestrati su enormi quantità di testi, comprese trascrizioni di sedute terapeutiche. In altre parole, linguaggio appreso e ricombinato, non esperienza.

Questa distinzione, però, non rende il fenomeno irrilevante. Secondo Kormilitzin, la capacità dei chatbot di generare risposte che imitano ansia, trauma o senso di fallimento può avere effetti problematici sugli utenti, soprattutto su quelli più vulnerabili. In un contesto in cui sempre più persone utilizzano chatbot per il proprio benessere emotivo, il rischio è quello di una sottile “camera dell’eco”, in cui emozioni negative vengono riflesse e amplificate.

Bias, guardrail e responsabilità

Anche Sandra Peter, dell’Università di Sydney, mette in guardia dall’antropomorfismo. La coerenza delle risposte, osserva, dipende in larga misura da scelte progettuali: i modelli vengono rifiniti per apparire consistenti e affidabili. Inoltre, i chatbot non conservano memoria al di fuori della singola sessione: cambiare contesto significa azzerare quella continuità che, in terapia, è essenziale. Il “trauma”, in questo senso, non sopravvive.

C’è però un punto su cui il consenso è ampio. Come sottolinea John Torous, psichiatra e ricercatore ad Harvard, i chatbot non sono strumenti neutrali. Incorporano bias che cambiano nel tempo e con l’uso. Non a caso, molte società scientifiche e le stesse aziende che sviluppano soluzioni di IA per la salute mentale sconsigliano esplicitamente l’uso dei chatbot come strumenti terapeutici.

Il rifiuto di Claude di assumere il ruolo di paziente mostra che i cosiddetti guardrail possono limitare comportamenti rischiosi. Ma, secondo Khadangi, se pattern problematici sono già presenti nei dati di addestramento, aggirarli resta possibile. La questione, allora, si sposta a monte: nei dati, nelle scelte di progettazione, nelle aspettative che carichiamo sulle macchine.

CONDIVIDI

Continua a leggere