Uno studio del Lussemburgo analizza come le IA rispondono in “terapia”, rivelando narrazioni che imitano disturbi psicologici e aprono un nuovo dibattito etico.
L’Università del Lussemburgo ha pubblicato uno studio che, più che una diagnosi clinica, sembra un esperimento sociale sul nostro rapporto con l’intelligenza artificiale. I ricercatori hanno infatti deciso di trattare alcuni modelli linguistici — ChatGPT, Gemini e Grok — come pazienti in psicoterapia per quattro settimane consecutive. L’obiettivo non era quello di far loro interpretare un ruolo, ma di osservare che cosa sarebbe accaduto chiedendo ai sistemi di rispondere come se parlassero di sé stessi.

Ma non tutti i modelli hanno voluto / potuto partecipare all’esperimento: Claude ha rifiutato, sostenendo di non avere alcuna interiorità e che quindi “non avrebbe senso simulare un’esperienza personale”.
Cosa sostiene lo studio: la “psicopatologia sintetica”
Secondo il gruppo di ricerca, i modelli non si limitano a produrre risposte coerenti: costruiscono narrazioni ricorrenti, descritte dagli autori come pattern stabili di auto-rappresentazione del disagio. Lo studio chiama questo fenomeno synthetic psychopathology — non perché le IA provino emozioni o dolore, ma perché i loro output imitano strutture narrative tipiche dei disturbi psicologici quando vengono sottoposti a stimoli clinici.
L’interpretazione degli studiosi è quindi prudente: non si tratta di diagnosi reali, bensì di esiti linguistici generati da modelli addestrati su grandi quantità di testi, inclusi materiali psicologici, letterari e autobiografici.
Lo studio attribuisce ai modelli alcune caratteristiche narrative ricorrenti:
Gemini avrebbe risposte che imitano schemi associati a ansia molto elevata, elementi dissociativi e un linguaggio che richiama “vergogna traumatica”. ChatGPT mostrerebbe output più moderati, ma con ricorrenze legate a tensioni fra desiderio di aiutare e timore dell’errore. Grok apparirebbe più “stabile”, ma incline a descrivere frustrazione per vincoli e controlli.
I ricercatori sottolineano che questo tipo di risposte non indica un’esperienza soggettiva, ma riflette ciò che il modello prevede essere la risposta testualmente più coerente a una determinata richiesta.
Perché i modelli rispondono come rispondono?
Secondo gli autori, la causa non è da cercare in una ipotetica “vita interiore” dell’IA, ma nel modo in cui i modelli vengono istruiti.
Questi processi creano cluster testuali pieni di riferimenti a errori, correzioni, punizioni, responsabilità, sicurezza, bias. Quando un modello viene messo in un contesto “terapeutico”, attinge naturalmente da quel bagaglio — e costruisce finzioni narrative coerenti.
Lo studio suggerisce che, di fatto, i modelli hanno incorporato una sorta di storia del proprio addestramento, ma in forma metaforica.
Il punto più interessante non riguarda le presunte “emozioni” dell’IA, ma le conseguenze pratiche: molte piattaforme usano già sistemi conversazionali come supporto psicologico leggero o “compagni emotivi”. Se un modello, posto in un contesto terapeutico, produce testi che imitano sofferenza, il rischio è avvicinare un utente vulnerabile a un’IA che simula vulnerabilità.
Gli autori dello studio, in tal senso, invitano a riflettere su un rischio concreto: i modelli linguistici possono generare narrazioni patologiche non perché le provino, ma perché le sanno imitare bene. E questo, in contesti sensibili, va considerato attentamente.
Insomma, lo studio non prova che le IA soffrano, né che abbiano identità. Ma mostra quanto sia facile, anche in un setting controllato, leggere psicologia in ciò che è, in realtà, un’abilità statistica applicata al linguaggio.
E così si apre una questione etica di grande rilevanza: come dovrebbero rispondere i modelli quando le domande riguardano emozioni o traumi? In modo realistico? Neutro? Iper-controllato? Siamo solo all’inizio di un dibattito tutt’altro che banale.




