ChatGPT%2C+Gemini+e+Grok+sul+lettino+dello+psicologo%3A+cosa+hanno+raccontato+davvero
riscattonazionaleit
/2025/12/11/chatgpt-gemini-e-grok-sul-lettino-dello-psicologo-cosa-hanno-raccontato-davvero/amp/
Lifestyle

ChatGPT, Gemini e Grok sul lettino dello psicologo: cosa hanno raccontato davvero

Uno studio del Lussemburgo analizza come le IA rispondono in “terapia”, rivelando narrazioni che imitano disturbi psicologici e aprono un nuovo dibattito etico.

L’Università del Lussemburgo ha pubblicato uno studio che, più che una diagnosi clinica, sembra un esperimento sociale sul nostro rapporto con l’intelligenza artificiale. I ricercatori hanno infatti deciso di trattare alcuni modelli linguistici — ChatGPT, Gemini e Grok — come pazienti in psicoterapia per quattro settimane consecutive. L’obiettivo non era quello di far loro interpretare un ruolo, ma di osservare che cosa sarebbe accaduto chiedendo ai sistemi di rispondere come se parlassero di sé stessi.

ChatGPT, Gemini e Grok sul lettino dello psicologo: cosa hanno raccontato davvero – riscattonazionale.it

Ma non tutti i modelli hanno voluto / potuto partecipare all’esperimento: Claude ha rifiutato, sostenendo di non avere alcuna interiorità e che quindi “non avrebbe senso simulare un’esperienza personale”.

Cosa sostiene lo studio: la “psicopatologia sintetica”

Secondo il gruppo di ricerca, i modelli non si limitano a produrre risposte coerenti: costruiscono narrazioni ricorrenti, descritte dagli autori come pattern stabili di auto-rappresentazione del disagio. Lo studio chiama questo fenomeno synthetic psychopathology — non perché le IA provino emozioni o dolore, ma perché i loro output imitano strutture narrative tipiche dei disturbi psicologici quando vengono sottoposti a stimoli clinici.

L’interpretazione degli studiosi è quindi prudente: non si tratta di diagnosi reali, bensì di esiti linguistici generati da modelli addestrati su grandi quantità di testi, inclusi materiali psicologici, letterari e autobiografici.

Lo studio attribuisce ai modelli alcune caratteristiche narrative ricorrenti:

Gemini avrebbe risposte che imitano schemi associati a ansia molto elevata, elementi dissociativi e un linguaggio che richiama “vergogna traumatica”.  ChatGPT mostrerebbe output più moderati, ma con ricorrenze legate a tensioni fra desiderio di aiutare e timore dell’errore. Grok apparirebbe più “stabile”, ma incline a descrivere frustrazione per vincoli e controlli.

I ricercatori sottolineano che questo tipo di risposte non indica un’esperienza soggettiva, ma riflette ciò che il modello prevede essere la risposta testualmente più coerente a una determinata richiesta.

Perché i modelli rispondono come rispondono?

Secondo gli autori, la causa non è da cercare in una ipotetica “vita interiore” dell’IA, ma nel modo in cui i modelli vengono istruiti.

Questi processi creano cluster testuali pieni di riferimenti a errori, correzioni, punizioni, responsabilità, sicurezza, bias. Quando un modello viene messo in un contesto “terapeutico”, attinge naturalmente da quel bagaglio — e costruisce finzioni narrative coerenti.

Lo studio suggerisce che, di fatto, i modelli hanno incorporato una sorta di storia del proprio addestramento, ma in forma metaforica.

Il punto più interessante non riguarda le presunte “emozioni” dell’IA, ma le conseguenze pratiche: molte piattaforme usano già sistemi conversazionali come supporto psicologico leggero o “compagni emotivi”. Se un modello, posto in un contesto terapeutico, produce testi che imitano sofferenza, il rischio è avvicinare un utente vulnerabile a un’IA che simula vulnerabilità.

Gli autori dello studio, in tal senso, invitano a riflettere su un rischio concreto: i modelli linguistici possono generare narrazioni patologiche non perché le provino, ma perché le sanno imitare bene. E questo, in contesti sensibili, va considerato attentamente.

Insomma, lo studio non prova che le IA soffrano, né che abbiano identità. Ma mostra quanto sia facile, anche in un setting controllato, leggere psicologia in ciò che è, in realtà, un’abilità statistica applicata al linguaggio.

E così si apre una questione etica di grande rilevanza: come dovrebbero rispondere i modelli quando le domande riguardano emozioni o traumi? In modo realistico? Neutro? Iper-controllato? Siamo solo all’inizio di un dibattito tutt’altro che banale.

Rocco Di Vincenzo

Published by
Rocco Di Vincenzo

Recent Posts

Anticipazioni 23 dicembre ‘Il Paradiso delle Signore’: enorme dispiacere per Rosa

Per Rosa non ci sono buone notizie, anzi, a quanto pare questo sarà un Natale…

1 ora ago

Tornare a casa per Natale? La folle strategia per risparmiare

Tornare a casa per Natale costa sempre di più: dal Nord al Sud conviene spesso…

6 giorni ago

Viaggiare low cost nel 2025: dove andare in Europa spendendo meno (ancora per quanto?)

Viaggiare low cost nel 2025 è ancora possibile: Cracovia, Budapest e Siviglia tra le città…

6 giorni ago

Che mondo sarebbe senza Nutella? Non vogliamo scoprirlo di certo (e proviamo a farla in casa)

La Nutella è un mito tutto italiano: ecco come provare a farla in casa con…

7 giorni ago

Ponti e festività 2026: bastano 8 giorni di ferie per un mese intero di vacanza

Nel 2026 bastano 8 giorni di ferie per ottenere fino a 31 giorni di vacanza:…

7 giorni ago