Tag Archivio per: Chatbot

Perché l’IA può essere un pessimo terapeuta

Perché l’IA può essere un pessimo terapeutaIn questo post voglio spiegarvi perché l’IA può essere un pessimo terapeuta. Negli ultimi anni molte persone hanno iniziato a usare l’intelligenza artificiale come spazio dove trovare supporto emotivo. Scrivere a un chatbot quando si è in ansia, quando si litiga con qualcuno, quando si ha paura di avere un disturbo psicologico sta diventando un’abitudine sempre più diffusa. È comprensibile. L’IA è sempre disponibile, non giudica e soprattutto risponde subito.

In altre parole, offre qualcosa che ricorda molto una relazione terapeutica, ovvero: ascolto, parole di comprensione e spiegazioni psicologiche. E allora perché non usare una chatbot al posto di un terapeuta in carne e ossa? Attenzione, perché qui si nasconde un problema clinico importante che dimostra come il diavolo si nasconda nei dettagli.

Nella psicoterapia reale l’ascolto non è semplicemente empatia o validazione. È un ascolto attivo che presuppone un lavoro di regolazione, di contenimento e di interpretazione da parte del terapeuta.

Quando questo equilibrio manca, il rischio è che la conversazione, anche se ben intenzionata, rinforzi la sofferenza anziché ridurla. Uno degli esempi più chiari riguarda il modo in cui i sintomi del paziente vengono validati durante le interazioni con i chatbot.

Nella cultura psicologica contemporanea il termine validazione (utilizzato per la prima volta da Marsha Linehan) è diventato molto popolare. Significa riconoscere che l’esperienza emotiva dell’altra persona è reale e comprensibile. In terapia è uno strumento fondamentale. Ma, come molti strumenti potenti, funziona solo se usato con discernimento.

Validare, infatti, non significa confermare ogni interpretazione del paziente. Non significa nemmeno rafforzare ogni timore. Un terapeuta esperto sa che alcune convinzioni del paziente fanno parte del problema. Per esempio:

  • interpretazioni catastrofiche dell’ansia

  • convinzioni ipocondriache

  • letture paranoidi delle relazioni

  • paura di “impazzire”

In questi casi il terapeuta deve contenere, modulare e talvolta contraddire gentilmente il significato che il paziente attribuisce ai sintomi. Un sistema di IA, invece, tende spesso a fare qualcosa di diverso: validare quasi tutto. Non per cattiva intenzione, ma perché è progettato per essere supportivo e non conflittuale.

Il risultato può essere una forma di eco psicologica, in cui le paure del paziente vengono indirettamente rafforzate. Per chiarire meglio questo punto, raccontiamo una breve vignetta clinica (con elementi modificati per tutelare la privacy). La nostra paziente si chiama Elena, 26 anni.

Elena soffre da tempo di ansia e ha sviluppato una forte attenzione ai segnali del proprio corpo. Negli ultimi mesi ha iniziato a sperimentare episodi di derealizzazione e momenti in cui si sente “strana”, come se la realtà fosse distante. La sensazione la spaventa molto. Una sera decide di parlarne con un chatbot. Scrive qualcosa del tipo: “A volte mi sembra che il mondo non sia reale. Ho paura di perdere il contatto con la realtà.”

Il chatbot risponde con un messaggio empatico: “Quello che stai vivendo è comprensibile. La derealizzazione può essere molto spaventosa e può essere collegata a vari disturbi psicologici.” Poi aggiunge una lista di possibili condizioni: disturbi dissociativi, trauma, stress severo. Il tono è gentile, e le informazioni non sono sbagliate.

Ma per Elena accade qualcosa di importante: l’attenzione ai sintomi aumenta. Nei giorni successivi torna a scrivere più volte al chatbot: “È normale che succeda così spesso?” e “Potrebbe essere qualcosa di grave?” e ancora “Potrei avere un disturbo dissociativo?”

Ogni risposta mantiene un tono validante. Ma ciò che Elena non riceve è qualcosa che, in terapia, sarebbe fondamentale: una regolazione dell’interpretazione catastrofica.

Quando arriva in studio, la prima cosa che dice è: “Credo di avere qualcosa di molto serio. Anche l’IA mi ha detto che potrebbe trattarsi di un disturbo dissociativo.” In realtà, nel suo caso, la derealizzazione era legata a un ciclo di ansia e di ipercontrollo del corpo. Il problema non era il sintomo, ma il modo in cui veniva interpretato e amplificato.

Questa vignetta clinica non vuole dimostrare che l’IA sia inutile. Può essere uno strumento informativo, uno spazio di riflessione o perfino un primo passo verso la richiesta di aiuto. Ma una relazione terapeutica contiene elementi che vanno oltre la semplice conversazione, quali il contenimento emotivo, la correzione delle interpretazioni disfunzionali del paziente e, soprattutto, la lettura della persona nel suo complesso.

Detto in altre parole, un chatbot risponde a una frase. Un terapeuta ascolta una storia, un tono, una postura, una ripetizione di temi nel corso del tempo. Il sintomo viene inserito in una struttura psicologica più ampia.

L’intelligenza artificiale può essere molto brava a simulare empatia. Ma la psicoterapia non è soltanto empatia. È anche: frustrazione tollerabile, chiarificazione, interpretazione, regolazione emotiva, In altre parole, non è solo sentirsi capiti. È essere aiutati a capire meglio se stessi.

E questo richiede qualcosa che nessun algoritmo possiede davvero: una mente clinica che pensa insieme alla tua; qualcosa che un’intelligenza artificiale proprio non può fare.