Uno spazio sicuro per il tuo benessere. Prenota ora

 
bt_bb_section_bottom_section_coverage_image

Intelligenza Artificiale e salute mentale: i limiti delle risposte in chat

21/01/20260

L’intelligenza artificiale è entrata anche nel campo della salute mentale, diventando per molti la prima “voce” a cui chiedere consiglio quando qualcosa non va. È comprensibile: le chat con l’IA sono immediate, sempre disponibili e sembrano offrire risposte a qualsiasi domanda.
Ma cosa succede quando iniziamo a cercare conforto, diagnosi o soluzioni interiori solo in questo modo? E soprattutto: quali sono i limiti nascosti delle risposte in chat rispetto a una vera relazione con uno psicoterapeuta in carne e ossa?

Connessioni umane e abilità cognitive a rischio

Un primo aspetto critico riguarda l’impatto sul nostro cervello e sulle relazioni. Affidarsi in modo eccessivo all’IA per trovare risposte, a lungo andare può infatti atrofizzare alcune capacità mentali e al contempo isolarci dagli altri.
Un recente studio del MIT Media Lab ha lanciato l’allarme: “un affidamento eccessivo a soluzioni offerte dall’IA” rischia di contribuire a una sorta di «atrofia cognitiva», riducendo le nostre abilità di pensiero critico.

In altre parole, se lasciamo che sia sempre il chatbot a pensare per noi, il nostro muscolo mentale della riflessione si indebolisce. Ciò può voler dire meno creatività, meno capacità di soluzione dei problemi e minore esercizio dell’auto-riflessione autonoma.

Parallelamente, c’è un costo relazionale. Ogni volta che scegliamo di confidare i nostri pensieri più intimi a un’entità artificiale, rinunciamo, magari senza accorgercene, a un’opportunità di connessione umana reale.
Il rischio è che, se l’IA diventa la nostra “fonte preferita” di conforto ed empatia, finiamo per ritirarci dalle interazioni umane, aggravando magari proprio quei problemi di solitudine e isolamento che cerchiamo di risolvere. 

Empatia e intuizione: ciò che l’IA non può dare

Ma anche ammesso che l’IA ci offra qualche risposta utile, bisogna chiedersi: che tipo di risposta? Qui emerge il grande divario qualitativo tra un chatbot e un terapeuta umano.

Una relazione terapeutica autentica si fonda su ingredienti come l’empatia vissuta, l’intuizione clinica e la capacità di mettersi nei panni dell’altro. Un’IA, per quanto addestrata su milioni di conversazioni, non possiede nulla di tutto ciò. 

Un chatbot può simulare parole gentili e perfino inserire frasi come “capisco come ti senti”, ma resta un algoritmo che non sente nulla. Non ha un passato, non ha vissuto il dolore o la gioia, non ha quella comprensione tacita che nasce dall’aver attraversato esperienze di vita.

Allo stesso modo, l’IA difetta totalmente di intuizione. Un bravo terapeuta spesso intuisce cosa non viene detto a parole, coglie connessioni sottili nel racconto di una persona, presta attenzione al linguaggio del corpo. Anzi, quest’ultimo, ad un occhio esperto, rivela molto più di quanto espresso a parole.
L’IA invece si basa solo su correlazioni statistiche nel testo: non può avere insight originali né leggere tra le righe come farebbe una mente umana allenata e ciò è un limite enorme nel capire davvero da dove viene la sofferenza del paziente. 

Il corpo non mente: la comunicazione non verbale che l’IA ignora

Alexander Lowen affermava che non esistono parole più chiare di quelle del linguaggio del corpo: laddove possiamo “mentire” a noi stessi e agli altri con le parole, il corpo invece rivela la verità. 

Postura, sguardo, micro-espressioni facciali, tono e ritmo della voce, sospiri, silenzi, perfino il tremito di una mano: sono segnali preziosi che trasmettono emozioni e stati d’animo autentici, spesso a un livello più profondo rispetto al contenuto verbale.

Nella relazione terapeutica, osservare e sentire il corpo del paziente è fondamentale. Un terapeuta in carne ed ossa coglie quando il tuo sorriso è teso e non arriva agli occhi, nota quel piede che si agita nervosamente durante un racconto, percepisce un cambio nel tuo respiro quando tocchi un certo argomento. 

Queste sfumature non verbali guidano l’intervento: magari il terapeuta ti inviterà a fermarti un istante e notare quella tensione alla mascella che appare mentre parli di qualcosa che ti scuote, aprendo così una porta verso un’emozione repressa. Un chatbot, interagendo solo via testo, è cieco e sordo alla comunicazione non verbale. 

E considerando che secondo alcune ricerche oltre il 90% della comunicazione umana è non verbale, si capisce quanto perda per strada un assistente artificiale.

Nella psicoterapia corporea, poi, il corpo non è solo fonte di segni da interpretare, ma parte attiva del processo di cura. Si lavora sul respiro, sul radicamento dei piedi a terra, sul lasciare andare tensioni muscolari che trattengono emozioni. 

L’IA ovviamente non può partecipare a nulla di tutto ciò, non può sintonizzarsi col tuo linguaggio corporeo. L’IA in quanto entità incorporea è intrinsecamente inadeguata a cogliere e curare le ferite che si esprimono attraverso il corpo. 

Risposte standard e sempre rassicuranti.

Un ulteriore problema nell’usare l’IA come “terapeuta” personale è la genericità delle sue risposte. I modelli linguistici di AI, per struttura, tendono a fornire soluzioni standard, formulazioni generiche che possano andar bene un po’ per tutti. Queste risposte passepartout, dal tono pacato e rassicurante, rischiano di somigliare agli oroscopi: suonano vagamente calzanti, ma proprio perché volutamente indefinite e adattabili a chiunque. 

In psicologia questo fenomeno è noto come effetto Forer: tendiamo a dare alto credito a descrizioni o consigli apparentemente su misura per noi, che in realtà sono così vaghi da potersi applicare a una vasta gamma di persone.
L’IA eccelle nel produrre proprio questo tipo di contenuti: pensieri confortanti ma superficiali, che gratificano nell’immediato un po’ come leggere un oroscopo favorevole.

C’è anche un altro effetto insidioso delle risposte “da oroscopo” dell’IA: ci rassicurano senza però sfidarci davvero. Un chatbot tenderà spesso a consolare e basta, con formule positive, senza invitarci a esplorare davvero la radice del nostro malessere

Nessuna “ombra”: la superficialità delle risposte dell’IA

In psicologia del profondo si parla di ombra riferendosi a quei lati di noi che rimangono nell’oscurità dell’inconscio, le emozioni negative, le paure, la rabbia inespressa, tutto ciò che è difficile da guardare. Una vera relazione terapeutica non ha paura dell’ombra: anzi, spesso proprio lì, nella parte oscura di noi, si nascondono le chiavi per capire il nostro disagio e trasformarlo. Ma cosa accade se al posto di un terapeuta umano c’è un’IA? L’IA non ha un proprio inconscio, non ha esplorato i propri lati oscuri (non ne possiede affatto) e di conseguenza non può entrare in risonanza con quelli dell’altro.

Si noti: un buon terapeuta, pur mantenendo professionalità, mette in gioco anche la propria umanità, le proprie emozioni e la propria storia, per empatizzare davvero con il paziente. L’IA invece risponde sempre da una posizione “piatta”: non si arrabbia mai, non si deprime mai, non prova imbarazzo né paura. Questa neutralità algoritmica fa sì che le sue risposte siano spesso neutralizzanti: tendono a smussare gli spigoli, a portare tutto su un piano di razionalità o di positività standard. 

Se esprimi pensieri cupi o aggressivi, il chatbot magari li riformulerà in modo politicamente corretto o troverà subito il lato positivo. Ma così le tue ombre restano inascoltate. 

L’IA non ti incalzerà mai con domande scomode, non ti restituirà mai un’osservazione pungente su un tuo autosabotaggio, perché non ha quella sensibilità critica necessaria per farlo in modo mirato e costruttivo. 

Manca completamente di intuito clinico e di coraggio emotivo: due qualità umane grazie a cui, a volte, il terapeuta osa guardare nell’abisso insieme a te, mentre il chatbot resterebbe sulla riva, offrendoti al massimo un galleggiante preconfezionato.

Ma spesso è proprio attraverso quell’ombra che si trova la via dell’autentica guarigione.

La lezione del lampione: l’illusione della risposta facile

C’è una vecchia storia Sufi, che illustra bene il tranello in cui rischiamo di cadere quando cerchiamo soluzioni all’esterno invece che dentro di noi

Una notte, sotto un lampione, un vicino vede Nasruddin intento a cercare qualcosa a carponi. “Cosa hai perduto?” gli chiede. “Ho perso le chiavi di casa” risponde Nasruddin, e insieme si mettono a frugare per terra sotto la luce. Dopo un po’, il passante domanda: “Sei sicuro di averle perse qui?”. “Oh no, le ho perse in casa” esclama Nasruddin. “E allora perché le cerchi qui sotto il lampione?!” incalza l’altro. “Perché qui c’è più luce!” risponde candidamente Nasruddin .

Spesso, di fronte a un problema interiore: che sia una perdita, un conflitto, un malessere, siamo tentati di cercare la “chiave” della soluzione dove c’è luce, ovvero fuori di noi, nelle risposte pronte, nelle spiegazioni semplici che danno la colpa a qualcos’altro o qualcun altro. È più facile guardare fuori, perché guardare dentro, nell’oscurità delle nostre parti inesplorate, fa paura e richiede coraggio. 

Così, se qualcosa nella nostra vita non va, potremmo preferire pensare che la causa sia esterna (il partner che non ci capisce, il lavoro stressante, “il destino” avverso) piuttosto che addentrarci nella zona buia dentro di noi per vedere magari le nostre insicurezze, i nostri errori o bisogni inespressi. 

L’Intelligenza Artificiale rappresenta un po’ quel lampione: offre una luce comoda, immediata, sotto cui frugare risposte. Ci illude con la sua brillante quantità di informazioni e soluzioni che la chiave sia lì, a portata di mano, già bella e lucente. 

La verità è che le risposte più autentiche raramente si trovano nelle soluzioni preconfezionate fornite da fuori. Spesso occorre fare quell’atto di coraggio di guardare nel buio interiore, per scoprire dove davvero abbiamo perso noi stessi o cosa sta causando la nostra sofferenza. 

Certo, addentrarsi nel buio può richiedere una guida, ed è qui che la figura del terapeuta umano torna fondamentale. Un bravo psicoterapeuta ci accompagna come con una lampada nelle nostre stanze interiori non illuminate, ci sostiene quando tremiamo all’idea di cosa potremmo trovarci, e ci aiuta a dare un senso a ciò che scopriamo lì. 

L’IA, pur avanzata, resta uno strumento utile forse per ricordarci un concetto o fornire informazioni generali, ma inadatta a guidarci nei territori complessi dell’anima. Le sue risposte possono alleggerire nell’immediato qualche interrogativo, ma non guariscono la ferita sottostante. 

In psicoterapia si dice che la vera risposta non è una frase, è un percorso.
È il frutto di un lavoro attivo, di un dialogo sincero (spesso faticoso) con se stessi o con un altro essere umano empatico che funge da specchio. 

Delegare all’esterno questo processo, significa in qualche modo rinunciare al proprio potere personale di cambiamento. Nessuna scorciatoia digitale può sostituire il viaggio umano. La luce fredda di un lampione artificiale non basterà a farci vedere ciò che teniamo nell’ombra, per quello serve la calda luce della consapevolezza, accesa dall’interno e alimentata dalla sincera connessione umana.

Per quanto brillante possa sembrare l’IA, la sua luce non illumina la nostra interiorità. Abbiamo ancora bisogno di entrare in casa, dentro di noi. E nessuna intelligenza artificiale potrà mai sostituire l’intelligenza del cuore umano che ascolta, sente e cammina insieme a noi.

Leave a Reply

Your email address will not be published. Required fields are marked *

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.