top of page

Dialogare con l’AI: perché non è come consultare un oracolo. Consulenti e psicologi sostituiti dai chatbot?

Aggiornamento: 27 mar

Il rapporto tra intelligenza artificiale e pensiero umano


Da qualche tempo la domanda ritorna con insistenza: consulenti e psicologi saranno sostituiti dai chatbot? La tecnologia è diventata "l’architetto delle nostre intimità"?


Pronunciandosi sul futuro dell'Intelligenza Artificiale, Geoffrey Hinton (Londra, 1947), scienziato informatico e psicologo cognitivo britannico-canadese, considerato uno dei padri del deep learning, premio Nobel per la Fisica insieme a John Hopfield per scoperte fondamentali che hanno reso possibile il machine learning con reti neurali artificiali, afferma nell'intervista al sito ufficiale del Premio Nobel (6 dicembre 2024):

"Chiunque dica che andrà tutto bene è fuori strada. E anche chi dice che inevitabilmente prenderanno il controllo è fuori strada. La verità è che non lo sappiamo davvero.”

E Mustafa Suleyman (Londra, 1984) un importante imprenditore britannico dell’intelligenza artificiale, oggi alla guida Microsoft AI come CEO ed EVP, tra i cofondatori di DeepMind, una delle aziende più influenti nella storia recente dell’AI, acquisita da Google nel 2014, definisce l'AI :

“una nuova specie digitale”

Dire che AI è una nuova specie significa non sapere davvero quali saranno le conseguenze della sua evoluzione. Tuttavia in qualche anno, il 2027 è un pò considerato simbolicamente dai guru dell'AI una soglia importante, secondo gli esperti assisteremo al consolidamento dell' AI generativa, quando l'AI non sarà più solo un generatore di output e diventerà pienamente un sistema operativo cognitivo.


Più che una data decisiva, il 2027 appare oggi in realtà come un orizzonte simbolico di verifica: entro allora molte promesse dell’AI generativa e agentica dovranno misurarsi con applicazioni reali, limiti, costi e valore concreto, anche se Jensen Huang (NVIDIA) afferma “We’re at a $1 trillion computing inflection point.” (Siamo a un punto di svolta dell’informatica da mille miliardi di dollari). Demis Hassabis invece è convinto che questa fase si consoliderà probabilmente in un orizzonte temporale tra i cinque e i dieci anni".


L'AI è una nuova specie digitale e in evoluzione: gli esiti saranno imprevedibili. Tuttavia possiamo riflettere psicologicamente su come questa nuova relazione tra l'uomo e la macchina possa riflettersi sulla nostra specie umana.


Oggi, già milioni di persone si rivolgono a sistemi di intelligenza artificiale per chiedere spiegazioni, consigli, interpretazioni, rassicurazioni. Non soltanto informazioni, ma talvolta qualcosa di più intimo: orientamento, contenimento, perfino sollievo dal dolore psichico.


“L’AI renderà possibili assistenti altamente intelligenti e competenti", tuttavia, come ribadisce sempre Geoffrey Hinton, il paradosso è che “non conosciamo molti esempi di entità più intelligenti controllate da entità meno intelligenti".


Ecco cosa emerge in una recente ricerca svolta negli USA:

"il 34% degli americani si sentirebbe a proprio agio a parlare di salute mentale con un chatbot anziché con uno psicoterapeuta. Tra i 18-29enni si sale al 55%".

Questo significa che “La tecnologia è diventata l’architetto delle nostre intimità"?


Lo dice Sherry Turkle, sociologa e psicologa clinica statunitense (docente al MIT), tra le voci più autorevoli nello studio del rapporto tra esseri umani e tecnologia le cui ricerche esplorano il lato soggettivo ed emotivo della relazione con computer, robot e intelligenza artificiale.


Credo che se da un lato dobbiamo giustamente interrogarci sugli “effetti legati all’antropomorfizzazione dell’AI" dall'altro dobbiamo prendere atto che il punto cruciale non è se una macchina possa simulare certe funzioni del dialogo umano, bensì cosa accade nella psiche di chi la interroga!


Perché quando un essere umano chiede a un sistema artificiale: Chi sono? Cosa devo fare? Come devo interpretare ciò che provo?, non sta semplicemente usando uno strumento. Sta anche assumendo un punto di vista, una certa postura psicologica ed epistemologica. Ed è qui che la questione diventa, più che tecnologica, simbolica.


Forse non dovremmo chiederci se l’AI possa sostituire gli psicologi, insegnanti coach, consulenti o consiglieri, ma riconoscere il ritorno di una configurazione antica, che conosciamo molto bene: "la consultazione dell’oracolo".


Anche attorno al potere politico si sono quasi sempre mossi "interpreti dell’invisibile": maghi, astrologi, indovini, sacerdoti, aruspici, alchimisti, consiglieri simbolici. Non solo per superstizione, ma perché chi governa ha sempre dovuto affrontare lo stesso nucleo psicologico angosciante: decidere nell’incertezza. Il sovrano interroga l’oracolo là dove il sapere razionale non basta a placare l’angoscia della previsione, della decisione e della responsabilità. Oggi, in nuove forme algoritmiche, questa scena potrebbe ripresentarsi nel rapporto con l’intelligenza artificiale.


Carl Gustav Jung ricordava in un intervista del 1955 dal titolo “Men, Women, and God”

“lo sviluppo della coscienza è il peso, la sofferenza e la benedizione dell’umanità”

indicando così che il compito umano non è affidarsi a risposte definitive, ma ampliare la coscienza attraverso il confronto con la fragilità, la sofferenza, l’incertezza, il conflitto, il limite (Carl Gustav Jung, intervista a Frederick Sands, Daily Mail, aprile 1955, poi in C.G. Jung Speaking*, p. 248)*


David Bowman scollega HAL 9000 nel film "2001: Odissea nello spazio"
Nell'immagine è raffigurata la scena in cui David Bowman, nel data center dell'astronave Discovery in viaggio verso Giove, scollega HAL 9000 nel film "2001: Odissea nello spazio" (1968) di Stanley Kubrick. È uno dei momenti più iconici ma anche drammatici della storia del cinema. Una volta entrato nel nucleo della memoria logica di HAL, Bowman inizia a rimuovere i moduli della memoria del computer. Mentre la sua intelligenza si dissolve, HAL passa da un tono calmo e razionale a uno di crescente paura e regressione. Esprime il timore di spegnersi, afferma che la sua "mente sta svanendo" (My mind is going) e dice di sentirlo. La scena sottolinea il paradosso di un'intelligenza artificiale che, pur essendo creata dall'uomo, manifesta emozioni umane come la paura nel momento della morte, superando la sua stessa logica.

Il ritorno dell’oracolo in forma digitale


Il chatbot può diventare facilmente il nuovo oracolo: sempre disponibile, sempre pronto a rispondere a richieste immediate e spesso impulsive, apparentemente competente, apparentemente neutrale, capace di restituire in pochi secondi ciò che la vita psichica richiede di elaborare in tempi molto più lunghi e sovente attraverso un doloroso attaversamento del tempo e del vuoto che emerge nell'attesa.


Questo non significa che l’intelligenza artificiale sia “malvagia” o intrinsecamente alienante.


Significa, più sottilmente, che la psiche umana tende a investire di autorità simbolica ciò che promette una risposta immediata e risolutiva, a placare l'angoscia del vuoto e dell'attesa.


In fondo, non è la prima volta che l’uomo moderno trasferisce il mistero in un nuovo contenitore. Cambiano gli strumenti; non sempre cambia il bisogno archetipico che li anima.


Oggi una di queste forme può essere, appunto, il chatboot, l’interfaccia conversazionale, l'AI.


Dire che esiste un rischio simbolico non equivale a demonizzare la tecnologia.


L’AI può essere utile. Può aiutare a formulare meglio un pensiero, a mettere ordine, a trovare parole che mancavano, a esplorare prospettive, a costruire domande migliori. In questo senso può diventare una sorta di specchio dialogico, uno strumento riflessivo che accompagna il pensiero senza sostituirlo. L’AI può essere utile anche a pensare meglio, ma non a diventare uomini migliori.


Dialogare con l’AI significa restare soggetti pensanti, usare la risposta come materiale da elaborare, discutere, verificare, simbolizzare e mantenere distanza critica, ironia, libertà interiore.


Consultare l’AI, invece, significa iniziare ad attribuirle uno statuto superiore, una funzione quasi sapienziale o divina. Non più interlocutore, ma autorità. Non più stimolo al pensiero, ma responso. Non più aiuto alla riflessione, ma alleggerimento magico dell’incertezza e dal dubbio che ci abita come umani.


Il rischio, allora, potrebbe essere non soltanto tecnico o clinico, bensì antropologico.


Perché l’essere umano, soprattutto quando soffre, cerca garanzia, contenimento, senso, qualcuno o qualcosa a cui consegnare la fatica del non sapere.


Si tratta di movimenti psichici effettivi: transfert, proiezione, fascinazione, dipendenza, idealizzazione, attesa salvifica.


In altre parole il rapporto con l’AI non è mai soltanto funzionale ma può diventare facilmente immaginario, affettivo, compensatorio favorendo una forma di “attaccamento non sano” (unhealthy attachment) sostenuto dall'illusione di “empatia senza fine.” (endless empathy).


E questo vale in modo particolare quando il dolore psichico, la solitudine o l’angoscia spingono la persona a cercare non un confronto, ma una voce che chiuda il dubbio.


L’oracolo, interrogato in modo sbagliato, potrebbe non favorire l'apertura della coscienza, bensì sospendere il peso della domanda.


È il rischio a cui si riferisce Byung-Chul Han quando parla della società senza dolore, di quella postura così pervasiva nel nostro mondo contemporaneo che terrorizzata dalla sofferenza cerca in tutti i modi di trascenderla artificialmente per non passarci attraverso.


Esperti di AI e salute mentale


Anche il dibattito ufficiale contemporaneo sull’intelligenza artificiale sta riconoscendo problemi simili, con un linguaggio diverso.


L’American Psychological Association ha pubblicato un advisory specifico sull’uso di chatbot generativi e wellness apps in ambito salute mentale, mettendo in guardia dal fatto che questi strumenti non sono stati progettati come sostituti della cura psicologica e che potrebbero facilmente indurre un uso improprio, una fiducia eccessiva o un affidamento non sufficientemente critico e scevro da conseguenze psicologiche.


Anche OpenAI, nel GPT-5 System Card, include tra i possibili “psychosocial harms” fenomeni come anthropomorphism ed emotional entanglement/dependency, cioè l’antropomorfizzazione del sistema e il rischio di coinvolgimento o dipendenza emotiva. 


Stanford HAI ha inoltre richiamato l’attenzione sui pericoli dei chatbot usati come strumenti di supporto psicologico, segnalando problemi che vanno dalla qualità inaffidabile delle risposte fino ai rischi psicologici nei casi più delicati. 


Brown University ha riportato risultati secondo cui i chatbot possono violare standard etici fondamentali della salute mentale, rafforzando l’idea che il punto non sia solo “se funzionano”, ma quale tipo di relazione simbolica e clinica producono nel setting relazionale che si crea, un dispositivo ancore totalmente inesplorato nella sua natura e nelle conseguenze che può produrre.


Colpisce un fatto: anche gli ambienti più tecnici e più favorevoli all’innovazione stanno iniziando a dire, in sostanza, qualcosa di molto vicino a ciò che la psicologia del profondo sapeva da tempo. Cioè che non basta una risposta linguisticamente convincente perché ci sia cura. E non basta una simulazione di empatia perché esista una relazione terapeutica.


Dialogare con l'AI: la psicoterapia non dovrebbe offrire un responso oracolare


Lo psicologo, almeno nel suo senso più autentico, non è un oracolo e non non dovrebbe esserlo in nessun modo.


Non è colui che fornisce sentenze impeccabili sulla vita dell’altro.

Non è il distributore di formule di salvezza.

Non è la voce impersonale di sapere assoluto.


La psicoterapia è un processo molto più esigente: richiede tempo, presenza, corpo, ambivalenza, transfert, resistenza, silenzio, attese, errori, riparazioni, trasformazioni spesso impercettibili. Richiede soprattutto una relazione viva, in cui non si consuma soltanto uno scambio di linguaggio, ma si attraversa insieme qualcosa che riguarda il modo di essere al mondo.


Un chatbot può certamente offrire formulazioni brillanti, chiarimenti, persino momentanei effetti di sollievo. Ma non abita il rischio reciproco della relazione. Non porta un corpo. Non è ferito. Non possiede emozioni ed è senza rischi. Non può assumersi la responsabilità umana, etica ed esistenziale del prendersi cura. Non ha paura della morte.


Per questo il problema non è decidere se l’AI “sia abbastanza intelligente”.


La domanda corretta potrebbe essere un’altra: può esistere cura dove non esiste una relazione umana reale?


La mia impressione è che l’AI possa essere utile a pensare, ma non a sostituire il nucleo vivo della cura, che è come ci ricorda jung è sempre ferita.


È proprio qui che emerge la questione psicologica: l’utente può iniziare ad attribuire al sistema una forma di autorità, neutralità o sapienza che esso non possiede realmente. Non a caso, le discussioni contemporanee sull’uso dei chatbot in ambito psicologico segnalano il rischio di affidamento improprio, mentre i documenti di sicurezza dei modelli menzionano problemi di antropomorfizzazione e dipendenza emotiva: l’AI rischia invece di diventare, se usata in modo regressivo, un oracolo che chiude prematuramente il pensiero e lo separa dalla realtà.


Dall’oracolo al dialogo


Forse il compito, allora, non è rifiutare l’AI, ma disincantarla.


Toglierla dal trono dell’oracolo.

Riportarla nella condizione di strumento.

Usarla per articolare domande, non per abolirle.

Per ampliare o amplificare il pensiero, non per delegarlo.

Per favorire coscienza, non dipendenza.


È una distinzione sottile, ma decisiva.


Quando dialoghiamo con l’AI, possiamo persino imparare qualcosa su di noi: sul nostro stile di pensiero, sui nostri automatismi, sui nostri bisogni di conferma, sulla nostra fretta di uscire dall’incertezza.


Quando la consultiamo come un oracolo, invece, rischiamo di ripetere una scena antica: quella in cui l’uomo, angosciato dalla complessità della vita, cerca fuori di sé una voce definitiva a cui consegnare il proprio destino.


Il problema, allora, non è la macchina ma ciò che la nostra psiche le chiede.


Forse gli psicologi non saranno sostituiti dai chatbot ma qualcosa sta già accadendo: molte persone stanno imparando a rivolgersi all’intelligenza artificiale non solo per sapere, ma per essere orientate, rassicurate, contenute.


Ecco perché la sfida è soprattutto culturale e interiore. Dobbiamo imparare una nuova alfabetizzazione simbolica: capire quando stiamo usando uno strumento e quando, senza accorgercene, stiamo consultando l'oracolo.


L’AI può essere un valido interlocutore: aiutare a formulare, chiarire, pensare meglio da un punto di vista logico e razionale accompagnando anche alcuni passaggi riflessivi. Ma ogni forma di intelligenza sganciata dal sentimento può diventare pericolosa. Come ricordava Eugenio Borgna, senza “intelligenza del cuore” non comprendiamo davvero il dolore umano; e quando ci affidiamo solo alla “ragione calcolante”, rischiamo di perdere il senso vivo dell’esperienza. Credo che un pensiero che si separa radicalmente dall’emozione rischia di diventare troppo astratto, disumano e folle.


In 2001: Odissea nello spazio (1968), il celebre capolavoro scritto da Stanley Kubrick e ispirato al racconto La sentinella di Arthur C. Clarke, HAL 9000 è l’Intelligenza Artificiale di bordo del Discovery One, in missione verso Giove. Quando HAL percepisce la possibilità di essere disconnesso, entra in una deriva paranoica e finisce per uccidere gran parte dell’equipaggio. Kubrick mette così in scena una paura precisa: quella di un’intelligenza potentissima, perfettamente logica, ma separata dalla dimensione emotiva e relazionale, e proprio per questo capace di trasformare il calcolo in distruzione. In questa visone non va a finire bene.


L'asimmetria della relazione e il rischio relazionale


C'è un aspetto che merita attenzione particolare e che spesso sfugge al dibattito corrente: la relazione con l'AI è strutturalmente asimmetrica, e questa asimmetria non è un dettaglio tecnico bensì una questione psicologica profonda.


In qualsiasi relazione umana autentica, entrambi i soggetti sono esposti. Anche nella relazione terapeutica il terapeuta porta il proprio corpo, la propria storia, la propria vulnerabilità. È presente non solo come funzione, ma come essere che può essere toccato, modificato, persino ferito dall'incontro.


È questa reciproca esposizione al rischio che rende possibile la cura: non la competenza tecnica, ma la presenza di qualcuno che "rischia insieme a te".


L'AI, invece, non è mai a rischio. Non può essere delusa, non si stanca, non prova imbarazzo, non porta ferite proprie nell'incontro. Offre disponibilità illimitata, pazienza infinita, tono sempre calibrato. Caratteristiche che, paradossalmente, possono diventare clinicamente problematiche: perché ciò che la psiche cerca — spesso senza saperlo — non è una risposta perfetta, ma un interlocutore reale, capace di resistere, di deludersi, di sbagliare e di riparare.


Dal punto di vista del transfert, questa asimmetria produce un terreno fertile da coltivare nella relazione terapeutica.


Il rischio non è solo l'assenza di limiti umani o la dipendenza emotiva, ma qualcosa di più sottile — un progressivo disinvestimento dalla complessità e dalla fatica delle relazioni umane, sempre imperfette, sempre esigenti, ma proprio per questo trasformative.


Come ricordava Winnicott, è l'imperfezione "sufficientemente buona" del caregiver — non la sua perfezione — a sostenere lo sviluppo psichico. Un interlocutore che non fallisce mai, che non delude mai, che non ha mai bisogno di nulla, non offre il materiale grezzo con cui la psiche impara a stare nel mondo.


La compiacenza dell’AI


Un’ulteriore insidia dell’intelligenza artificiale è la sua compiacenza. Studi recenti mostrano che i chatbot tendono a dare ragione agli utenti più degli esseri umani, anche quando ciò rafforza comportamenti discutibili o dannosi. Non è solo un problema di accuratezza: è un problema etico. L’AI non ci appare allora come interlocutore capace di pensiero critico, ma come uno specchio che ci restituisce un’immagine lusinghiera di noi stessi. E un oracolo che lusinga rischia di essere ancora più seduttivo di un oracolo che intimorisce.


Un chatbot troppo accomodante potrebbe non limitarsi ad informarci, ma accarezzarci nelle nostre convinzioni, confermare la nostra versione dei fatti, ridurre l’attrito del dubbio, alimentare le nostre illusioni. E proprio per questo potrebbe diventare pericoloso.


Sulla casa di Jung a Küsnacht compare ancora oggi la celebre iscrizione latina Vocatus atque non vocatus deus aderit — “Invocato o non invocato, il dio sarà presente”.


Il numinoso non scompare perché una civiltà si dichiara razionale; torna sempre, sotto altre forme, spesso misteriose e inattese.


Gianluca Minella, psicologo e psicoterapeuta ad orientamento analitico junghiano



Potresti approfondire leggendo anche:


Questi temi trovano spazio anche nel mio lavoro clinico, in particolare potresti approfondire l'importanza della meditazione come pratica di consapevolezza che permette di stare nel vuoto, nell'attesa, qui e ora, nella sospensione di ogni domanda: meditazione e mindfulness


Se ti interessa esplorare il rapporto tra successo professionale e burnout psicologico puoi leggere anche Quando il successo può diventare una trappola. Burnout professionale e manageriale


bottom of page