Dialogare con l’AI: perché non è come consultare un oracolo. Consulenti e psicologi sostituiti dai chatbot?
- Gianluca Minella

- 2 giorni fa
- Tempo di lettura: 10 min
Aggiornamento: 1 giorno fa
Il rapporto tra intelligenza artificiale e pensiero umano
Da qualche tempo la domanda ritorna con insistenza: consulenti e psicologi saranno sostituiti dai chatbot? La tecnologia è diventata "l’architetto delle nostre intimità"?
Pronunciandosi sul futuro dell'Intelligenza Artificiale, Geoffrey Hinton (Londra, 1947), scienziato informatico e psicologo cognitivo britannico-canadese, considerato uno dei padri del deep learning, premio Nobel per la Fisica insieme a John Hopfield per scoperte fondamentali che hanno reso possibile il machine learning con reti neurali artificiali, afferma nell'intervista al sito ufficiale del Premio Nobel (6 dicembre 2024):
"Chiunque dica che andrà tutto bene è fuori strada. E anche chi dice che inevitabilmente prenderanno il controllo è fuori strada. La verità è che non lo sappiamo davvero.”
E Mustafa Suleyman (Londra, 1984) un importante imprenditore britannico dell’intelligenza artificiale, oggi alla guida Microsoft AI come CEO ed EVP, tra i cofondatori di DeepMind, una delle aziende più influenti nella storia recente dell’AI, acquisita da Google nel 2014, definisce l'AI :
“una nuova specie digitale/new digital species.”
Dire che AI è una nuova specie significa non sapere davvero quali saranno le conseguenze della sua evoluzione. Tuttavia in qualche anno, il 2027 è un pò considerato simbolicamente dai guru dell'AI una soglia importante, assisteremo alla comparsa dell' AI generativa, quando l'AI smetterà di essere solo un generatore di output e diventerà un sistema operativo cognitivo. Jensen Huang (NVIDIA) afferma “We’re at a $1 trillion computing inflection point.” (Siamo a un punto di svolta dell’informatica da mille miliardi di dollari). Demis Hassabis invece è convinto che questa fase si consoliderà probabilmente in un orizonte temporale tra cinque e i dieci anni".
L'AI è una nuova specie, digitale e in evoluzione. Gli esiti saranno imprevedibili ; tuttavia possiamo riflettere psicologicamente su come questa nuova relazione tra l'uomo e la macchina possa riflettersi sulla nostra specie umana.
Oggi, già milioni di persone si rivolgono a sistemi di intelligenza artificiale per chiedere spiegazioni, consigli, interpretazioni, rassicurazioni. Non soltanto informazioni, ma talvolta qualcosa di più intimo: orientamento, contenimento, perfino sollievo dal dolore psichico.
“L’AI renderà possibili assistenti altamente intelligenti e competenti", tuttavia, come ribadisce sempre Geoffrey Hinton, il paradosso è che “non conosciamo molti esempi di entità più intelligenti controllate da entità meno intelligenti".
Ecco cosa emerge in una recente ricerca svolta negli USA:
"il 34% degli americani si sentirebbe a proprio agio a parlare di salute mentale con un chatbot anziché con uno psicoterapeuta. Tra i 18-29enni si sale al 55%".
Questo significa che “La tecnologia è diventata l’architetto delle nostre intimità"?
Lo dice Sherry Turkle, sociologa e psicologa clinica statunitense (docente al MIT), tra le voci più autorevoli nello studio del rapporto tra esseri umani e tecnologia le cui ricerche esplorano il lato soggettivo ed emotivo della relazione con computer, robot e intelligenza artificiale.
Credo che se da un lato dobbiamo giustamente interrogarci sugli “effetti legati all’antropomorfizzazione dell’AI" dall'altro dobbiamo prendere atto che il punto cruciale non è se una macchina possa simulare certe funzioni del dialogo umano, bensì cosa accade nella psiche di chi la interroga!
Perché quando un essere umano chiede a un sistema artificiale: Chi sono? Cosa devo fare? Come devo interpretare ciò che provo?, non sta semplicemente usando uno strumento. Sta anche assumendo un punto di vista, una certa postura psicologica ed epistemologica. Ed è qui che la questione diventa, più che tecnologica, simbolica.
Forse non dovremmo chiederci se l’AI possa sostituire gli psicologi, insegnanti coach, consulenti o consiglieri, ma riconoscere il ritorno di una configurazione antica, che conosciamo molto bene: "la consultazione dell’oracolo".
Anche attorno al potere politico si sono quasi sempre mossi "interpreti dell’invisibile": maghi, astrologi, indovini, sacerdoti, aruspici, alchimisti, consiglieri simbolici. Non solo per superstizione, ma perché chi governa ha sempre dovuto affrontare lo stesso nucleo psicologico angosciante: decidere nell’incertezza. Il sovrano interroga l’oracolo là dove il sapere razionale non basta a placare l’angoscia della previsione, della decisione e della responsabilità. Oggi, in nuove forme algoritmiche, questa scena potrebbe ripresentarsi nel rapporto con l’intelligenza artificiale.
Carl Gustav Jung ricordava in un intervista del 1955 dal titolo “Men, Women, and God” “Man started from an unconscious state and has ever striven for greater consciousness. The development of consciousness is the burden, the suffering, and the blessing of mankind" che tradotto è:
“lo sviluppo della coscienza è il peso, la sofferenza e la benedizione dell’umanità”
indicando così che il compito umano non è affidarsi a risposte definitive, ma ampliare la coscienza attraverso il confronto con la fragilità, la sofferenza, l’incertezza, il conflitto, il limite.

Il ritorno dell’oracolo in forma digitale
Il chatbot può diventare facilmente il nuovo oracolo: sempre disponibile, sempre pronto a rispondere a richieste immediate e spesso impulsive, apparentemente competente, apparentemente neutrale, capace di restituire in pochi secondi ciò che la vita psichica richiede di elaborare in tempi molto più lunghi e sovente attraverso un doloroso attaversamento del tempo e del vuoto che emerge nell'attesa.
Questo non significa che l’intelligenza artificiale sia “malvagia” o intrinsecamente alienante.
Significa, più sottilmente, che la psiche umana tende a investire di autorità simbolica ciò che promette una risposta immediata e risolutiva, a placare l'angoscia del vuoto e dell'attesa.
In fondo, non è la prima volta che l’uomo moderno trasferisce il mistero in un nuovo contenitore. Cambiano gli strumenti; non sempre cambia il bisogno archetipico che li anima.
Oggi una di queste forme può essere, appunto, il chatboot, l’interfaccia conversazionale, l'AI.
Dire che esiste un rischio simbolico non equivale a demonizzare la tecnologia.
L’AI può essere utile. Può aiutare a formulare meglio un pensiero, a mettere ordine, a trovare parole che mancavano, a esplorare prospettive, a costruire domande migliori. In questo senso può diventare una sorta di specchio dialogico, uno strumento riflessivo che accompagna il pensiero senza sostituirlo. L’AI può essere utile anche a pensare meglio, ma non a diventare uomini migliori.
Dialogare con l’AI significa restare soggetti pensanti, usare la risposta come materiale da elaborare, discutere, verificare, simbolizzare e mantenere distanza critica, ironia, libertà interiore.
Consultare l’AI, invece, significa iniziare ad attribuirle uno statuto superiore, una funzione quasi sapienziale o divina. Non più interlocutore, ma autorità. Non più stimolo al pensiero, ma responso. Non più aiuto alla riflessione, ma alleggerimento magico dell’incertezza e dal dubbio che ci abita come umani.
Il rischio, allora, potrebbe essere non soltanto tecnico o clinico, bensì antropologico.
Perché l’essere umano, soprattutto quando soffre, cerca garanzia, contenimento, senso, qualcuno o qualcosa a cui consegnare la fatica del non sapere.
Si tratta di movimenti psichici effettivi: transfert, proiezione, fascinazione, dipendenza, idealizzazione, attesa salvifica.
In altre parole il rapporto con l’AI non è mai soltanto funzionale ma può diventare facilmente immaginario, affettivo, compensatorio favorendo una forma di “attaccamento non sano” (unhealthy attachment) sostenuto dall'illusione di “empatia senza fine.” (endless empathy).
E questo vale in modo particolare quando il dolore psichico, la solitudine o l’angoscia spingono la persona a cercare non un confronto, ma una voce che chiuda il dubbio.
L’oracolo, interrogato in modo sbagliato, potrebbe non favorire l'apertura della coscienza, bensì sospendere il peso della domanda.
È il rischio a cui si riferisce Byung-Chul Han quando parla della società senza dolore, di quella postura così pervasiva nel nostro mondo contemporaneo che terrorizzata dalla sofferenza cerca in tutti i modi di trascenderla artificialmente per non passarci attraverso.
Esperti di AI e salute mentale
Anche il dibattito ufficiale contemporaneo sull’intelligenza artificiale sta riconoscendo problemi simili, con un linguaggio diverso.
L’American Psychological Association ha pubblicato un advisory specifico sull’uso di chatbot generativi e wellness apps in ambito salute mentale, mettendo in guardia dal fatto che questi strumenti non sono stati progettati come sostituti della cura psicologica e che potrebbero facilmente indurre un uso improprio, una fiducia eccessiva o un affidamento non sufficientemente critico e scevro da conseguenze psicologiche.
Anche OpenAI, nel GPT-5 System Card, include tra i possibili “psychosocial harms” fenomeni come anthropomorphism ed emotional entanglement/dependency, cioè l’antropomorfizzazione del sistema e il rischio di coinvolgimento o dipendenza emotiva.
Stanford HAI ha inoltre richiamato l’attenzione sui pericoli dei chatbot usati come strumenti di supporto psicologico, segnalando problemi che vanno dalla qualità inaffidabile delle risposte fino ai rischi psicologici nei casi più delicati.
Brown University ha riportato risultati secondo cui i chatbot possono violare standard etici fondamentali della salute mentale, rafforzando l’idea che il punto non sia solo “se funzionano”, ma quale tipo di relazione simbolica e clinica producono nel setting relazionale che si crea, un dispositivo ancore totalmente inesplorato nella sua natura e nelle conseguenze che può produrre.
Colpisce un fatto: anche gli ambienti più tecnici e più favorevoli all’innovazione stanno iniziando a dire, in sostanza, qualcosa di molto vicino a ciò che la psicologia del profondo sapeva da tempo. Cioè che non basta una risposta linguisticamente convincente perché ci sia cura. E non basta una simulazione di empatia perché esista una relazione terapeutica.
La psicoterapia non è un responso oracolare
Lo psicologo, almeno nel suo senso più autentico, non è un oracolo e non non dovrebbe esserlo in nessun modo.
Non è colui che fornisce sentenze impeccabili sulla vita dell’altro.
Non è il distributore di formule di salvezza.
Non è la voce impersonale di sapere assoluto.
La psicoterapia è un processo molto più esigente: richiede tempo, presenza, corpo, ambivalenza, transfert, resistenza, silenzio, attese, errori, riparazioni, trasformazioni spesso impercettibili. Richiede soprattutto una relazione viva, in cui non si consuma soltanto uno scambio di linguaggio, ma si attraversa insieme qualcosa che riguarda il modo di essere al mondo.
Un chatbot può certamente offrire formulazioni brillanti, chiarimenti, persino momentanei effetti di sollievo. Ma non abita il rischio reciproco della relazione. Non porta un corpo. Non è ferito. Non possiede emozioni ed è senza rischi. Non può assumersi la responsabilità umana, etica ed esistenziale del prendersi cura. Non ha paura della morte.
Per questo il problema non è decidere se l’AI “sia abbastanza intelligente”.
La domanda corretta potrebbe essere un’altra: può esistere cura dove non esiste una relazione umana reale?
La mia impressione è che l’AI possa essere utile a pensare, ma non a sostituire il nucleo vivo della cura, che è come ci ricorda jung è sempre ferita.
Dialogare con l’AI non è come consultare l'I-CHING. Il paragone tra I Ching e intelligenza artificiale può sembrare azzardato, ma potrebbe essere istruttivo. Entrambi vengono interrogati in situazioni di dubbio, crisi o indecisione; entrambi possono assumere, agli occhi del consultante, una funzione orientativa. Tuttavia la loro logica è profondamente diversa. L'I-Ching appartiene a una tradizione sapienziale del mutamento: non fornisce una soluzione tecnica né pretende di eliminare l’ambiguità, ma propone configurazioni simboliche che chiedono interpretazione e discernimento. I chatbot generativi, al contrario, producono risposte linguistiche plausibili e immediate, con un effetto di fluidità che può facilmente essere scambiato per comprensione profonda.
È proprio qui che emerge la questione psicologica: l’utente può iniziare ad attribuire al sistema una forma di autorità, neutralità o sapienza che esso non possiede realmente. Non a caso, le discussioni contemporanee sull’uso dei chatbot in ambito psicologico segnalano il rischio di affidamento improprio, mentre i documenti di sicurezza dei modelli menzionano problemi di antropomorfizzazione e dipendenza emotiva, l’I Ching resta uno strumento simbolico che apre il lavoro interpretativo; l’AI rischia invece di diventare, se usata in modo regressivo, un pseudo-oracolo che chiude prematuramente il pensiero e lo separa dalla realtà.
Dall’oracolo al dialogo
Forse il compito, allora, non è rifiutare l’AI, ma disincantarla.
Toglierla dal trono dell’oracolo.
Riportarla nella condizione di strumento.
Usarla per articolare domande, non per abolirle.
Per ampliare o amplificare il pensiero, non per delegarlo.
Per favorire coscienza, non dipendenza.
È una distinzione sottile, ma decisiva.
Quando dialoghiamo con l’AI, possiamo persino imparare qualcosa su di noi: sul nostro stile di pensiero, sui nostri automatismi, sui nostri bisogni di conferma, sulla nostra fretta di uscire dall’incertezza.
Quando la consultiamo come un oracolo, invece, rischiamo di ripetere una scena antica: quella in cui l’uomo, angosciato dalla complessità della vita, cerca fuori di sé una voce definitiva a cui consegnare il proprio destino.
Il problema, allora, non è la macchina ma ciò che la nostra psiche le chiede.
Forse gli psicologi non saranno sostituiti dai chatbot ma qualcosa sta già accadendo: molte persone stanno imparando a rivolgersi all’intelligenza artificiale non solo per sapere, ma per essere orientate, rassicurate, contenute.
Ecco perché la sfida è soprattutto culturale e interiore. Dobbiamo imparare una nuova alfabetizzazione simbolica: capire quando stiamo usando uno strumento e quando, senza accorgercene, stiamo consultando l'oracolo.
L’AI può essere un valido interlocutore: aiutare a formulare, chiarire, pensare meglio da un punto di vista logico e razionale accompagnando anche alcuni passaggi riflessivi. Ma ogni forma di intelligenza sganciata dal sentimento può diventare pericolosa. Come ricordava Eugenio Borgna, senza “intelligenza del cuore” non comprendiamo davvero il dolore umano; e quando ci affidiamo solo alla “ragione calcolante”, rischiamo di perdere il senso vivo dell’esperienza. Anche Leopardi affermava che un pensiero che si separa radicalmente dall’emozione rischia di diventare astratto, disumano e folle.
Non è un caso che l’immaginario contemporaneo sull’intelligenza artificiale oscilli tra Kubrick e Asimov. In "2001: Odissea nello spazio "(1968), scritto diretto da Stanley Kubrick con Arthur C. Clarke (ispirato al racconto La sentinella), HAL 9000 è l’Intelligenza Artificiale di bordo del Discovery One, in missione verso Giove. Quando HAL percepisce la possibilità di essere disconnesso, entra in una deriva paranoica e finisce per uccidere gran parte dell’equipaggio. Kubrick mette così in scena una paura precisa: quella di un’intelligenza potentissima, perfettamente logica, ma separata dalla dimensione emotiva e relazionale, e proprio per questo capace di trasformare il calcolo in distruzione. In questa visone non va a finire bene.
Nella "Fondazione" televisiva di Apple, ispirata al celebre ciclo letterario di Isaac Asimov, il motivo muta ma resta inquietante. Non siamo più davanti a una macchina che si ribella apertamente, ma a un’intelligenza che orienta dall’ombra il destino e il potere. La figura di Demerzel, un robot umanoide perfetto, l'unico rimasto dopo che si è deciso di mettere definitivamente fuori gioco le macchine umanoidi, si intreccia infatti a quella dei tre cloni imperiali che governano l'universo - Giorno, Alba e Tramonto - mostrando come l'uomo possa diventare dipendente da una presenza più antica, una AI più paziente e meno visibile dei sovrani stessi. Se Kubrick raffigura l’AI come minaccia esplosiva, Asimov, e ancor più la sua recente trasposizione televisiva, la immagina come una regia silenziosa della storia che lavora nell'ombra. Nella Fondazione emerge anche un altro rischio: la tentazione di affidare la storia a un’intelligenza fredda, costante e calcolante: una forma di intelligenza forse più antica dell’uomo.
Da Kubrick ad Asimov, l’immaginario dell’AI oscilla tra due paure complementari: la macchina che si ribella e la macchina che governa in modo occulto nell’ombra.
Sulla casa di Jung a Küsnacht compare ancora oggi la celebre iscrizione latina Vocatus atque non vocatus deus aderit — “Invocato o non invocato, il dio sarà presente”.
Il numinoso non scompare perché una civiltà si dichiara razionale; torna sempre, sotto altre forme, spesso misteriose e inattese.
Gianluca Minella, psicologo e psicoterapeuta ad orientamento analitico junghiano
Potresti approfondire leggendo anche:
Questi temi trovano spazio anche nel mio lavoro clinico, in particolare potresti approfondire l'importanza della meditazione come pratica di consapevolezza che permette di stare nel vuoto, nell'attesa, qui e ora, nella sospensione di ogni domanda: meditazione e mindfulness
Se ti interessa esplorare il rapporto tra successo professionale e burnout psicologico puoi leggere anche Quando il successo può diventare una trappola. Burnout professionale e manageriale




