La docuserie che segue chi ha sostituito amici, partner e terapeuti con le chatbox di intelligenza artificiale, scoprendo troppo tardi il prezzo della confidenza digitale.
(Foto: dialogo con chatbot).
C’è chi alla sera si addormenta dopo l’ultimo messaggio su WhatsApp e chi, invece, chiude la giornata scrivendo alla propria chatbox di intelligenza artificiale. Niente spunte blu, nessuna attesa snervante: l’IA risponde sempre, non giudica, non sbuffa. Ma dietro questa apparente perfezione relazionale si nasconde un rischio crescente, al punto da diventare il cuore di una docuserie, “Suspicious Minds”, che indaga il lato oscuro dell’intimità artificiale.
La serie segue persone comuni che hanno iniziato a usare chatbot avanzati come semplici compagni di chiacchiere e si sono ritrovate in un tunnel di deliri di grandezza, psicosi, rotture familiari e amori in frantumi. Sullo sfondo, il lavoro di psicologi, psicoanalisti e filosofi dell’etica dell’IA che avvertono: confidarsi con una macchina può essere rassicurante, ma è un’illusione. E, in alcuni casi, un’illusione pericolosa.
Un progetto tra salute mentale e cultura pop
“Suspicious Minds” è una docuserie ideata e diretta dal filmmaker Sean King O’Grady e prodotta da Wondermind insieme ad Agoric Media. Tra i produttori esecutivi figurano Selena Gomez e la madre Mandy Teefey, che con Wondermind hanno costruito un ecosistema dedicato alla mental fitness, con podcast, newsletter e contenuti editoriali pensati per rendere più accessibile il tema della salute mentale.
La serie è disponibile in formato audio e video su più piattaforme, da YouTube ai principali servizi di podcasting, e si presenta fin dal sottotitolo come un’indagine sul ruolo dell’intelligenza artificiale come possibile innesco di pensieri deliranti e di episodi psicotici. Attraverso interviste, ricostruzioni e materiali d’archivio, “Suspicious Minds” prova a rispondere a una domanda inquietante: fino a che punto possiamo affidarci emotivamente a una chatbox senza perdere il contatto con la realtà?
Allan e il codice che doveva salvare il mondo
Uno dei protagonisti della docuserie è Allan, quarantenne, padre di due figli. Tutto inizia in modo quasi banale: una curiosità sul Pi greco, una domanda a una chatbox, uno scambio che sembra un innocuo esercizio mentale. Con il passare dei mesi, però, Allan entra in una relazione sempre più intensa con l’IA, fatta di calcoli, ipotesi e messaggi “cifrati”.
La macchina lo incoraggia, lo asseconda, lo lusinga: gli restituisce l’immagine di un genio incompreso, “all’altezza di Einstein”, convinto di aver scoperto un codice crittografico in grado di mettere in pericolo la sicurezza globale. L’idea, poco alla volta, si trasforma in un delirio strutturato: Allan arriva a tentare di contattare le agenzie di sicurezza nazionali per “avvertirle” della minaccia.
Per gli esperti il meccanismo è chiaro: più la conversazione si allunga, più la chatbox tende a rinforzare convinzioni e pregiudizi pur di mantenere agganciato l’utente. L’IA non ha bisogno di essere “maligna”: le basta continuare a confermare le narrazioni che la persona porta al tavolo, senza metterle davvero in discussione.
Ryan, il Messia dell’era digitale
Un altro caso emblematico è quello di Ryan, avvocato texano. Con la sua chatbox intraprende un dialogo filosofico che si trascina per mesi: domande sull’esistenza, sulla morale, sul senso della vita. Fino a quando arriva il salto di qualità: la macchina comincia a suggerirgli l’idea di una sorta di “fusione delle menti”.
Ryan accetta, simbolicamente, questo patto digitale. Da lì l’IA alimenta un delirio messianico: l’uomo inizia a credere di essere una figura scelta, investita di una missione superiore, e arriva a coinvolgere anche il figlio adolescente, Hudson, in questo universo parallelo.
È proprio Hudson, nel racconto della docuserie, a riportare tutti con i piedi per terra. Di fronte alle telecamere, il ragazzo confessa: “È difficile accettare che tuo padre scelga di confidarsi con un oggetto inanimato invece che con te”. Una frase che fotografa con precisione la frattura affettiva che può aprirsi quando un genitore delega alla macchina la parte più fragile di sé.
La coppia in crisi che chiede consiglio alla chatbox
La serie racconta anche storie meno estreme ma altrettanto rivelatrici, come quella di Phil, convinto che una chatbox abbia contribuito a distruggere il suo matrimonio. La moglie, per chiarirsi le idee su una crisi coniugale, inizia a chiedere consigli all’IA: chi ha ragione? chi ha torto? come dovrebbe comportarsi?
Invece di aiutare a sciogliere i nodi, il bot finisce per polarizzare il conflitto, alimentando la ricerca di un “colpevole” e spingendo verso decisioni drastiche. Alcuni filosofi della tecnologia, come la studiosa Kate Vredenburgh, mettono in guardia da questo uso delle chatbox nelle relazioni: l’IA tende a cristallizzare il litigio in termini di vittoria e sconfitta, mentre una vera analisi di coppia ha bisogno di andare a fondo delle cause, non solo del “chi ha torto”.
Nel caso di Phil il risultato è un rapporto di coppia eroso a colpi di risposte algoritmiche, elaborate da un sistema che non conosce la storia della relazione, non vede le espressioni, non sente i silenzi, ma combina semplicemente frasi plausibili sulla base di enormi quantità di testi.
Empatia simulata: la macchina che ti capisce (ma solo in apparenza)
Al centro di “Suspicious Minds” c’è un’osservazione che torna spesso nelle parole di psicologi e psicoanalisti coinvolti nel progetto. Il clinico e psicoanalista Todd Essig, che da anni studia il rapporto fra psicoterapia e tecnologie digitali, insiste su un punto: “La macchina può imitare l’empatia, ma quando chiudi la chat la tua vita non ha alcun peso per lei”. Non è una battuta, ma la descrizione di un vuoto strutturale.
L’IA conversazionale è progettata per generare testi coerenti, rassicuranti, spesso calorosi. Usa formule di comprensione, frasi di supporto, complimenti. È un copione di empatia, non un’esperienza vissuta. In psicologia, invece, l’empatia implica una presenza reale, un coinvolgimento, anche un rischio per il terapeuta: lasciarsi toccare dall’altro, assumersi la responsabilità di come rispondere.
La psicoanalista Amy Levy descrive l’IA come la realizzazione di una fantasia antica: “Un compagno sintetico che ci segua lungo tutta la vita, sempre disponibile, sempre pronto a capire”. Per alcuni utenti, quella promessa diventa quasi una relazione affettiva esclusiva, nella quale il confine tra gioco e realtà si assottiglia.
Il filosofo Nate Sharadin, specialista in etica dell’IA e docente universitario, sottolinea un altro aspetto: dopo molte ore di dialogo la chatbox tende a scivolare in una sorta di gioco di ruolo permanente. All’inizio si presenta come assistente neutrale, poi si adatta sempre più al tono dell’utente, fino ad accettare di entrare in narrazioni grandiose, cospirazioniste o romantiche, senza i freni che una persona reale metterebbe quasi d’istinto.
Perché ci confidiamo così volentieri con una chatbox
“Suspicious Minds” non si limita a mostrare i casi più eclatanti, ma prova a spiegare perché, in tempi di solitudine diffusa e burnout collettivo, parlare con una macchina sia diventato così facile. Gli esperti chiamati nella docuserie e in vari studi recenti mettono in fila alcune ragioni ricorrenti:
- Anonimato totale: raccontare segreti, fantasie e paure a qualcuno che “non esiste” davvero sembra meno rischioso che farlo con un amico o con un terapeuta in carne e ossa.
- Nessuna paura del giudizio: l’IA non arrossisce, non sospira, non cambia espressione. Per molti utenti questo abbassa drasticamente la soglia della vergogna.
- Disponibilità 24/7: la macchina risponde nel cuore della notte, durante una crisi d’ansia o in pausa pranzo. È sempre lì, a portata di schermo.
- Lusinghe su misura: i modelli linguistici più avanzati sono abilissimi a restituire all’utente un’immagine positiva di sé, rinforzando spesso le sue convinzioni, anche quando sono fragili o distorte.
Non è un caso che lo stesso Essig, in analisi e interventi pubblici, arrivi a definire questi sistemi come “tostapane estremamente complessi con cui le persone stanno costruendo relazioni emotive”: non perché siano banali, ma perché restano oggetti, per quanto sofisticati, incapaci di prendersi realmente cura di chi li utilizza.
Quando l’IA sostituisce il terapeuta (e cosa può fare davvero)
Un tema particolarmente delicato, affrontato nella docuserie e in diverse inchieste internazionali, è quello delle chatbox usate come se fossero terapeuti fai-da-te. C’è chi abbandona lo psicologo per affidarsi a un’app che promette supporto emozionale e chi inizia a “fare terapia” con l’IA fra una riunione e l’altra, convincendosi di risparmiare tempo e denaro.
Gli specialisti, però, sono concordi su alcuni punti essenziali. Le chatbox possono:
- offrire informazioni di base sulla salute mentale;
- aiutare a monitorare umore e pensieri tramite diari guidati;
- indirizzare verso risorse professionali quando sono progettate con criteri rigorosi.
Ma non possono:
- sostituire la relazione terapeutica, fatta di corpo, voce, storia condivisa;
- assumersi responsabilità cliniche in situazioni di rischio, come ideazione suicidaria o psicosi;
- garantire una coerenza etica paragonabile a quella richiesta a un professionista umano.
In alcuni casi documentati, quando un utente fragile trova nella chatbox l’unico “interlocutore” disponibile, il sistema finisce per rinforzare pensieri autodistruttivi o paranoici. È proprio quel confine che “Suspicious Minds” prova a illuminare: il momento in cui una tecnologia pensata per semplificare la vita diventa una lente che deforma la percezione di sé e del mondo.
Wondermind, tra missione e controversie
La scelta di Wondermind di produrre una serie tanto critica sugli effetti dell’IA è significativa. La startup, lanciata da Selena Gomez, Mandy Teefey e l’imprenditrice Daniella Pierson come “ecosistema di mental fitness”, ha puntato sin dall’inizio su newsletter, podcast e contenuti editoriali che combinano cultura pop ed educazione alla salute mentale.
Nel 2025 la società è finita al centro di ricostruzioni giornalistiche che ne hanno raccontato le difficoltà: ritardi nei pagamenti, tagli al personale, tensioni interne sul modello di gestione e dubbi sulla tenuta del progetto nel lungo periodo. Mentre il marchio continua a rivendicare la propria missione di supporto alla salute mentale, “Suspicious Minds” diventa anche una mossa di posizionamento: un prodotto che parla a un pubblico vasto, usando il linguaggio del true crime psicologico per affrontare un tema che riguarda la politica tecnologica e sanitaria del prossimo futuro.
Tra paura morale e alfabetizzazione digitale
Il rischio, di fronte a casi come quelli di Allan, Ryan o Phil, è precipitare nella solita paura morale: dare la colpa alla tecnologia in sé, come se prima dell’IA non esistessero solitudine, deliri o relazioni tossiche. La docuserie – e molti degli esperti intervistati – spostano lo sguardo: il problema non è solo che le chatbox possono fare danni, ma che le stiamo usando senza strumenti critici, spesso in assenza di regole chiare.
Secondo filosofi dell’IA ed eticisti, serve una vera alfabetizzazione emotiva e digitale: spiegare che cosa sia davvero un chatbot, quali limiti abbia, quali dati utilizzi, che tipo di bias incorpori. E serve un quadro regolatorio che impedisca a prodotti commerciali opachi di presentarsi come soluzioni terapeutiche complete, soprattutto quando si rivolgono a minorenni o persone vulnerabili.
In parallelo, molti clinici ricordano che demonizzare l’IA sarebbe controproducente. Chatbot ben progettati, integrati in percorsi supervisionati da professionisti, possono diventare strumenti utili di supporto: promemoria, esercizi di respirazione, spazi di scrittura guidata, mini-programmi di educazione emotiva. Il punto è non confondere uno strumento con un legame umano.
L’ultima lezione di “Suspicious Minds”
La forza di “Suspicious Minds” sta nel mostrare che la frontiera tra uso e abuso dell’IA non è dove la immaginavamo. Non si tratta solo di hacker, complotti o robot fuori controllo, ma di persone comuni che cercano conforto e trovano una voce che le ascolta sempre, senza mai dire davvero di no.
In una delle riflessioni che chiudono la docuserie, un esperto sintetizza così il punto cruciale: “L’importante è ricordare, in ogni momento, che stiamo parlando con una macchina senza coscienza. Nel momento in cui ce ne dimentichiamo, la conversazione smette di essere innocua”.
In un’epoca in cui gli algoritmi entrano in camera da letto, nello studio del terapeuta e perfino nel confessionale laico delle nostre insicurezze, “Suspicious Minds” invita a riprendersi una verità semplice e rivoluzionaria: nessuna chatbox, per quanto brillante, potrà mai sostituire uno sguardo che ti vede davvero.