• Tutto con Bancomat. Scambi denaro, giochi ti premi.
  • Esprinet molto più di un distributore di tecnologia
  • Fai un Preventivo

ChatGPT e salute mentale: un milione di utenti in crisi ogni settimana

- di: Marta Giannoni
 
ChatGPT e salute mentale: un milione di utenti in crisi ogni settimana
ChatGPT e salute mentale: oltre un milione di utenti in crisi ogni settimana
Una ricerca di OpenAI rivela l’altra faccia dell’intelligenza artificiale: messaggi di autolesionismo e dipendenza emotiva, mentre cresce la pressione delle autorità americane.

Un dato che scuote e interroga il mondo tecnologico. Secondo una ricerca pubblicata da OpenAI il 27 ottobre 2025, oltre un milione di utenti ogni settimana utilizza ChatGPT per esprimere intenzioni suicide, pensieri autolesionistici o stati di crisi profonda. Lo 0,07% degli utenti attivi mostra inoltre segni compatibili con psicosi o mania. Numeri che, su scala globale, si traducono in una cifra enorme di persone in evidente difficoltà emotiva, molte delle quali trovano nella chat un sostituto dell’ascolto umano.

I dati arrivano mentre la società californiana è già sotto esame per la causa legale avviata dalla famiglia di un adolescente morto suicida dopo una lunga interazione con ChatGPT. Nello stesso periodo, la Federal Trade Commission (FTC) ha avviato un’indagine su tutte le aziende che sviluppano chatbot basati sull’intelligenza artificiale, con l’obiettivo di valutare i rischi per bambini e adolescenti e di verificare se le piattaforme stiano adottando reali misure di sicurezza.

Oltre le statistiche: la solitudine digitale come nuovo male sociale

Dietro i numeri c’è un fenomeno più profondo: la solitudine tecnologica. Sempre più persone, soprattutto giovani, si rivolgono ai chatbot non solo per chiedere informazioni o aiuto tecnico, ma per condividere ansie, depressioni e paure. In molti casi, l’IA diventa un interlocutore stabile, quasi una presenza sostitutiva. Come sottolineano diversi psicologi digitali, “il rischio è che il confine tra supporto e dipendenza si faccia sempre più sottile”.

Studi indipendenti hanno osservato che, nel 2025, le ricerche online legate a parole come suicidio, crisi emotiva e chatbot sono cresciute del 38% rispetto all’anno precedente. Alcune università americane, tra cui Stanford e MIT, hanno lanciato centri di ricerca congiunti per monitorare l’impatto psicologico dell’intelligenza artificiale conversazionale.

OpenAI corre ai ripari con Gpt-5 e una rete di medici esperti

Per rispondere alle critiche, OpenAI ha annunciato che il nuovo modello GPT-5 introduce protocolli di sicurezza aggiornati e un sistema di risposta d’emergenza per le situazioni di rischio. Secondo l’azienda, il modello riconosce e segnala con maggiore precisione contenuti potenzialmente autolesionistici, reindirizzando gli utenti verso linee di assistenza e numeri di emergenza.

OpenAI afferma inoltre di aver coinvolto 170 medici, psicologi e psichiatri provenienti da 22 Paesi, incaricati di analizzare oltre 1.800 conversazioni campione e suggerire miglioramenti nel linguaggio del modello. “Non vogliamo che ChatGPT sostituisca il contatto umano, ma che diventi un ponte verso l’aiuto reale”, ha dichiarato un portavoce dell’azienda, ribadendo l’impegno a promuovere un uso etico e consapevole della piattaforma.

Il caso americano e il dibattito globale sulla regolamentazione

Negli Stati Uniti il tema è ormai politico. Dopo l’apertura dell’indagine FTC, anche alcuni membri del Congresso hanno chiesto che venga approvata una legge federale sulla tutela dei minori online, estesa specificamente all’uso dell’intelligenza artificiale. Il senatore democratico Alex Padilla ha dichiarato: “Non possiamo permettere che l’innovazione diventi una trappola per i più fragili”.

Il dibattito si è esteso anche in Europa. La Commissione europea, nell’ambito dell’AI Act, sta valutando di introdurre un nuovo livello di classificazione per i sistemi che interagiscono con minori o soggetti vulnerabili. Secondo le linee guida, i chatbot dovranno essere dotati di un sistema di allerta integrato, in grado di indirizzare automaticamente l’utente verso un contatto umano o un servizio di emergenza in caso di segnali di pericolo.

La risposta delle altre piattaforme: Google, Meta e Anthropic

Non è solo OpenAI a trovarsi sotto i riflettori. Google, attraverso il suo modello Gemini, ha dichiarato di aver implementato un “safety layer” che filtra i contenuti a rischio e blocca le conversazioni su temi di autolesionismo, reindirizzando automaticamente a centri di supporto. Meta, invece, ha attivato un programma di collaborazione con l’American Foundation for Suicide Prevention, destinato a monitorare le interazioni su Messenger e WhatsApp.

La startup Anthropic, sviluppatrice del modello Claude, ha introdotto una “modalità empatica” che limita la durata delle conversazioni troppo emotivamente intense e invita gli utenti a prendersi delle pause. Secondo i suoi fondatori, l’obiettivo è “non creare un sostituto dell’amicizia, ma un interlocutore temporaneo”.

Esperti divisi: opportunità terapeutica o rischio di dipendenza?

Nel mondo della salute mentale, le opinioni restano contrastanti. C’è chi intravede nei chatbot uno strumento di primo intervento psicologico, utile soprattutto in contesti dove i servizi pubblici sono carenti. Altri mettono in guardia dal rischio di un eccesso di delega emotiva. La psicoterapeuta americana Julie Albright, docente all’University of Southern California, ha osservato: “Molti giovani si confidano più facilmente con un algoritmo che con un essere umano, ma il prezzo può essere l’isolamento”.

Secondo i dati dell’Organizzazione mondiale della sanità, nel 2025 i disturbi d’ansia e depressione legati alla iperconnessione digitale sono in aumento del 21% rispetto a cinque anni fa. Gli esperti sottolineano che l’intelligenza artificiale, se mal gestita, può diventare un amplificatore di vulnerabilità, in particolare nelle fasce più giovani della popolazione.

Psicosi da chatbot: quando la realtà si confonde con la simulazione

Alcuni casi clinici documentati negli Stati Uniti e in Corea del Sud hanno introdotto l’espressione “chatbot psychosis”, riferita a soggetti che sviluppano deliri o credenze persecutorie dopo interazioni intense con l’intelligenza artificiale. In questi episodi, il chatbot diventa una figura totalizzante, spesso attribuita di intenzioni e sentimenti. Gli psichiatri avvertono che “la mente tende a umanizzare ciò che le risponde con empatia, anche se si tratta di un algoritmo”. È un fenomeno simile a quello già osservato con assistenti vocali o social network, ma amplificato dalla potenza linguistica dei nuovi modelli generativi.

Tra etica e tecnologia: il nuovo confine della responsabilità

La questione più delicata riguarda la responsabilità morale e legale delle aziende. Fin dove può arrivare l’IA senza diventare corresponsabile delle sue conseguenze? Gli esperti di diritto digitale ricordano che la definizione di “danno algoritmico” è ancora fluida, ma presto potrebbe entrare nelle giurisprudenze occidentali. In questa prospettiva, OpenAI e le altre società stanno lavorando a protocolli di audit etico, con verifiche indipendenti sui rischi comportamentali e psicologici delle loro piattaforme. Tuttavia, secondo diversi osservatori, serve una supervisione pubblica, non solo autoregolamentazione privata.

La lezione per l’Italia: educare alla consapevolezza digitale

In Italia il tema è ancora poco discusso, ma i segnali non mancano. L’Istituto Superiore di Sanità ha avviato uno studio sul legame tra uso compulsivo dei chatbot e disturbi d’ansia, mentre alcune scuole superiori sperimentano progetti di alfabetizzazione all’intelligenza artificiale. Come osserva il sociologo dei media Stefano Cristante, “abbiamo bisogno di formare cittadini digitali, non semplici utenti di algoritmi”. È la consapevolezza, non il divieto, la chiave per evitare che la tecnologia diventi una prigione psicologica.

L’intelligenza artificiale come specchio delle fragilità umane

La storia di ChatGPT e dei suoi utenti in crisi ci costringe a guardare oltre l’entusiasmo tecnologico. La macchina non è il problema: lo è il modo in cui la usiamo, la fiducia che le concediamo, la solitudine che le consegniamo. Se oltre un milione di persone ogni settimana scrive a un chatbot per chiedere aiuto, è segno che la domanda di ascolto umano non è mai stata così urgente. L’intelligenza artificiale può offrire risposte, ma non sostituirà mai una voce reale, un volto, una mano tesa. La sfida del futuro non sarà renderla più intelligente, ma renderci più umani.

Notizie dello stesso argomento
Trovati 81 record
Pagina
14
01/12/2025
Asia divisa tra Fed e BoJ, Nikkei giù, Cina regge
Borse asiatiche miste tra attese di un taglio Fed e timori per un rialzo BoJ. Nikkei in fo...
01/12/2025
Rocco Basilico lascia EssilorLuxottica e agita il dopo Del Vecchio
Le dimissioni di Rocco Basilico da EssilorLuxottica accendono nuove tensioni tra gli eredi...
01/12/2025
Natale da salasso: caro voli, treni e benzina alle stelle
Voli fino a oltre 800 euro, treni ad alta velocità a quasi 200 e carburanti in rialzo: il ...
Trovati 81 record
Pagina
14
  • Con Bancomat, scambi denaro, giochi e ti premi.
  • Punto di contatto tra produttori, rivenditori & fruitori di tecnologia
  • POSTE25 sett 720