Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

OpenAI ha diffuso un lungo aggiornamento sul modo in cui ChatGPT viene utilizzato in situazioni delicate, soprattutto quando gli utenti si trovano in momenti di forte disagio emotivo o mentale. Con la diffusione globale del servizio, infatti, non è più usato soltanto per scrivere, programmare o cercare informazioni, ma anche per chiedere consigli di vita, sostegno personale e perfino aiuto durante crisi acute. L’azienda riconosce il peso di questa responsabilità e ha spiegato quali misure sono già operative e quali saranno introdotte nei prossimi mesi.

ChatGPT non è stato progettato per trattenere l’attenzione con clic o tempo trascorso sulla piattaforma, ma per essere utile nel modo più concreto possibile. Quando un utente manifesta vulnerabilità o rischi per la propria salute, il sistema è stato addestrato a riconoscere i segnali e a rispondere con linguaggio empatico, evitando in ogni caso di fornire istruzioni legate all’autolesionismo. In queste circostanze ChatGPT cerca di indirizzare le persone verso risorse reali: negli Stati Uniti suggerisce il numero 988, nel Regno Unito invita a contattare i Samaritans, mentre nel resto del mondo propone il portale findahelpline.com. Durante conversazioni particolarmente lunghe, inoltre, il modello invita a fare pause, mentre in caso di minacce di danno verso altre persone le conversazioni vengono inoltrate a un team umano autorizzato ad agire, arrivando se necessario a informare le autorità. Per gli episodi di autolesionismo, invece, non vengono coinvolte forze dell’ordine per tutelare la privacy degli utenti.

Con il lancio di GPT-5 le capacità di gestione delle emergenze mentali hanno fatto un salto di qualità, con un miglioramento superiore al 25 per cento rispetto alla versione GPT-4o. Questo grazie a un nuovo metodo di addestramento, chiamato “safe completions”, che insegna al modello a fornire risposte il più possibile utili senza superare i limiti di sicurezza. Nonostante ciò, OpenAI riconosce che esistono ancora punti critici: le salvaguardie funzionano bene nelle conversazioni brevi, ma tendono a indebolirsi quando gli scambi si prolungano per molto tempo, portando talvolta il modello a offrire risposte che contraddicono le regole iniziali. Sono stati riscontrati anche casi in cui contenuti che avrebbero dovuto essere bloccati non lo sono stati, a causa di classificazioni errate. L’azienda assicura che la priorità assoluta resta quella di non peggiorare mai la situazione di chi si trova già in difficoltà.

Per il futuro, OpenAI prevede di ampliare gli interventi a forme di disagio diverse dall’autolesionismo, come gli stati di mania o la perdita di sonno che possono indurre comportamenti pericolosi. Sta lavorando per rendere più facile il collegamento diretto con i servizi di emergenza e con professionisti qualificati, estendendo la localizzazione delle risorse a nuovi paesi e introducendo un accesso semplificato con un solo clic. È in valutazione anche la possibilità di mettere gli utenti in contatto con terapeuti certificati prima che una crisi diventi acuta, e di integrare funzioni che consentano di raggiungere rapidamente contatti fidati, familiari o amici, con messaggi preimpostati che facilitino la richiesta di aiuto. Particolare attenzione sarà dedicata agli utenti più giovani, con protezioni rafforzate sui contenuti sensibili, sistemi di controllo parentale e l’eventualità di stabilire contatti di emergenza designati con il consenso dei genitori.

OpenAI conclude sottolineando di essere consapevole che le salvaguardie funzionano solo se ogni elemento della catena è efficace. Per questo continuerà a collaborare con medici ed esperti di salute mentale, con l’obiettivo di migliorare costantemente ChatGPT e garantire che la tecnologia diventi un sostegno sicuro e affidabile per le persone nei momenti di maggiore vulnerabilità.