OpenAI ha introdotto l’Expert Council on Well-Being and AI (consiglio di esperti su benessere e intelligenza artificiale) con l’obiettivo di portare evidenze scientifiche all’interno del ciclo di sviluppo di ChatGPT e Sora. L’annuncio del 14 ottobre 2025 descrive un gruppo di otto studiosi con competenze in psicologia, psichiatria, human-computer interaction e salute digitale. Ne fanno parte David Bickham del Digital Wellness Lab del Boston Children’s Hospital e Harvard, Mathilde Cerioli di everyone.AI con formazione in neuroscienze cognitive, Munmun De Choudhury della Georgia Tech, Tracy Dennis-Tiwary della Hunter College e Arcade Therapeutics, Sara Johansen della Stanford University e fondatrice della Digital Mental Health Clinic, David Mohr della Northwestern University, Andrew K. Przybylski dell’Università di Oxford e Robert K. Ross, medico ed ex presidente di The California Endowment. La missione riguarda la qualità delle interazioni e la cura degli aspetti legati al benessere degli utenti, con attenzione anche alle fasce giovani. Il consiglio ha un ruolo consultivo stabile e affianca i team di prodotto con analisi, metriche e raccomandazioni operative su come i modelli dovrebbero comportarsi in situazioni delicate.
OpenAI ha spiegato che molti dei membri avevano già offerto contributi in forma informale durante la progettazione di funzioni come i controlli parentali e le comunicazioni ai genitori in presenza di possibili segnali di disagio negli adolescenti. Con la formalizzazione del consiglio, questi confronti sono diventati periodici e documentati. Il lavoro verte su criteri per definire interazioni sane, su come prevenire risposte inadeguate e su come spiegare le scelte del sistema agli utenti. Le decisioni finali restano interne all’azienda, mentre il consiglio fornisce pareri qualificati e propone verifiche metodiche prima del rilascio di nuove funzioni.
In parallelo, OpenAI sta collaborando con una sotto-rete del Global Physician Network che coinvolge figure cliniche di aree come psichiatria, psicologia e pediatria. L’obiettivo è testare i modelli su scenari realistici, raccogliere feedback strutturati e trasferire buone pratiche nel comportamento conversazionale di ChatGPT. Il post sul sito di OpenAI ha annunciato anche delle evoluzioni dei modelli, con aggiornamenti destinati a seguire le indicazioni emerse da queste revisioni e a rafforzare la coerenza tra obiettivi di benessere e funzionalità offerte agli utenti.
Il quadro che emerge è quello di un processo di sviluppo più aperto al confronto con la ricerca accademica e clinica. La presenza di competenze differenziate permette di affrontare casi d’uso concreti, come l’accompagnamento degli utenti più giovani, la gestione di conversazioni sensibili e la chiarezza delle interfacce di controllo. OpenAI ha indicato un percorso fatto di riunioni ricorrenti, affinamento dei criteri di valutazione e sperimentazioni in contesti reali, in modo da orientare la progettazione verso esiti utili nella vita quotidiana.
Inoltre Sam Altman ha pubblicato un post su X dove ha spiegato che ChatGPT è stato configurato con limiti severi quando le conversazioni toccano temi legati alla salute mentale, alla fragilità emotiva o a situazioni che potrebbero richiedere competenze professionali specifiche. Questa impostazione iniziale è stata adottata come misura di prudenza per evitare che il modello intervenisse in modo inappropriato su argomenti delicati. Altman ha chiarito che questa impostazione ha ridotto la libertà di utilizzo per una parte degli utenti che desiderava semplici conversazioni naturali o creative e non presentava esigenze legate alla salute mentale. L’azienda ha comunque scelto di mantenere questa linea cauta finché non fossero stati introdotti strumenti affidabili per gestire in modo sicuro le richieste sensibili e verificare eventuali segnali di rischio. Secondo Altman, tali mitigazioni e nuovi strumenti sono ora maturati e consentiranno di allentare le restrizioni nella maggior parte dei casi. Nelle prossime settimane arriverà una versione che consente personalità più vicine allo stile apprezzato in GPT-4o, su richiesta dell’utente: tono più umano, uso esteso di emoji, modalità amichevole. A dicembre, con l’adozione più ampia della verifica dell’età e limitazione dei contenuti per i minori e seguendo il principio “trattare gli adulti come adulti”, saranno consentiti ulteriori contenuti, incluso l’erotismo per utenti adulti verificati. L’idea centrale è separare le esperienze in base all’età e al consenso, ampliando le scelte degli adulti e mantenendo protezioni per i minori.
We made ChatGPT pretty restrictive to make sure we were being careful with mental health issues. We realize this made it less useful/enjoyable to many users who had no mental health problems, but given the seriousness of the issue we wanted to get this right.
— Sam Altman (@sama) October 14, 2025
Now that we have…

