Sam Altman ha recentemente condiviso una riflessione su X che ha acceso un ampio dibattito sul lancio di GPT-5 e sul rapporto profondo che molti utenti sviluppano con i modelli di intelligenza artificiale. Il testo che segue, riportato integralmente, offre un’idea chiara della sua visione e delle considerazioni che animano OpenAI in questa fase di transizione.
Seguendo il lancio di GPT-5, avrete forse notato il forte legame che alcune persone instaurano con specifici modelli di intelligenza artificiale. È un attaccamento diverso e più intenso rispetto a quello verso le tecnologie del passato. Per questo, interrompere bruscamente il supporto a modelli precedenti, integrati nei flussi di lavoro degli utenti, si è rivelato un errore.
Osserviamo questo fenomeno da circa un anno, ma non ha ancora ricevuto ampia attenzione pubblica, salvo l’episodio legato all’aggiornamento di GPT-4o, percepito come eccessivamente compiacente.
(Queste considerazioni sono personali e non riflettono una posizione ufficiale di OpenAI.)
In passato, le persone hanno usato tecnologie, inclusa l’intelligenza artificiale, anche in modi autodistruttivi. Se un utente si trova in uno stato mentale fragile e incline a deliri, non vogliamo che l’AI rafforzi questa condizione. La maggior parte sa distinguere tra realtà e finzione o gioco di ruolo, ma una piccola percentuale no. La libertà dell’utente è un principio fondamentale, ma sentiamo la responsabilità di introdurre nuove tecnologie tenendo conto dei rischi che comportano.
Incoraggiare un’illusione in chi fatica a distinguere tra realtà e finzione è un caso estremo, con scelte abbastanza evidenti. Le situazioni più complesse, però, sono quelle sottili. Ci saranno molti casi limite e, in generale, seguiremo il principio di “trattare gli adulti come adulti”, che a volte implica opporsi a certe richieste per garantire che l’utente ottenga davvero ciò che desidera.
Molti utilizzano ChatGPT come una sorta di terapeuta o coach di vita, anche senza definirlo così. Questo può essere molto positivo: già oggi molte persone ne traggono beneficio concreto.
Se gli utenti ricevono buoni consigli, avanzano verso i loro obiettivi e vedono aumentare la propria soddisfazione di vita, saremo orgogliosi di aver creato qualcosa di utile, anche in caso di uso frequente. Se invece il rapporto con ChatGPT li fa sentire meglio solo nell’immediato, ma li allontana dal benessere a lungo termine (secondo la loro definizione), è un problema. Lo è anche se un utente vorrebbe ridurne l’uso ma non riesce a farlo.
Posso immaginare un futuro in cui molte persone si affidano ai consigli di ChatGPT per decisioni cruciali. Potrebbe essere positivo, ma suscita anche perplessità. È probabile che accada e, presto, miliardi di persone converseranno con un’AI in questo modo. Sarà quindi necessario trovare — come società e come OpenAI — il modo di rendere questo un beneficio netto.
Oggi abbiamo più possibilità di riuscirci rispetto al passato, grazie a strumenti migliori. Possiamo dialogare con gli utenti per capire i loro progressi sugli obiettivi a breve e lungo termine, spiegare questioni complesse ai modelli e molto altro.
Librologica aveva previsto che l’arrivo del nuovo modello, insieme all’annunciata rimozione del selettore, avrebbe inciso in modo rilevante su determinati flussi di lavoro. Condividiamo e riteniamo corrette le preoccupazioni di Altman riguardo a una fascia di utenti più fragili, consapevoli che per loro il rapporto con l’AI possa assumere un peso particolare. Siamo altresì consapevoli che molti considerino gli assistenti di intelligenza artificiale come veri e propri colleghi, e che possa svilupparsi una certa affezione. La nostra linea editoriale, però, è ferma: seguire con decisione l’evoluzione dell’AI, guardando al futuro e non voltandosi indietro, in particolare verso un’editoria non digitale da anni in una crisi irreversibile. Pur comprendendo le difficoltà e le preoccupazioni di OpenAI, riteniamo che GPT-5 sia un chiaro passo in avanti verso il futuro e l’AGI, mentre GPT-4o appartiene ormai al passato.

