OpenAI ha inaugurato DevDay 2025 a San Francisco con Sam Altman a guidare la presentazione di una serie di novità che introducono un’evoluzione importante per la piattaforma. Fin dalle prime parole, Altman ha posto l’accento su un obiettivo concreto: ridurre la complessità nella costruzione di prodotti basati sull’intelligenza artificiale, rendendo i passaggi tra idea, sviluppo e rilascio più rapidi e integrati. L’evento ha confermato la scala ormai raggiunta da OpenAI, che conta 4 milioni di sviluppatori, oltre 800 milioni di utenti settimanali di ChatGPT e più di 6 miliardi di token elaborati al minuto attraverso le API. Questi dati fotografano un ecosistema ormai radicato, dove la tecnologia è già parte dei processi produttivi di milioni di persone e organizzazioni. Altman ha sottolineato che l’obiettivo dell’azienda è creare modelli sempre più potenti e, al tempo stesso, offrire strumenti che rendano possibile costruire in modo più intuitivo, veloce e sicuro.
Uno dei punti centrali dell’annuncio è il nuovo Apps SDK, che consente di creare applicazioni eseguibili direttamente dentro ChatGPT. Con questa novità, ChatGPT diventa una piattaforma in grado di ospitare vere e proprie esperienze web, mantenendo però la continuità del dialogo con il modello. Lo strumento permette di collegare dati, attivare azioni e generare interfacce interattive in tempo reale. È basato sullo standard MCP e prevede un sistema di login integrato, una fase di revisione e una futura directory di app accessibile agli utenti. Tra le funzioni in sviluppo rientrano anche sistemi di pagamento diretti e un protocollo di commercio agentico che potrebbe introdurre nuove forme di monetizzazione. Nelle dimostrazioni dal vivo si sono viste applicazioni concrete: un’integrazione con Coursera capace di mostrare un video con funzioni picture-in-picture mentre ChatGPT spiega il contenuto del corso; un flusso di lavoro con Canva che trasforma un semplice testo in una presentazione completa; e una collaborazione con Zillow, dove l’utente può cercare abitazioni, filtrare risultati e ricevere suggerimenti direttamente nella chat. Tutti esempi che indicano una direzione chiara: ridurre i passaggi fra l’assistente e le attività digitali quotidiane.
Un secondo grande annuncio riguarda AgentKit, pensato per portare gli agenti dall’ambiente sperimentale alla produzione. La suite comprende diversi moduli: Agent Builder, che consente di creare graficamente flussi operativi basati sulla Responses API; ChatKit, che integra un componente di chat personalizzabile nei siti o nei prodotti; Evals for Agents, utile per valutare in modo quantitativo le decisioni e migliorare automaticamente i prompt; e un Connector Registry che permette di collegare in modo sicuro strumenti interni e servizi di terze parti. Durante la presentazione, Altman e il team hanno costruito dal vivo “Ask Froge”, un agente dedicato all’evento, completo di file di contesto, controlli di sicurezza e moderazione. Il sistema ha mostrato anche funzioni di mascheramento automatico dei dati sensibili e protezioni contro le risposte imprecise. In pochi minuti l’agente è stato pubblicato e reso operativo sul sito del DevDay, a dimostrazione della semplicità del processo.
Un altro pilastro della giornata è stato Codex, l’agente dedicato allo sviluppo software che esce ufficialmente dalla fase di anteprima per diventare disponibile in modo stabile e professionale. Il nuovo modello, chiamato GPT5-CODEX, è stato potenziato per migliorare la revisione del codice, la capacità di refactoring e la gestione di progetti estesi nel tempo. OpenAI ha riportato una crescita di dieci volte nel volume dei messaggi giornalieri inviati a Codex da agosto, con oltre 40 trilioni di token processati. Nei test interni, i team che lo utilizzano completano in media il 70% di pull request in più a settimana. Il modello è ora integrabile in Slack e dispone di un SDK che consente di personalizzare le interazioni all’interno dei flussi di lavoro aziendali. La dimostrazione pratica ha mostrato Codex controllare una telecamera Sony FR7, impostare un controller Xbox per gestire i movimenti, utilizzare la Realtime API per i comandi vocali e orchestrare un server MCP per regolare le luci dell’auditorium. Tutte le modifiche sono avvenute in diretta, confermando la capacità del sistema di mantenere il contesto e adattarsi rapidamente alle istruzioni dell’utente.
Non meno importanti sono gli aggiornamenti ai modelli principali. GPT-5 Pro arriva ora nell’API per gestire scenari che richiedono un alto grado di accuratezza e una maggiore profondità di ragionamento, con applicazioni già previste nei settori legale, sanitario e finanziario. Accanto a esso debutta GPT-Realtime-Mini, un modello vocale più leggero e molto più economico, con una riduzione dei costi di circa il 70%. Questa versione consente di implementare assistenti vocali e interfacce conversazionali a bassa latenza su larga scala. OpenAI ha anche annunciato l’anteprima di Sora 2, disponibile via API. Il nuovo sistema video introduce controlli dettagliati su stile e composizione, funzioni di espansione delle inquadrature, gestione diretta di formato e durata e soprattutto una componente audio sincronizzata con suoni realistici e ambientazioni coerenti. Durante le dimostrazioni sono stati mostrati concept video per e-commerce e clip cinematiche generate da riprese ordinarie, con risultati fluidi e coerenti con la richiesta iniziale. Secondo l’azienda, l’app Sora 2 è rimasta ai primi posti negli store digitali sin dal lancio, segno di un interesse crescente per i contenuti generati con questa tecnologia.

