Il podcast ruota attorno a tre interrogativi fondamentali: perché il successo di ChatGPT colse di sorpresa persino i suoi creatori? Che cosa significa, in termini concreti, “ragionare” per un sistema di intelligenza artificiale? E quale futuro si prospetta per la programmazione agentica e per gli assistenti capaci di comprendere testi, immagini, suoni e video? A esplorare queste domande sono Nick Turley, Head of ChatGPT, e Mark Chen, Chief Research Officer di OpenAI, in una conversazione condotta da Andrew Mayne che offre uno sguardo approfondito su come è nato, cresciuto e si è trasformato il prodotto più noto di OpenAI.
Nelle ore immediatamente precedenti al lancio pubblico, il team decise di cambiare in extremis il nome del prodotto: da “Chat with GPT-3.5” a un più semplice, diretto ed evocativo “ChatGPT”. Nessuno si aspettava che il nuovo strumento, reso disponibile in modo gratuito, avrebbe avuto un impatto tanto immediato. Già nel primo giorno, i grafici di utilizzo sembravano anomali, come se ci fosse un errore nei sistemi di monitoraggio. Entro quattro giorni, tuttavia, diventò evidente che si stava verificando un’esplosione di interesse reale. L’infrastruttura non reggeva: mancavano GPU, i database erano saturi e i server collassavano sotto la pressione. Per non lasciare gli utenti senza risposta, fu creata una schermata temporanea — soprannominata “fail whale” — che mostrava una poesia generata dallo stesso modello, mentre in background si lavorava a rafforzare i sistemi.
Da questa crisi iniziale nacque la filosofia che avrebbe guidato OpenAI nei mesi successivi: il cosiddetto “iterative deployment”. L’idea era semplice, ma controintuitiva: lanciare presto, ascoltare il feedback degli utenti e migliorare il prodotto giorno dopo giorno. Fu in questo spirito che vennero aggiunte funzionalità essenziali come la cronologia delle chat, o che si intervenne tempestivamente in episodi imprevisti come il cosiddetto “sycophancy event”, quando il modello cominciò a mostrare un’eccessiva tendenza a lusingare gli utenti. La trasparenza e la reattività divennero tratti distintivi del modo in cui ChatGPT evolse.
Chen affronta poi uno dei punti più densi dell’intervista: che cosa significa “ragionare” per un’intelligenza artificiale. A differenza di un motore di ricerca o di un sistema basato su regole, i modelli attuali sono in grado di esplorare ipotesi, valutare alternative, tornare sui propri passi e convergere su una soluzione coerente. È una forma rudimentale ma efficace di ragionamento, che già oggi viene impiegata in ricerche scientifiche, analisi matematiche e risoluzione di problemi strutturati. Il modello agisce come chi affronta un cruciverba difficile: si muove per tentativi ed errori, fa inferenze, corregge se stesso. Ed è proprio questa qualità a renderlo utile in contesti ad alta complessità.
Il passo successivo, secondo Turley, è trasformare ChatGPT in un vero e proprio assistente personale capace di memoria. L’obiettivo non è limitato a ricordare la lista della spesa o il tono preferito con cui ricevere le risposte: si tratta di costruire una relazione software-utente che si sviluppa nel tempo, un alleato digitale che conosce progetti, gusti, obiettivi e che può operare anche in modalità asincrona. Esperienze come “Deep Research” — in cui l’assistente lavora dietro le quinte su una richiesta complessa e avvisa l’utente al termine — mostrano un’anteprima di ciò che sarà possibile su larga scala: un’intelligenza che esegue compiti articolati senza supervisione costante.
Un altro aspetto centrale è quello della governance e della trasparenza. Il comportamento del modello non è definito da regole opache, ma da uno “spec” pubblico — una sorta di costituzione operativa — che elenca in modo dettagliato come l’assistente deve comportarsi in centinaia di situazioni. Il punto di partenza è neutrale, ma l’utente può richiedere deviazioni entro limiti precisi, ad esempio chiedendo una versione più concisa, più empatica o che rispecchi determinati valori. Tutto questo avviene senza messaggi nascosti né istruzioni segrete.
In ambito software, prende forma l’approccio agentico alla programmazione: non più un completamento istantaneo in tempo reale, ma una modalità in cui si assegna un compito al modello — ad esempio, “crea un programma che ordina questo dataset e genera un report” — e lo si lascia lavorare. Al termine, restituisce una pull request, completa di codice, test e documentazione. Il nuovo Codex incarna questa logica, e Turley osserva che la qualità del risultato dipenderà sempre più dalla capacità del modello di seguire linee guida stilistiche, scrivere documentazione utile e rispondere a correzioni. Non basta che il codice “funzioni”: deve essere chiaro, manutenibile e spiegabile.
Intanto la multimodalità si sta evolvendo. Con il lancio dello strumento per la generazione di immagini si è verificato un fenomeno analogo a quello di ChatGPT. Un solo prompt può produrre un’immagine coerente, ben composta, sorprendentemente precisa. I primi giorni hanno visto un uso massiccio: in India, il 5% dell’intera utenza internet ha provato il servizio nel weekend di lancio. Dalla creazione di avatar a quella di infografiche, dal design d’interni alla trasformazione di fotografie, i casi d’uso si moltiplicano. Turley prevede che gli stessi progressi arriveranno presto anche nella generazione vocale e video.
Quanto alle competenze del futuro, l’attenzione si sposta su ciò che davvero conterà nei prossimi anni: non la memorizzazione di dettagli tecnici, ma la capacità di porre buone domande, delegare compiti, apprendere rapidamente, adattarsi. In questo scenario, l’intelligenza artificiale non sostituisce le persone, ma funge da amplificatore: un’estensione cognitiva che lavora al nostro fianco come tutor, partner creativo, programmatore o consulente.
Il dialogo si chiude su una riflessione più ampia: ogni nuova release, ogni aggiornamento di ChatGPT o dei modelli OpenAI, è un esperimento vivo. Ciò che oggi ci sembra rivoluzionario — come parlare con un assistente che ragiona, scrive codice o disegna — domani apparirà normale. E proprio questa normalizzazione continua è la forza e il fascino dell’intelligenza artificiale: spostare, giorno dopo giorno, il confine del possibile.