Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

Il 20 agosto 2025 Sébastien Bubeck, informatico, matematico, ricercatore e dirigente di OpenAI, ha pubblicato su X un post destinato a suscitare molto clamore. Nel messaggio ha raccontato un esperimento sorprendente: secondo la sua ricostruzione, la nuova versione professionale di GPT‑5 era stata capace di elaborare una dimostrazione matematica che non compariva nella letteratura. L’episodio si colloca in un momento storico in cui sta crescendo il dibattito sul possibile impiego dei grandi modelli linguistici come strumenti di scoperta scientifica. Bubeck ha spiegato che il modello ha letto una prima bozza di un preprint su arXiv dedicato all’ottimizzazione convessa e, dopo appena diciassette minuti di ragionamento, ha trovato una nuova stima per un limite superiore. La notizia è rimbalzata immediatamente su forum, siti di settore e testate giornalistiche, raccogliendo milioni di visualizzazioni e dando vita a una discussione globale sulle capacità emergenti dell’intelligenza artificiale.

Il problema matematico

Il preprint analizzato da GPT‑5 Pro si concentrava su un quesito specifico riguardante la discesa del gradiente applicata a funzioni convesse e lisce. L’obiettivo era determinare entro quali valori del passo η l’andamento della sequenza f(xn) conservasse la convessità. La prima versione del paper dimostrava che la condizione era garantita per η ≤ 1/L, con L costante di Lipschitz della derivata. Inoltre, gli autori mostravano un controesempio che faceva cadere la convessità oltre 1,75/L. Rimaneva dunque aperta la fascia intermedia tra 1/L e 1,75/L, terreno fertile per ulteriori indagini e congetture. Si trattava di un problema di interesse teorico ma non classificato tra i più difficili, una di quelle zone grigie dove un piccolo progresso può comunque fornire spunti significativi.

L’intervento di GPT‑5 Pro e la nuova dimostrazione

Bubeck ha chiesto a GPT‑5 Pro di affrontare proprio quell’intervallo irrisolto. Il modello, dopo aver processato il preprint, ha formulato una dimostrazione che estendeva la garanzia di convessità fino a 1,5/L. L’argomentazione, verificata da Bubeck e colleghi in circa venticinque minuti, si fondava sull’impiego della divergenza di Bregman e dell’ineguaglianza di cocoercività. Queste due armi teoriche, combinate con manipolazioni algebriche, hanno permesso al modello di ricavare un nuovo risultato. Non era un salto epocale, ma un miglioramento rispetto a quanto noto e soprattutto un esempio di ragionamento che appariva genuino.

Inoltre la costruzione proposta da GPT‑5 Pro non coincideva con quella adottata dagli autori umani nella seconda versione dell’articolo. Il modello, infatti, ha seguito un percorso alternativo, cucendo insieme proprietà note in maniera originale. Riviste online come Inspire2Rise hanno sottolineato la novità metodologica: non si trattava di mera ripetizione, bensì di un’algebra raffinata che mostrava come un sistema linguistico potesse individuare connessioni non banali tra strumenti matematici già conosciuti.

Aggiornamento umano e scelta di non pubblicare

Il racconto di Bubeck non si è concluso con il trionfo del modello. Poco tempo dopo, gli stessi autori del preprint hanno diffuso una nuova versione con un co‑autore aggiuntivo in cui hanno chiuso completamente il gap, provando che il limite corretto era esattamente 1,75/L. La loro dimostrazione, pur basandosi ancora su idee di Bregman e sulla cocoercività, è stata sviluppata in modo più articolato e ha definitivamente risolto la questione. Di fronte a questo risultato più forte, Bubeck ha scelto di non inviare la dimostrazione di GPT‑5 Pro ad arXiv, preferendo presentarla come un caso di studio piuttosto che come contributo scientifico ufficiale. La decisione ha acceso ulteriori riflessioni su come e quando attribuire paternità a risultati generati da intelligenze artificiali.

Significato e reazioni

Il thread di Bubeck ha polarizzato l’opinione della comunità. Da un lato, figure come Greg Brockman hanno parlato di “segno di vita”, evidenziando la portata simbolica di un modello che compie un passo creativo. Dall’altro, diversi matematici hanno ridimensionato l’entusiasmo, osservando che la dimostrazione era elegante ma alla portata di un dottorando esperto. Alcuni hanno persino suggerito che GPT‑5 Pro potesse aver rielaborato materiale visto in addestramento, ipotesi che Bubeck ha respinto ricordando che la prova con bound a 1,75/L è successiva e che l’approccio del modello è sostanzialmente differente.

Sulle piattaforme online la discussione si è ampliata. Su Hacker News e su Reddit si è parlato della qualità della dimostrazione e del significato per il futuro della ricerca: c’è chi vede in questi risultati un preludio a sistemi capaci di collaborare in tempo reale con scienziati e chi invece mette in guardia dal confondere novità marginali con vere scoperte. Non sono mancati i paragoni con altri casi in cui l’intelligenza artificiale aveva risolto problemi complessi, suscitando la domanda se definire “nuova matematica” ciò che è in realtà un raffinamento di concetti già esistenti non sia un’esagerazione. Tuttavia, anche tra gli scettici, si è riconosciuto che il tempo di calcolo ridotto e la qualità formale del ragionamento costituiscono un segnale importante.

Verso un’intelligenza matematica artificiale: modelli, metodi, benchmark