Skip to content Skip to footer

Quando un tweet accende un caso mediatico: l’equivoco su GPT-5 e il “teorema ritrovato”

Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

A volte bastano poche righe per scatenare un’ondata di reazioni, soprattutto quando il tema tocca l’intelligenza artificiale e i suoi confini. Accade nel momento in cui Sébastien Bubeck, ricercatore di OpenAI e matematico di fama internazionale, pubblica su X un messaggio breve, entusiasta e privo di contesto su un risultato matematico “riscoperto” grazie a GPT-5. Come vedremo, la vicenda ruota attorno a una classica domanda dell’elenco di Erdős, un tema di geometria complessa finito ai margini della memoria collettiva. GPT-5 è stato impiegato per setacciare la letteratura e riportare in primo piano un passaggio di un vecchio articolo che risolveva la questione.

Poche parole hanno innescato interpretazioni opposte: c’è chi le ha lette come una semplice nota tecnica e chi vi ha riconosciuto un annuncio di scoperte prodotte dal modello. In poche ore il post è rimbalzato tra forum, community e siti di notizie; l’entusiasmo iniziale si è trasformato in un vortice di commenti e analisi, alimentato dalla sintesi del messaggio e dall’attrazione che accompagna ogni riferimento all’intelligenza artificiale “pensante”.

L’effetto domino è cresciuto con l’arrivo di voci esterne. Tra le più ascoltate figurava Mark Sellke, matematico di Harvard, che in un thread aveva raccontato di aver lavorato con Mehtaab Sawhney per testare GPT-5 su una lunga serie di problemi di Erdős. Con migliaia di query, i due avevano individuato dieci casi per i quali esistevano già soluzioni pubblicate e riscontri parziali su altri undici. L’esperimento aveva mostrato un modello capace di collegare lavori distanti, recuperare riferimenti dimenticati e restituire un quadro coerente di risultati dispersi. Il tono vivace del racconto aveva prodotto un effetto collaterale: molti lettori avevano scambiato quella lista per un elenco di teoremi “risolti” dal modello. Il thread era iniziato a circolare come prova di presunte capacità creative attribuibili a OpenAI, complice anche il rilancio di Kevin Weil, dirigente di OpenAI, che aveva enfatizzato il numero dei problemi “trovati”.

L’amplificazione diventa immediatamente mediatica. Alcuni utenti riprendono il messaggio di Sellke fuori contesto, comprimendo il significato dell’esperimento nella narrativa della “superiorità” della macchina. In pochi passaggi la discussione accademica scivola verso lo spettacolo: GPT-5 viene descritto come capace di risolvere problemi rimasti aperti per decenni. Blog tecnologici, pagine di divulgazione e profili di settore ripropongono il tema spesso senza verifiche puntuali, e una dimostrazione di ricerca bibliografica avanzata si trasforma nel simbolo di un presunto salto verso l’intelligenza autonoma.

Le repliche della comunità scientifica arrivano subito. Matematici e addetti ai lavori precisano che le soluzioni citate erano già presenti in letteratura e che il punto interessante riguarda la lettura analitica: interpretazione di passaggi complessi, traduzioni di testi tecnici in altre lingue, riconoscimento di connessioni tra articoli lontani per epoca e contesto. Un risultato notevole per rigore e velocità, distante dall’idea di una creatività matematica del modello.

Nel frattempo la stampa online intercetta la storia e la propone come caso mediatico. Titoli come “Scivolone di OpenAI sui teoremi” compaiono su portali e siti di settore, consolidando l’impressione di un errore di comunicazione o di trionfalismo. Alcuni articoli accusano OpenAI di promuovere narrazioni ambigue, altri ironizzano sull’idea di un’AI che “scopre di non aver scoperto nulla”. Intanto la discussione si polarizza: da un lato chi considera GPT-5 un pericolo per il lavoro scientifico umano, dall’altro chi lo vede come un assistente utile per governare una produzione di dati e pubblicazioni ormai sterminata.

Il problema di Erdős e la soluzione dimenticata

Nel 1958, Paul Erdős, insieme a Herzog e Piranian, pubblicò un articolo che elencava sedici problemi aperti legati alle proprietà metriche dei polinomi complessi. Il numero 1043 tra questi chiedeva: dato un polinomio monico che mappa il piano complesso sul disco unitario, esiste almeno una direzione in cui la “larghezza” dell’insieme pre-immagine sia inferiore a 2? Il valore 2 non è casuale: rappresenta la misura della larghezza del disco unitario stesso, quindi chiedere se esista una direzione più “stretta” equivaleva a cercare una deformazione geometrica più contenuta, una curiosità che tocca la forma stessa delle curve di livello dei polinomi.

Tre anni più tardi, nel 1961, il matematico tedesco Christian Pommerenke pubblicò On Metric Properties of Complex Polynomials. Il suo lavoro non menzionava direttamente il problema #1043; nel cuore dell’articolo, tra la fine del Teorema 6 e l’inizio del Teorema 7, scrisse una frase che, a posteriori, risolveva proprio quella domanda:

«Let b be the minimum of the measures of the projections of E… we obtain a lemniscate domain with b > 2.386.»

Questo valore 2.386 è superiore a 2, e indica che non esiste una direzione in cui la larghezza scenda sotto il valore ideale. Il problema di Erdős aveva dunque una risposta negativa, ma la soluzione era sepolta in un passaggio laterale, senza alcuna evidenza esplicita né nel titolo né nei riferimenti bibliografici. Né la recensione di MathSciNet, né gli elenchi ufficiali dei problemi di Erdős, avevano mai collegato questo testo alla questione. Per decenni, quel collegamento è rimasto invisibile.

Il ruolo di GPT-5

Quando Bubeck ha interrogato GPT-5 chiedendo una possibile soluzione al problema 1043, il modello ha scandagliato la letteratura e indicato proprio l’articolo di Pommerenke come fonte risolutiva. Ma non si è limitato a citarlo: ha individuato il punto esatto, ne ha interpretato il contenuto matematico, ha risalito la catena dei riferimenti fino al lavoro precedente dello stesso autore, scritto in tedesco nel 1959, e ne ha fornito una traduzione e un’analisi coerente in inglese.

Questo episodio mostra il salto di qualità rispetto alla semplice “ricerca testuale”. GPT-5 ha letto e compreso il contesto, ha riconosciuto il valore logico di un’affermazione matematica e l’ha collegata a un problema specifico rimasto isolato per decenni. È un esempio pratico di super–lettura analitica: un sistema capace di attraversare archivi, lingue e stili, ricostruendo una rete di significati che va oltre le citazioni esplicite.

Bubeck, nella sua spiegazione successiva, ha sottolineato proprio questo: l’AI non ha “inventato” nulla; ha riattivato una parte di memoria scientifica che era semplicemente finita ai margini della conoscenza collettiva. È una differenza sostanziale, perché indica una nuova visione della ricerca, intesa come continuità consapevole con ciò che già sappiamo e non solo come produzione incessante di novità.

Il chiarimento e le scuse

Di fronte al rumore crescente, Bubeck ha deciso di pubblicare un lungo thread chiarificatore.

Nel suo messaggio ha riconosciuto tre errori principali. Primo: aver dato per scontato che i lettori conoscessero il contesto dei suoi tweet precedenti, dove aveva già spiegato che l’esperimento riguardava solo la ricerca bibliografica. Secondo: aver riassunto troppo, affidandosi a un linguaggio sintetico che lasciava spazio a interpretazioni sbagliate. Terzo: aver usato un tono ironico, scrivendo che GPT-5 “aveva risolto un problema rendendosi conto che era già stato risolto”, una battuta che molti hanno preso alla lettera.

La vicenda, a conti fatti, diventa un piccolo caso di studio sul rapporto tra AI e comunicazione scientifica. Dimostra quanto un linguaggio impreciso possa alterare la percezione pubblica della ricerca e quanto, allo stesso tempo, le potenzialità reali di questi strumenti siano ancora poco comprese.

Verso un’intelligenza matematica artificiale: modelli, metodi, benchmark