Un preprint pubblicato su arXiv il 12 febbraio 2026 riapre una questione considerata marginale nella fisica delle particelle e mostra come un modello di intelligenza artificiale possa contribuire alla formulazione di una congettura matematica capace di orientare il lavoro degli autori e chiarire il problema. Il lavoro si intitola “Single-minus gluon tree amplitudes are nonzero” e porta le firme di Alfredo Guevara, Alexandru Lupsasca, David Skinner, Andrew Strominger e Kevin Weil, con affiliazioni che includono Institute for Advanced Study, Vanderbilt, Cambridge, Harvard e OpenAI.
Per capire cosa c’è in gioco conviene partire dal concetto di ampiezza di scattering. In fisica delle alte energie, quando si vuole calcolare la probabilità che certe particelle interagiscano e producano un certo esito, la quantità centrale è l’ampiezza: un oggetto matematico da cui si ricava la probabilità dell’evento. Nel caso dei gluoni, le particelle che veicolano l’interazione forte, queste ampiezze hanno una storia particolare: i calcoli “a livello albero”, cioè senza includere i loop quantistici, spesso rivelano formule sorprendentemente compatte rispetto alla complessità dei passaggi intermedi. Il preprint riprende proprio questo tema, ricordando che la crescita del numero di diagrammi di Feynman con il numero di particelle diventa rapidamente ingestibile, mentre il risultato finale può avere una struttura più semplice.
Dentro questa cornice, c’è un caso che nei manuali viene trattato in modo sbrigativo: le cosiddette ampiezze “single-minus”, dove un solo gluone ha una certa orientazione dello spin ed è associato a elicità negativa, mentre tutti gli altri hanno l’orientazione opposta ed è associata a elicità positiva. Per cinematica generica, l’argomento standard porta a concludere che l’ampiezza a livello albero vale zero, quindi la configurazione viene spesso accantonata come irrilevante. Il punto centrale del lavoro è che quell’argomento dipende da un’ipotesi: i momenti delle particelle sono “generici”, privi di allineamenti speciali. Gli autori isolano invece una regione di spazio dei momenti definita con precisione, chiamata “half-collinear”, in cui le assunzioni del ragionamento standard cambiano e l’ampiezza può assumere valori diversi da zero.
Qui c’è un dettaglio tecnico che vale la pena rendere intuitivo, senza entrare nell’algebra. La fisica delle ampiezze usa spesso variabili che codificano momento e spin in modo molto compatto, e alcune identità che in un tipo di spazio-tempo fisico risultano troppo restrittive diventano più flessibili quando si lavora in firme diverse oppure con momenti complessificati. Nel preprint, la regione half-collinear viene descritta come un vincolo di allineamento atipico rispetto ai casi generici, eppure coerente e matematicamente ben definito. Proprio lì compaiono ampiezze single-minus che sfuggono al verdetto “zero”.
A questo punto entra in scena il contributo della macchina, che nel racconto degli autori è messo in primo piano come metodo di lavoro più che come curiosità. Gli autori umani calcolano esplicitamente i casi con un numero piccolo di gluoni, fino a n uguale a 6, e ottengono espressioni lunghe e molto articolate. Nel testo del preprint quelle formule compaiono come esempi concreti, utili a far vedere la crescita di complessità quando si segue la strada da manuale. Poi succede qualcosa di diverso: GPT‑5.2 Pro prende quei risultati e li riscrive in forme più compatte, riducendo drasticamente la complessità apparente. Da quelle versioni semplificate, il modello individua un pattern e propone una formula generale valida per ogni n.
Questa è fisica teorica nel suo formato più classico: si parte da casi particolari calcolati con fatica, si cerca una regola generale, si tenta una congettura che tenga insieme i casi già noti e poi si pretende una prova. Il preprint sottolinea che la formula chiave in quel canale cinematico speciale è stata congetturata dal modello e poi dimostrata corretta attraverso un lavoro di verifica formale. In parallelo, nel resoconto pubblico di OpenAI si parla di una versione interna “scaffolded” di GPT‑5.2 che avrebbe lavorato per molte ore sul problema fino ad arrivare alla stessa formula e a una dimostrazione strutturata, mentre gli autori hanno eseguito controlli analitici indipendenti.
Che cosa significa “dimostrare” in questo contesto, e perché questa parte è importante per distinguere una trovata elegante da un vero passo avanti? Nel linguaggio delle ampiezze, esistono relazioni di consistenza che ogni formula candidata deve rispettare. Il preprint cita, fra le verifiche, la compatibilità con una relazione ricorsiva standard che costruisce ampiezze con molti gluoni a partire da mattoni più semplici e il rispetto di un vincolo sul comportamento dell’ampiezza quando una particella diventa “soft”, cioè tende a portare energia molto piccola. Vengono inoltre richiamate identità note nelle ampiezze color-ordinate, come ciclicità e relazioni di Kleiss–Kuijf, che agiscono come test incrociati severi. L’idea, resa in modo accessibile, è che una formula giusta deve incastrarsi in una rete di compatibilità già consolidata, altrimenti prima o poi si rompe contro un caso limite o contro una simmetria.
Dal punto di vista della fisica, il risultato tecnico è duplice. Da un lato, cambia lo status delle ampiezze single-minus: in una fetta di cinematica half-collinear, queste ampiezze esistono e possono essere calcolate con una forma chiusa, descritta nel lavoro come costante a tratti in regioni separate da “pareti” dove cambiano segni di certe quantità cinematiche. Dall’altro lato, in un canale specializzato chiamato R1, il preprint arriva a una formula particolarmente semplice, costruita come prodotto di fattori legati a funzioni di segno; in quel regime i valori possibili diventano molto limitati, e questo aiuta a capire la struttura del risultato e a controllarlo.
Dal punto di vista del metodo, però, la parte che attira di più l’attenzione è la sequenza: calcolo esplicito di casi base, compressione simbolica, riconoscimento di pattern, congettura, prova, verifiche esterne. La novità sta nel fatto che alcuni passaggi, qui, vengono attribuiti direttamente a un modello linguistico avanzato. Un lettore generalista può tradurlo così: quando una famiglia di formule cresce più velocemente di quanto sia ragionevole maneggiare a mano, diventa cruciale trovare una regola generatrice che riassuma tutto; il modello ha agito come strumento per scovare quella regola, partendo da esempi difficili e producendo una proposta che poi è stata sottoposta ai controlli della fisica delle ampiezze.
Questo tipo di intervento si colloca in un’area molto precisa della pratica teorica. Un modello di intelligenza artificiale non misura e non simula nel senso sperimentale; lavora invece dentro il linguaggio della teoria, manipolando simboli, confrontando strutture, cercando regolarità che, per un umano, possono restare nascoste dentro pagine di termini. Quando funziona, l’effetto è pragmatico: il ricercatore guadagna una formula più leggibile, che rende possibili ulteriori derivazioni e generalizzazioni. Nel preprint gli autori anticipano estensioni a gravitoni e altre generalizzazioni, segnalando che la costruzione si trasferisce oltre i gluoni.
Resta un elemento essenziale: siamo davanti a un preprint, quindi a un testo pubblico che circola per ricevere feedback e per essere valutato nel processo di pubblicazione scientifica. OpenAI lo dice apertamente nel post di accompagnamento, invitando la comunità a commentare mentre il lavoro viene sottomesso a una rivista. In questa fase, il punto più solido per un lettore esterno è il contenuto verificabile: il testo su arXiv, le definizioni, le formule, le dimostrazioni e i controlli riportati. Il fatto che il contributo della macchina venga descritto in modo esplicito, con riferimenti a un’equazione precisa e a una catena di verifiche, rende la storia più concreta rispetto a molte narrazioni generiche su intelligenza artificiale e scienza.
Un modello di intelligenza artificiale ha avuto un ruolo operativo in un lavoro di fisica teorica, in un punto dove la disciplina richiede riconoscimento di pattern, semplificazione simbolica e capacità di proporre una formula globale compatibile con vincoli già noti. Il merito scientifico resta legato al contenuto del preprint e ai suoi controlli, mentre la parte metodologica suggerisce un uso sempre più concreto di questi strumenti come acceleratori di un momento specifico della ricerca: passare dall’accumulo di casi particolari a una regola generale verificabile.

