Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

Samsung ha presentato un’idea tanto essenziale quanto sorprendente: un modello di intelligenza artificiale grande appena 7 milioni di parametri (il vecchio GPT-3 superava i 175 miliardi), capace di affrontare compiti di ragionamento astratto con risultati che attirano l’attenzione anche rispetto a sistemi molto più estesi. Il progetto, chiamato Tiny Recursive Model, nato al laboratorio Samsung AI di Montréal, affida le proprie capacità a un ciclo di miglioramento ricorsivo della risposta invece di puntare sulla pura scala del modello. Il codice è pubblico su GitHub e il lavoro tecnico è disponibile su arXiv.

Il cuore dell’approccio è semplice da descrivere: data una domanda, il modello formula una risposta iniziale e poi la affina in più passaggi, aggiornando a ogni ciclo uno stato latente che accumula il ragionamento. Questa strategia consente a una rete a due layer di “ripensare” la soluzione varie volte nella stessa inferenza, con un costo computazionale contenuto rispetto a modelli giganteschi. Il paper dettaglia i passaggi del ciclo e mostra come la retro-propagazione attraversi l’intera sequenza di miglioramenti, così da insegnare al sistema a correggersi progressivamente.

I numeri che hanno acceso la discussione arrivano dal benchmark ARC-AGI, un test progettato per valutare capacità di generalizzazione su puzzle visivi e regole implicite. Sul set ARC-AGI-1, TRM ottiene circa 44,6 percento, mentre su ARC-AGI-2 si attesta intorno al 7,8 percento nella variante con attenzione, valori riportati nel paper e rilanciati da repository e testate specializzate. Si tratta di punteggi che superano quelli comunicati per alcuni modelli linguistici di riferimento nelle stesse condizioni di prova.

La ricerca non si ferma ad ARC. Su Sudoku “Extreme” e su labirinti complessi il modello mostra un profilo coerente: con un addestramento su circa mille esempi più una forte strategia di augmentazione, l’accuratezza arriva rispettivamente oltre l’85 percento nei test riportati, evidenziando come la ricorsione interna consenta a una rete piccola di trovare coerenza globale in problemi vincolati.

Per chi segue i progressi dell’efficienza, la parte più intrigante sta nel rapporto tra dimensioni del modello e qualità del ragionamento. TRM prova che compiti ben strutturati possono essere affrontati con reti compatte se l’architettura favorisce iterazione interna e memoria dei tentativi. In altri termini, la profondità dipende dal modo in cui il modello elabora e corregge le proprie risposte attraverso più passaggi di inferenza, oltre al numero di layer. Questo principio apre prospettive pratiche per dispositivi locali e contesti con budget energetico ristretto.

Il confronto più interessante, per chi conosce la letteratura recente, riguarda l’Hierarchical Reasoning Model, un approccio affine che impiega due reti a “frequenze” diverse. In TRM lo schema viene semplificato in un unico ciclo ricorsivo con arresto adattivo: quando la soluzione stimata raggiunge una soglia di confidenza, l’inferenza si ferma. L’obiettivo è ridurre complessità ingegneristica preservando la capacità di correggere gli errori lungo la catena di passi.

La community ha iniziato a esplorare il repository, chiedendo modelli pronti, dati e tutorial più strutturati. Al momento su GitHub non compaiono release impacchettate, mentre le issue tracciano feedback, richieste di chiarimento e idee d’uso. Questo indica che il progetto è vivo e in fase di rapida iterazione, con potenziale di miglioramenti e repliche indipendenti nelle prossime settimane.

Sul piano dell’interpretazione pubblica conviene calibrare bene le aspettative: il risultato è forte nella nicchia dei puzzle astratti e dell’apprendimento su pochi esempi con ricorsione interna. Non suggerisce vantaggi generalizzati in dialogo naturale, comprensione del mondo o compiti aperti che richiedono conoscenza estesa. La differenza tra efficienza su compiti chiusi e prestazioni generaliste resta sostanziale, come ricorda anche la documentazione di ARC-AGI e le spiegazioni tecniche delle fonti.

Per chi lavora su prodotto e dispositivi, il messaggio operativo è chiaro: architetture minute con cicli iterativi possono risolvere classi specifiche di problemi con costi bassi, favorendo l’adozione on-device e l’inferenza a bordo. Samsung mette a disposizione il codice e invita alla riproducibilità, creando un terreno di prova accessibile anche a team senza infrastrutture gigantesche.