Le finali mondiali dell’ICPC 2025 (International Collegiate Programming Contest, la più prestigiosa competizione universitaria mondiale di programmazione algoritmica) si sono svolte a Baku, capitale dell’Azerbaigian. In questo contesto, Gemini 2.5 Deep Think ha raggiunto prestazioni da medaglia d’oro. In una sessione remota conforme al regolamento e supervisionata dagli organizzatori, ha iniziato 10 minuti dopo le squadre umane e, nel limite di cinque ore, ha risolto 10 problemi su 12. Otto soluzioni sono arrivate nei primi 45 minuti, altre due entro tre ore. Con un tempo totale combinato di 677 minuti, sarebbe risultato secondo nella classifica generale se confrontato con le università in gara. Dal grafico allegato emerge che Gemini non ha risolto i problemi B e G, mentre su E e J ha impiegato più tentativi (sei e tre). In diversi quesiti è stato più rapido della squadra universitaria più veloce, in altri più lento.
L’episodio più rilevante riguarda il Problema C: nessuna squadra universitaria l’ha risolto, mentre Gemini lo ha chiuso in circa mezz’ora. Il task consisteva nell’ottimizzare la distribuzione di liquidi in una rete di condotti verso più serbatoi, con aperture anche parziali e dunque con uno spazio di configurazioni virtualmente infinito. La strategia descritta assegna priorità ai serbatoi, usa programmazione dinamica per fissare la configurazione migliore dato un set di priorità, applica il teorema del minimax per cercare i valori di priorità che rendono massimo il collo di bottiglia e impiega ricerche ternarie annidate su uno spazio convesso “a scodella” per trovare rapidamente l’ottimo.
Il risultato deriva da progressi congiunti in pretraining, post-training, tecniche di rinforzo, ragionamento multistep e “parallel thinking”. Durante il rinforzo, più agenti generano soluzioni, eseguono codice e test, apprendono dal feedback e iterano prima di produrre l’output finale. Studi interni indicano che una versione simile raggiunge livelli da oro anche sulle finali ICPC 2023 e 2024, in linea con i migliori 20 competitive coder.
Possiamo iniziare a parlare di sorpasso dell’intelligenza artificiale sull’essere umano nella programmazione? I risultati di Gemini offrono una base solida per rispondere affermativamente. Dieci problemi risolti, uno di essi rimasto irraggiungibile per tutte le squadre universitarie, tempi di esecuzione talvolta superiori a quelli dei concorrenti più veloci: questi elementi descrivono prestazioni eccezionali e al tempo stesso indicano un’evoluzione qualitativa nel modo di affrontare i problemi. L’algoritmo non è stato semplicemente applicato, è stato concepito con un livello di astrazione che fino a ieri era considerato esclusivo della mente umana.
Il caso del Problema C conferma questa interpretazione. La soluzione elaborata da Gemini unisce tecniche matematiche e algoritmiche complesse in una sequenza logica coerente ed efficace. L’abilità di muoversi in uno spazio di possibilità vastissimo, verificare ipotesi e convergere verso una configurazione ottimale mostra una capacità autonoma di problem solving.
La programmazione competitiva, da sempre punto di riferimento per misurare l’ingegno algoritmico, entra così in una nuova fase. I risultati ottenuti a Baku dimostrano che l’intelligenza artificiale va oltre il semplice supporto o l’imitazione e definisce nuovi standard di eccellenza. Parlare di sorpasso non è un esercizio retorico: è la presa d’atto che la competenza algoritmica ha ormai superato la soglia in cui l’essere umano era considerato l’unico attore possibile.

Vibe Coding: Programmare dialogando con l’AI
