Skip to content Skip to footer

Dove va la scienza dell’intelligenza artificiale secondo il documento AAAI

Nel marzo 2025 l’AAAI (Association for the Advancement of Artificial Intelligence) ha pubblicato il rapporto “Presidential Panel on the Future of AI Research”, un documento che mette a fuoco e organizza i rapidi sviluppi dell’intelligenza artificiale e l’evoluzione del suo ecosistema scientifico. Si tratta di un’opera collettiva, frutto di un anno di lavoro guidato da Francesca Rossi e condotto da un gruppo di ventiquattro esperti con competenze multidisciplinari. Al progetto si è affiancata una vasta consultazione tramite un sondaggio interno alla comunità scientifica dell’intelligenza artificiale, che ha coinvolto 475 membri dell’AAAI: in maggioranza accademici, ma con una rappresentanza significativa di ricercatori del settore industriale e studenti di dottorato. Si tratta quindi di un’indagine rivolta esclusivamente a esperti del settore, ovvero persone attivamente impegnate nella ricerca e nello sviluppo dell’intelligenza artificiale.: in maggioranza accademici, ma con una rappresentanza significativa di ricercatori del settore industriale e studenti di dottorato.

Il volume si articola in diciassette capitoli, ognuno dedicato a un’area chiave della ricerca sull’intelligenza artificiale. Vengono trattati, tra gli altri, il ragionamento automatico, la factualità, la progettazione di agenti intelligenti, la valutazione dei sistemi, l’intelligenza incarnata (embodied AI), cioè l’idea che un’intelligenza avanzata debba emergere anche dal contatto diretto con il mondo fisico, tramite corpo e ambiente, gli aspetti hardware, la sostenibilità, la scienza aperta, ovvero un approccio alla ricerca basato sulla condivisione pubblica di dati, codici, modelli e risultati intermedi per promuovere trasparenza, riproducibilità e collaborazione, e le implicazioni sociali. L’impostazione è volutamente accessibile anche a chi non è specialista, segno dell’interesse a includere nel dialogo discipline umanistiche, scienze sociali e coloro che si occupano di elaborare normative, linee guida e strategie per la società.

Uno dei capitoli centrali riguarda il ragionamento. Ripercorrendo le tappe che conducono dalla logica aristotelica ai moderni solver SAT, ovvero strumenti che risolvono problemi di soddisfacibilità logica determinando se un’espressione booleana può essere resa vera da qualche combinazione di valori, passando per le reti bayesiane e i modelli simbolici, il testo ribadisce che la capacità di trarre conclusioni corrette è ancora il nucleo costitutivo di qualsiasi intelligenza. I grandi modelli linguistici sono in grado di produrre risposte coerenti e “plausibili”, ma restano carenti in rigore inferenziale. Il documento suggerisce che il progresso passi attraverso l’integrazione tra apprendimento automatico e metodi simbolici. Questo è anche uno dei risultati chiave del sondaggio: più del 75% degli intervistati considera cruciale fondere logica e apprendimento, mentre solo un terzo ritiene sufficiente la plausibilità statistica garantita dai modelli linguistici attuali.

Il tema della factualità, cioè la capacità dei sistemi di AI di generare contenuti corretti e aderenti ai fatti, si ricollega alla qualità e affidabilità dei contenuti generati. Il documento passa in rassegna le tecniche attuali, come il fine-tuning controllato, la generazione aumentata dal recupero documentale (RAG) e la riscrittura condizionata, che cercano di ridurre le cosiddette “allucinazioni” e rendere le risposte più aderenti ai dati reali. Allo stesso tempo, viene evidenziata la necessità di progettare architetture neurali più trasparenti e dotate di meccanismi esterni di verifica, come strumenti di fact-checking automatico o modelli ibridi.

Un altro ambito cruciale è quello degli agenti. Il documento descrive l’evoluzione dai sistemi multi-agente degli anni Novanta, basati su regole e negoziazione esplicita, fino ai più recenti ambienti collaborativi che integrano modelli generativi, capacità di pianificazione e forme limitate di memoria. Questi agenti promettono maggiore adattabilità, ma pongono nuovi problemi in termini di trasparenza e scalabilità. I dati del sondaggio mostrano una comunità scientifica divisa: il 51% degli intervistati crede che i framework multi-agente basati su LLM siano una strada promettente, mentre quasi la stessa percentuale li considera troppo complessi per garantire benefici concreti. In ogni caso, emerge un consenso trasversale sull’importanza di rendere questi sistemi modulari, osservabili e spiegabili.

Il problema della valutazione è uno dei più sentiti. Oggi si fa affidamento su benchmark come GLUE, MMLU o ARC-AGI, che misurano prestazioni su compiti standardizzati, ma non offrono indicazioni affidabili su robustezza, capacità di adattamento o sicurezza. Il documento richiama la cosiddetta legge di Goodhart—quando una metrica diventa un obiettivo, perde la sua funzione di misura—e propone una “scienza della valutazione” che integri audit, monitoraggi continui e nuove metriche multidimensionali. Il 75% dei partecipanti al sondaggio dichiara che la debolezza degli attuali strumenti valutativi frena lo sviluppo della ricerca stessa.

Un’analisi approfondita è dedicata all’interazione tra algoritmi e infrastrutture. Dalla partita a scacchi tra Deep Blue e Kasparov in avanti, l’evoluzione dell’hardware ha influenzato profondamente il campo. Oggi il focus è su architetture efficienti, che sappiano bilanciare il consumo energetico, la larghezza di banda della memoria e il parallelismo computazionale. La progettazione congiunta di chip e algoritmi (co-design) è considerata “assolutamente cruciale” da oltre tre quarti degli intervistati. Le principali difficoltà tecniche restano legate a limiti di throughput e capacità di memoria.

Il concetto di embodied AI recupera una tradizione legata alla robotica, ma la arricchisce con le possibilità offerte dalla simulazione avanzata e dall’apprendimento causale. Secondo il report, l’intelligenza può svilupparsi in modo più solido quando è radicata nell’interazione sensomotoria con l’ambiente. Anche qui il sondaggio è indicativo: circa il 72% dei ricercatori considera l’embodiment un elemento essenziale per il progresso dell’intelligenza artificiale, e mostra una netta preferenza per robot fisici rispetto a scenari virtuali.

Le applicazioni civiche e ambientali trovano spazio nei capitoli “AI for Social Good” e “AI and Sustainability”. Il primo racconta esperienze concrete in ambito sanitario, agricolo, educativo e climatico, mostrando come l’AI possa aiutare comunità vulnerabili. Tuttavia, si segnalano ostacoli ricorrenti: difficoltà a testare sul campo, carenza di fondi e problemi di scalabilità. Il secondo capitolo si concentra invece sui costi ambientali dell’intelligenza artificiale, in particolare per quanto riguarda i consumi energetici e idrici dei grandi modelli. Viene sostenuta l’urgenza di sviluppare sistemi meno dispendiosi e più sostenibili, anche dal punto di vista infrastrutturale.

Infine, il documento affronta in modo trasversale le implicazioni geopolitiche, il rafforzamento della collaborazione tra accademia e industria e il bisogno di formare nuove generazioni di esperti capaci di navigare la complessità tecnica, sociale e normativa dell’intelligenza artificiale. Non propone linee guida rigide, ma si configura come una mappa ragionata di sfide e opportunità. Conclude suggerendo che l’intelligenza artificiale, se orientata con attenzione e competenza, può diventare un alleato duraturo nel perseguimento di obiettivi condivisi di progresso umano.