Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

Al CES di Las Vegas, NVIDIA ha aperto l’anno con un appuntamento costruito come un percorso in due tempi: un “pregame show” con ospiti e analisti per inquadrare i temi del momento, seguito dall’intervento del CEO Jensen Huang, pensato per collegare tecnologia, prodotti e direzioni industriali in un’unica narrazione. Il filo conduttore, ripetuto in forme diverse durante l’evento, riguarda un cambiamento profondo del modo in cui si costruisce software e del tipo di infrastruttura necessaria per far funzionare l’intelligenza artificiale su larga scala.

Nella parte introduttiva, il panel ha spinto l’attenzione su un punto concreto: i cicli di investimento in infrastrutture tecnologiche esistono da decenni, però quello legato all’intelligenza artificiale ha caratteristiche proprie. Gli ospiti hanno richiamato l’idea che, nelle fasi precedenti dell’informatica, una parte delle installazioni restava poco sfruttata, mentre oggi la capacità di calcolo per l’intelligenza artificiale tende a essere utilizzata in modo intenso anche su hardware di generazioni passate. In questa lettura, il dato chiave diventa l’utilizzo effettivo dell’infrastruttura, più che il solo volume di spesa.

Dentro questo scenario si è inserito l’intervento del CEO di Snowflake, Sridhar Ramaswamy, con un taglio orientato ai casi d’uso aziendali. Il messaggio di fondo è che il valore dell’intelligenza artificiale emerge in molti punti dell’organizzazione, dai compiti operativi alle attività ad alta specializzazione. Ramaswamy ha citato l’uso di modelli per funzioni come la ricerca e l’accesso rapido alle informazioni interne, descrivendo anche l’idea di “agenti” che aiutano a interrogare dati e indicatori aziendali con richieste in linguaggio naturale, così da ottenere risposte utili senza passare ogni volta da report e dashboard tradizionali. In parallelo ha ricordato il legame tecnico con NVIDIA: gran parte dei prodotti di intelligenza artificiale poggia su accelerazione tramite GPU, e la collaborazione entra anche nei dettagli, per esempio nella scelta di modelli adatti a rendere più efficaci funzioni di ricerca basate su embedding.

La conversazione è poi scivolata verso ciò che NVIDIA e molti partner chiamano “physical AI”, cioè l’uso dell’intelligenza artificiale in contesti dove esistono oggetti, movimento, vincoli fisici e responsabilità operative. Sul palco sono saliti Ola Källenius, CEO di Mercedes-Benz, e Deepak Pathak, CEO e cofondatore di Skild AI. Källenius ha raccontato il percorso che porta a sistemi di guida automatizzata di livello tre, sottolineando che il salto non dipende solo da sensori e calcolo, perché entrano in gioco anche requisiti di affidabilità e aspetti normativi: quando il sistema assume un ruolo più diretto nella guida, cambia la cornice di responsabilità e cambia anche ciò che serve per mettere la tecnologia su strada. Ha parlato di funzioni che tendono a diventare rapidamente familiari per l’utente quando offrono un vantaggio chiaro, come il parcheggio assistito, e ha collegato il tema dell’automazione anche alla fabbrica, dove l’intelligenza artificiale incide su simulazione, progettazione e gestione operativa.

Sul lato robotica, Pathak ha introdotto l’idea di un “cervello” generale che possa funzionare su corpi diversi, dai robot umanoidi ai quadrupedi fino ai bracci industriali. Il punto, per lui, è che molte dimostrazioni robotiche restano confinanti a scenari controllati, mentre un salto di scala richiede modelli capaci di adattarsi a variabilità e imprevisti, usando dati raccolti da fonti differenti. Nella discussione è emersa la difficoltà tipica della robotica: i dati utili per insegnare comportamenti in ambienti reali risultano costosi da ottenere, quindi diventa centrale l’equilibrio fra addestramento, simulazione e specializzazione per compiti specifici.

Quando Jensen Huang è salito sul palco, ha dato subito un’inquadratura di ampio respiro. Ha parlato di “platform shift”, cioè di quei passaggi in cui l’industria del software cambia bersaglio e cambia modo di lavorare. Nel suo racconto, oggi avvengono due trasformazioni contemporanee: applicazioni costruite sopra l’intelligenza artificiale e, allo stesso tempo, una revisione della “pila” tecnologica usata per sviluppare e far girare software. In termini semplici, Huang ha descritto un passaggio dal programmare al far apprendere tramite addestramento, e dal calcolo general purpose su CPU a un calcolo accelerato su GPU, con applicazioni capaci di generare contenuti in modo dinamico in base al contesto. Ha collegato questa svolta anche al lato economico, citando la modernizzazione di una parte enorme dell’informatica degli ultimi anni e l’afflusso di investimenti verso la nuova generazione di prodotti e servizi.

Huang ha poi ricostruito alcuni passaggi che, secondo lui, hanno spinto in avanti l’intelligenza artificiale: l’evoluzione dei modelli linguistici negli anni, l’impatto dei transformer e la fase in cui strumenti conversazionali hanno reso evidente a un pubblico ampio cosa fosse possibile fare. Nella parte più tecnica, ha insistito su un concetto: l’inferenza, per molte applicazioni moderne, tende a somigliare a un processo di ragionamento con più passaggi e produce più token rispetto a un’unica risposta immediata. Questo sposta l’attenzione su tre momenti che consumano calcolo: pre-addestramento, post-addestramento e calcolo “al momento dell’uso” quando il modello elabora una risposta più lunga. In questa descrizione, la domanda di calcolo cresce per effetto della crescita dei modelli, della crescita dei token generati e dell’intensità della competizione fra aziende e laboratori.

Da qui è arrivato uno dei momenti centrali del keynote: la piattaforma “Vera Rubin”, presentata come nuova architettura in produzione. Huang ha detto esplicitamente che Vera Rubin è in piena produzione, inserendola nella cadenza con cui NVIDIA intende avanzare ogni anno lo stato dell’arte dei sistemi per intelligenza artificiale.

Per rendere più chiaro di cosa si parli quando si dice “architettura”, il keynote ha mostrato un video descrittivo: Vera Rubin viene raccontata come un sistema composto da sei chip progettati per lavorare insieme, con una CPU dedicata (Vera) e una nuova generazione di GPU (Rubin) co-progettate per condividere dati in modo coerente e rapido. Attorno a questi componenti entrano parti di rete e di gestione dei dati, come ConnectX e BlueField, e una nuova generazione di interconnessione NVLink, fino a una logica di scalabilità che unisce più nodi in un’unica struttura di calcolo. Il video ha citato anche numeri di prestazioni e di scala, insieme a dettagli costruttivi pensati per data center moderni. Al di là delle cifre esatte, l’idea che viene comunicata è che il “computer” per l’intelligenza artificiale, oggi, tende a essere un sistema integrato: calcolo, rete, memoria, sicurezza e gestione del flusso dati diventano parti dello stesso progetto.

Un passaggio curioso, utile per capire come NVIDIA costruisce i propri annunci, è stato il riferimento al nome “Vera Rubin”. Huang ha ricordato l’astronoma americana Vera Rubin e il suo lavoro sull’osservazione delle galassie, usandolo come introduzione al tema della crescita della domanda di calcolo e alla necessità di sistemi più potenti e più efficienti. È un modo per legare un elemento narrativo a un tema tecnico: la quantità di computazione richiesta dall’intelligenza artificiale aumenta rapidamente, e la risposta proposta passa da un’evoluzione del singolo chip a una progettazione più ampia dell’intero sistema.

Il keynote ha poi insistito sull’idea di “full stack”. Huang ha descritto un livello hardware fatto di chip e networking, un livello infrastrutturale che include strumenti come Omniverse e altri componenti citati durante la presentazione, un livello di modelli e un livello applicativo dove i partner portano i casi d’uso verso aziende e utenti finali. Nel tratto dedicato all’impresa, ha citato la diffusione di sistemi “agentici”, cioè strumenti che agiscono come interfaccia per piattaforme e servizi, con l’obiettivo di rendere più semplice l’accesso a funzioni complesse e a informazioni distribuite. L’idea comunicata è una trasformazione dell’esperienza d’uso: l’interazione diventa più dialogica e più adatta a lavorare con contenuti testuali, dati strutturati e input diversi.

Nella parte “physical AI”, Huang ha dato una definizione concreta del problema: un’intelligenza che opera nel mondo fisico deve imparare regole e regolarità che per le persone risultano intuitive, come permanenza degli oggetti, relazioni causa-effetto, dinamiche legate a gravità, attrito e inerzia. Ha sottolineato anche un’esigenza pratica: per addestrare e valutare questi sistemi serve simulazione, perché nel mondo reale i tentativi costano tempo e risorse, e l’ambiente offre variabilità continua. In questa cornice, strumenti di simulazione e “digital twin” diventano un tassello industriale, legato sia alla robotica sia alla progettazione di fabbriche e processi.

Questa parte del discorso si è intrecciata con i partner industriali citati sul palco. Un esempio è Siemens, presentata come alleata nell’integrazione di librerie, modelli e strumenti NVIDIA dentro software usati per progettazione elettronica, simulazione e gemelli digitali. Il messaggio è che l’intelligenza artificiale entra nel ciclo completo di vita industriale, dalla fase di design alla produzione fino alle operazioni, con una continuità che dipende proprio da calcolo accelerato e simulazione.

Sul versante automotive, Huang ha ripreso Mercedes-Benz e ha parlato del lavoro di integrazione lungo l’intera catena: infrastruttura, modelli e applicazione finale in auto. Nel testo della trascrizione compaiono riferimenti a una piattaforma chiamata “Alpha…”, all’aggiornamento continuo delle versioni e a una tabella di marcia di lancio per regioni nel corso dell’anno, insieme al tema della certificazione di sicurezza. Il punto divulgativo che si può ricavare è che, per portare l’intelligenza artificiale su un veicolo, serve una combinazione di calcolo a bordo, software di addestramento e validazione, più una capacità di aggiornare nel tempo componenti e modelli come si fa con una piattaforma digitale.

Verso la chiusura, Huang è tornato su un parametro semplice da capire: l’efficienza, collegata a costi e limiti energetici dei data center. Ha spiegato che la capacità di generare token e di addestrare modelli dipende direttamente dal throughput, cioè da quanta elaborazione utile si ottiene per unità di tempo e di energia, e ha usato questo per giustificare la scelta di costruire sistemi sempre più integrati. Il finale ha ribadito l’obiettivo dichiarato: offrire una piattaforma completa, dai chip ai sistemi, così che aziende e sviluppatori possano costruire applicazioni sopra questo strato tecnologico.

L’evento al CES ha messo insieme tre piani che spesso restano separati nelle notizie quotidiane. Il primo piano riguarda l’infrastruttura, con l’idea che l’intelligenza artificiale abbia bisogno di data center e reti progettati come un unico sistema. Il secondo piano riguarda lo sviluppo software, con un’accelerazione verso addestramento, agenti e interfacce più naturali. Il terzo piano riguarda l’uscita dai soli schermi, con robotica, industria e auto come campi in cui simulazione e calcolo diventano parte del prodotto finale. È un quadro ampio, pensato per parlare sia agli addetti ai lavori sia a chi vuole capire perché un keynote di NVIDIA, oggi, parla di chip, fabbriche, auto e modelli nello stesso respiro.