Il keynote di NVIDIA alla GTC di Washington, guidato dal CEO Jensen Huang, si è concentrato sull’evoluzione del calcolo verso modelli accelerati e sull’intelligenza artificiale come risorsa strategica per la competitività degli USA. L’intervento ha tracciato una linea chiara tra passato e futuro del settore tecnologico statunitense, raccontando come il calcolo ad alte prestazioni e la produzione su suolo americano possano sostenere innovazione, sicurezza della filiera e leadership globale. Huang ha collocato l’evento nel contesto di una trasformazione industriale che interessa laboratori scientifici, imprese private, telecomunicazioni e infrastrutture pubbliche. Ha respinto l’idea che si tratti di una bolla tecnologica, sostenendo che la domanda nei vari settori cresce con basi strutturali e che il ciclo di investimenti si trova nella sua fase iniziale, con effetti destinati a rafforzarsi nei prossimi anni.
Il cuore tecnologico della presentazione ha riguardato l’accelerated computing basato su CUDA e sulle librerie CUDA-X. Huang ha illustrato la maturità raggiunta da questo ecosistema e ha proposto esempi concreti in campi essenziali come imaging medico, progettazione elettronica avanzata, simulazione di sistemi energetici e manutenzione predittiva per l’industria. Il messaggio principale è stato che la disponibilità di librerie specializzate permette agli sviluppatori di integrare la potenza delle GPU nelle applicazioni esistenti, riducendo il tempo di esecuzione e migliorando l’efficienza dei processi. È stata evidenziata l’importanza di una piattaforma unificata che consenta agli attori economici di sfruttare i progressi dell’intelligenza artificiale attraverso strumenti già pronti, accelerando il trasferimento tecnologico.
Nel segmento dedicato alle telecomunicazioni, NVIDIA ha introdotto ARC, presentato come un sistema software-defined in grado di integrare funzioni radio e modelli di AI in un unico blocco computazionale. La collaborazione con Nokia diventa il primo passo per l’adozione di ARC nelle reti di nuova generazione. Il sistema, costruito sull’architettura Grace-Blackwell, consente un’elaborazione più rapida del segnale radio e un uso più efficiente delle risorse spettrali. La compatibilità con le stazioni base già installate e l’investimento diretto nella crescita di Nokia sono stati interpretati come un impegno verso una transizione ordinata all’era 6G, nella quale i modelli di intelligenza artificiale contribuiranno in modo centrale all’ottimizzazione delle reti.
Il blocco riservato al calcolo quantistico ha mostrato la volontà di unire mondi finora distinti. La presentazione di NVQLink, integrato nella piattaforma CUDA-Q, introduce un collegamento diretto tra processori quantistici e GPU, pensato per ridurre la latenza nelle operazioni congiunte e per rendere possibile la correzione d’errore in modo più efficace. Sono stati annunciati numerosi partner del settore quantistico e l’adesione di punti nevralgici della ricerca statunitense, tra cui otto laboratori del Dipartimento dell’Energia. L’idea di fondo è portare i vantaggi del calcolo ibrido in contesti dove la mole di dati e la complessità computazionale richiedono già oggi soluzioni miste.
A completamento della visione quantistica, il Dipartimento dell’Energia ha scelto NVIDIA come partner per la realizzazione di sette nuovi supercomputer dedicati all’intelligenza artificiale. Queste macchine saranno usate nella ricerca avanzata, nella modellazione dei fenomeni fisici e nell’esplorazione di tecniche che combinano simulazioni numeriche e modelli generativi. Si tratta di una scelta strategica che lega la competitività scientifica alle capacità produttive e architetturali sviluppate da NVIDIA e rientra in un insieme più ampio di collaborazioni istituzionali che include una pipeline ordini di chip AI nell’ordine di circa cinquecento miliardi di dollari.
La parte centrale del keynote ha posto attenzione sull’extreme co-design, un approccio nel quale processori CPU, GPU, sistemi di memoria, reti di interconnessione e software vengono progettati nello stesso ciclo di sviluppo. Il risultato viene rappresentato da Grace Blackwell NVL72, un sistema costruito per funzionare come un unico grande acceleratore distribuito a livello di rack, grazie al collegamento tramite NVLink Switch. Huang ha mostrato la complessità ingegneristica dell’apparecchiatura, illustrando come l’integrazione del raffreddamento a liquido e di oltre un milione di componenti renda possibile una densità computazionale senza precedenti. È stata rivolta attenzione anche al ritmo di innovazione, presentato come annuale e sostenuto da una collaborazione continua con fornitori e partner tecnologici.
Sul fronte produttivo è stato ribadito il ritorno di molte fasi della fabbricazione negli Stati Uniti. Wafer provenienti da Arizona e Indiana, assemblaggi realizzati in Texas e California e linee di messa in sistema vicine ai grandi poli industriali: questa organizzazione viene illustrata come una struttura capace di rafforzare la resilienza della supply chain e di fornire tempi di consegna più rapidi. Il richiamo alla produzione locale mira anche a sottolineare la capacità del Paese di costruire infrastrutture critiche senza dipendenze eccessive da altri attori globali.
La domanda per i nuovi sistemi è stata quantificata con previsioni di adozione robuste nel prossimo biennio. Huang ha chiarito che il ciclo di Grace-Blackwell mostra un’accelerazione più forte rispetto al lancio di Hopper e che gli ordini in pipeline coprono già più generazioni dell’architettura. Secondo la narrazione sul palco, questa crescita dipende dalla necessità delle aziende di ridurre i costi di addestramento dei modelli e dalla volontà del settore cloud di espandere la capacità computazionale per sostenere servizi dedicati al pubblico e alle imprese.
Lo sviluppo software è stato affiancato dalla presentazione di Omniverse DSX, descritto come un ambiente completo per progettare, simulare e implementare data center dedicati all’intelligenza artificiale. Attraverso la creazione di digital twin, viene reso possibile studiare anticipo la resa energetica, il comportamento termico e i flussi di lavoro operativi. L’obiettivo è ridurre i rischi nei grandi investimenti infrastrutturali e accelerare la messa in funzione degli impianti.
Il keynote ha dedicato attenzione ai modelli open e alla loro crescita qualitativa. Huang ha evidenziato il progresso in termini di ragionamento, comprensione multimodale e ottimizzazione attraverso la distillazione, chiarendo che la vera differenza viene data dall’integrazione nei processi produttivi e dai risultati verificabili nei vari settori.
Nella parte finale dell’intervento è stato affrontato il tema della Physical AI. NVIDIA ha presentato una divisione del lavoro computazionale in tre ambienti coerenti: il training su larga scala in data center equipaggiati con GB200 e NVL72, la simulazione realizzata in Omniverse con la creazione di ambienti virtuali e il controllo dei robot e dei veicoli tramite sistemi embedded della famiglia Jetson e Thor. È stata citata la collaborazione con Foxconn come esempio operativo, dove la progettazione di una fabbrica e la formazione delle flotte robotiche avvengono prima nel mondo digitale.
Nel campo della mobilità è stato presentato Drive Hyperion, una piattaforma hardware e software utile per lo sviluppo di veicoli autonomi e robotaxi. L’annuncio della collaborazione con Uber indica una crescente convergenza tra aziende tecnologiche e operatori della mobilità, con l’obiettivo dichiarato di avviare dal 2027 una rete di robotaxi che punti a raggiungere inizialmente centomila veicoli. Accanto a questa intesa, sono stati citati accordi con costruttori come Stellantis, Lucid e Mercedes‑Benz, a conferma di un coinvolgimento diretto del settore automobilistico.
Il keynote ha dipinto un quadro in cui calcolo avanzato, produzione industriale, ricerca scientifica e applicazioni robotiche condividono un’unica infrastruttura tecnologica. Secondo quanto sostenuto sul palco, la combinazione tra hardware e software di NVIDIA costituisce oggi una base solida su cui costruire sistemi produttivi più efficienti e servizi più evoluti, in grado di rispondere alla crescente domanda di intelligenza artificiale nelle aziende, nelle istituzioni e nella vita quotidiana. La reazione dei mercati finanziari dopo il keynote ha mostrato un forte interesse degli investitori, con il titolo NVIDIA in rialzo e una capitalizzazione avvicinata all’area dei cinquemila miliardi di dollari, sostenuta da volumi elevati di scambio nelle ore successive alla presentazione.

