Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

Nel corso dell’intervista a CNBC, Jensen Huang espone una visione basata su dati verificabili, obiettivi chiari e una pianificazione rigorosa. Il tono è razionale, privo di enfasi eccessiva, e si concentra sulla dimostrazione concreta di come l’intelligenza artificiale possa essere sviluppata come un’infrastruttura affidabile e durevole. L’approccio di Huang unisce analisi tecnica e pragmatismo, evidenziando il ruolo di Nvidia come punto di riferimento per l’integrazione tra ricerca scientifica e industria. L’intervista ruota intorno alla visione di Nvidia come azienda che unisce progettazione, produzione e controllo di ogni livello della catena di calcolo. In questo approccio si fondono la visione industriale e quella scientifica, orientate a una stessa finalità: trasformare l’intelligenza artificiale in un’infrastruttura stabile, accessibile e sostenibile nel tempo.

Huang inizia ribadendo che i progressi dipendono dall’integrazione di tutti i componenti del sistema. Per raggiungere risultati misurabili serve un progetto che integri CPU, GPU, reti di comunicazione, switch e software, in un ecosistema uniforme. Il traguardo è ridurre ogni anno il costo di generazione dei token di un fattore compreso tra dieci e venti, come già previsto nel passaggio da Hopper a Blackwell. Descrive il supercomputer per l’intelligenza artificiale come un’unità integrata di calcolo e memoria, il cui valore dipende dall’equilibrio tra velocità, efficienza energetica e continuità di aggiornamento. Insiste sul concetto di controllo end-to-end: solo così, afferma, è possibile migliorare l’efficienza complessiva e mantenere la compatibilità tra le generazioni di chip.

La collaborazione con OpenAI è, in questa prospettiva, un esempio pratico di ciò che definisce architettura completa. Nvidia fornirà sia l’hardware sia interi sistemi operativi e infrastrutturali, permettendo a OpenAI di diventare un hyperscaler autonomo. Huang sottolinea che non esistono clausole di esclusività e spiega che l’obiettivo è favorire l’interconnessione dell’ecosistema. Gli investimenti non sono condizionati all’acquisto di tecnologia Nvidia e seguono un principio più ampio volto ad accelerare la diffusione delle piattaforme compatibili. La collaborazione, così strutturata, diventa un modello replicabile per altri partner, in un mercato che ha bisogno di standard comuni.

Sul tema del finanziamento ai clienti, Huang chiarisce che la partecipazione in società come xAI non ha lo scopo di creare dipendenze commerciali e mira a contribuire alla solidità dell’intero settore. A suo giudizio, il contesto attuale differisce dai cicli precedenti: oggi le grandi aziende del cloud operano con capitali già consolidati e spingono la domanda verso un’espansione pluriennale. Parallelamente, una nuova generazione di imprese di intelligenza artificiale introduce innovazioni di prodotto che aumentano la richiesta di capacità di calcolo e di modelli più potenti. In questo scenario, Nvidia si colloca come fornitore di base infrastrutturale, investendo direttamente in chi costruisce servizi e piattaforme.

Un punto centrale del discorso riguarda la qualità delle applicazioni. Negli ultimi mesi, afferma Huang, la tecnologia ha raggiunto la capacità di eseguire processi di ragionamento, analisi di informazioni e uso autonomo di strumenti. Ciò significa che le risposte prodotte dai sistemi generativi diventano realmente utilizzabili in ambiti professionali e produttivi. Questo cambiamento incide sull’economia del settore: la generazione dei token, un tempo considerata un costo, inizia a produrre valore diretto. L’intelligenza artificiale smette di essere una spesa sperimentale e assume un ruolo stabile nei bilanci delle aziende, con ritorni economici misurabili.

Per chiarire l’impatto sul lavoro quotidiano, Huang cita l’esperienza interna di Nvidia. Tutti gli ingegneri, spiega, utilizzano strumenti di programmazione assistita da intelligenza artificiale, come Cursor. Il risultato è un aumento sensibile della produttività e una riduzione dei tempi di sviluppo. Secondo Huang, l’efficienza dipende sia dalla velocità con cui si scrive il codice sia dalla possibilità di eliminare colli di bottiglia nel processo di revisione. Le aziende che adottano questo tipo di strumenti, aggiunge, ripensano la struttura del lavoro e rendono più accessibile la collaborazione tra team con competenze diverse.

Analizzando la domanda globale, Huang osserva che le richieste di calcolo sono aumentate in modo costante e che l’interesse per Blackwell è superiore a ogni previsione. Interpreta questo dato come un segnale di un nuovo ciclo di costruzione industriale, fondato su applicazioni che richiedono calcolo intensivo e producono risultati economici tangibili. Descrive una fase di crescita strutturale che coinvolge più settori: ricerca, intrattenimento, medicina, design e industria manifatturiera. A suo avviso, la combinazione tra prestazioni e riduzione dei costi renderà possibile l’adozione massiva dei sistemi di intelligenza artificiale entro pochi anni.

Quando affronta il tema della competizione internazionale, Huang mantiene un tono equilibrato. Riconosce che gli Stati Uniti hanno ancora un vantaggio nella progettazione dei chip, mentre la Cina dispone di una posizione forte nella produzione energetica. In infrastrutture e modelli la distanza, spiega, è ormai ridotta. La sua principale preoccupazione riguarda lo strato applicativo, il livello in cui l’intelligenza artificiale entra nei servizi e nelle imprese. È lì che si misura il vero progresso, perché la diffusione determina la competitività. Huang sostiene che gli Stati Uniti devono continuare a guidare la frontiera tecnologica, ma anche garantire che gli sviluppatori globali adottino le piattaforme americane. Per questo, propone una strategia di esportazione equilibrata: mantenere la leadership e, allo stesso tempo, evitare barriere che frenerebbero l’espansione del software statunitense.

Nel suo discorso emerge spesso il tema dell’energia. Huang considera essenziale trattarla come una risorsa da pianificare e integrare nel modello di crescita. Suggerisce di dotare i data center di sistemi di generazione autonoma, basati su gas naturale e, in prospettiva, anche sul nucleare. Questa soluzione, spiega, riduce la dipendenza dalla rete pubblica e accelera i tempi di realizzazione. La produzione diretta consente inoltre di restituire energia in eccesso alla rete, ottimizzando i costi. Secondo Huang, l’efficienza energetica diventa così una leva competitiva e un fattore di sicurezza, perché permette di controllare uno dei principali costi operativi delle infrastrutture di calcolo.

Parlando di persone e organizzazione, Huang descrive un modello aziendale in cui la motivazione viene valutata attraverso la qualità del lavoro svolto e i risultati economici ottenuti. Il suo compito, spiega, è creare le condizioni affinché ogni professionista possa realizzare pienamente il proprio potenziale. L’obiettivo consiste nel creare un ambiente stabile che favorisca la continuità, piuttosto che puntare al profitto immediato. I risultati finanziari derivano, in questa visione, da una combinazione di competenza e fiducia interna. È un modello che si riflette nella cultura di Nvidia, dove la crescita personale è considerata parte integrante del successo aziendale.

L’insieme delle dichiarazioni di Huang compone un quadro coerente. La strategia si basa su piattaforme integrate, collaborazione con partner aperta e non esclusiva, investimenti in aziende innovative, attenzione costante alla variabile energetica e adozione diffusa di strumenti di programmazione assistita. L’obiettivo finale è ridurre progressivamente il costo dell’inferenza, ampliare il numero di casi d’uso sostenibili e trasformare il progresso tecnologico in una pratica industriale stabile.

Nel dialogo con CNBC, Huang conclude che la priorità per i prossimi anni è mantenere il ritmo di miglioramento annuale e garantire che le applicazioni raggiungano una diffusione globale. L’insieme dei fattori che descrive: calo dei costi, coerenza dell’architettura, disponibilità di strumenti, efficienza energetica e coinvolgimento delle persone; delinea un percorso realistico per consolidare l’infrastruttura dell’intelligenza artificiale come parte integrante dell’economia mondiale.