Skip to content Skip to footer
Contenuto sviluppato con intelligenza artificiale, ideato e revisionato da redattori umani.
···

OpenAI e Broadcom hanno annunciato una collaborazione focalizzata sulla progettazione di chip su misura e di un sistema completo pensato per i carichi di lavoro di OpenAI. Sam Altman e Greg Brockman, insieme a Hock Tan e Charlie Kawwas, confermano che il progetto riguarda sia il silicio sia l’infrastruttura di rack e rete, con distribuzioni iniziali previste dalla fine del prossimo anno e una rampa rapida nei tre successivi. L’azienda indica una fase di lavoro congiunto già avviata da circa diciotto mesi.

Il punto centrale è l’integrazione verticale: dal livello del transistor fino al token erogato ai prodotti dell’utente finale. L’obiettivo è ottenere guadagni di efficienza che si traducano in modelli più veloci, costi più bassi e capacità disponibile su scala maggiore. La domanda attesa per servizi come ChatGPT e Sora cresce più rapidamente delle ottimizzazioni ottenute, motivo per cui OpenAI dichiara la necessità di espandere in modo deciso la capacità di calcolo.

Sul piano tecnico Broadcom parla di una famiglia di acceleratori “XPU” costruiti con più die affiancati e, in prospettiva, impilati in 3D, con step successivi che prevedono l’integrazione ottica. Nel podcast viene citato uno switch integrato da 100 terabit al secondo come traguardo di riferimento per la scalabilità dei cluster. La progettazione differenzia in modo esplicito le esigenze dell’addestramento da quelle dell’inferenza: per il training contano potenza di calcolo e rete, per l’inferenza diventano decisivi memoria e accessi alla memoria.

OpenAI chiarisce che userà il proprio modello anche nella fase di co-progettazione del chip per comprimere le aree dei blocchi e accelerare le tabelle di marcia. L’azienda descrive riduzioni di area ottenute automatizzando ottimizzazioni che i progettisti umani avevano già in lista ma che avrebbero richiesto settimane di lavoro, un approccio che punta a ridurre i tempi tra una revisione e l’altra del silicio.

La scala dell’infrastruttura prevista è esplicita. Altman parla di un primo dispiegamento di 10 gigawatt aggiuntivi di rack e sistemi, oltre a quanto già in corso con altri partner. Nel riepilogo degli ultimi anni ricorda cluster iniziali nell’ordine dei megawatt e una traiettoria che porta OpenAI a chiudere l’anno poco sopra i 2 gigawatt, con nuovi accordi che possono avvicinare l’asticella ai 30 gigawatt. La stima viene collegata a un consumo potenziale elevato: l’azienda valuta che 2 gigawatt siano bastati per gestire circa il 10% della popolazione mondiale su ChatGPT, insieme alla ricerca, all’API e a Sora, e che capacità superiori verrebbero assorbite rapidamente.

Il quadro storico e industriale che emerge dal dialogo la colloca tra le grandi iniziative congiunte di infrastruttura. Altman parla del build-out della computazione per l’intelligenza artificiale come un progetto industriale collettivo che coinvolge molte aziende, paesi e filiere, con data center dell’ordine del gigawatt paragonati a piccole città per complessità. In questo contesto Broadcom sottolinea l’utilità di standard più aperti utili all’ecosistema, per sostenere una diffusione che punta a un’utenza globale.

Le GPU restano parte essenziale dell’infrastruttura. OpenAI esprime apprezzamento per l’evoluzione delle architetture grafiche di fornitori come NVIDIA e AMD e, allo stesso tempo, colloca i sistemi personalizzati come strumenti adatti a spingere efficienza e prestazioni su workload specifici. L’idea di fondo è assegnare a ciascun livello della piattaforma il ruolo in cui rende meglio, dalla ricerca all’addestramento fino all’inferenza, con una composizione modulare che potrà includere acceleratori mirati per scenari differenti.

La prospettiva di prodotto riguarda la velocità di erogazione e il prezzo per token nelle applicazioni pubbliche e aziendali. Brockman cita l’evoluzione dalle funzioni interattive a quelle agentiche, con attività svolte in background e personalizzazione crescente. Oggi queste funzioni sono disponibili in modo selettivo per ragioni di capacità; l’obiettivo è estenderle rendendo l’agente sempre più accessibile. Nel frattempo, esempi come la crescita di Codex mostrano come l’aumento di qualità e continuità operativa dei modelli espanda l’uso nei flussi di lavoro quotidiani, dal codice all’automazione d’impresa fino alla generazione video.

Il cuore del messaggio è la ricerca di abbondanza di calcolo come condizione per sbloccare nuove funzioni e una diffusione più ampia. OpenAI e Broadcom inquadrano il progetto come percorso pluriennale che procede per iterazioni, dal silicio alla rete, per migliorare il rapporto tra capacità del modello e consumo energetico e per spingere una piattaforma hardware-software coerente con i carichi reali dell’inferenza e dell’addestramento. La tempistica indicata è fine 2026 per le prime distribuzioni e un incremento rapido nei tre anni successivi.