
Quest’opera contiene in larga parte contenuti generati dall’intelligenza artificiale. L’intervento umano è stato centrale nell’organizzazione degli argomenti, nella revisione e nella cura del prodotto finale. Edizione 1.0 © 2025
Introduzione
Nell’arco di un decennio, un piccolo laboratorio di ricerca sull’intelligenza artificiale nato con aspirazioni idealistiche è divenuto uno dei protagonisti assoluti della tecnologia mondiale. OpenAI, fondata nel 2015 come organizzazione senza fini di lucro, ha attraversato trasformazioni profonde: da progetto filantropico a società “ibrida” sostenuta da miliardi di dollari, da gruppo di ricercatori visionari a colosso capace di plasmare il mercato e l’immaginario collettivo. La sua storia è punteggiata di successi scientifici rivoluzionari – come i modelli linguistici GPT e le immagini generate da DALL·E – e di svolte strategiche controverse, inclusa una clamorosa crisi di governance interna. Figure di primo piano della Silicon Valley hanno intrecciato il proprio destino con quello di OpenAI, tra entusiasmi e tensioni: Elon Musk, Sam Altman, Greg Brockman, Ilya Sutskever sono alcuni dei nomi che ricorrono in questa vicenda. Nel ripercorrere la traiettoria di OpenAI dagli esordi ad oggi, si alternano l’impegno per un’AI benefica e i compromessi imposti dalla realtà, l’innovazione fulminante e le preoccupazioni etiche. Questo saggio racconta la nascita e l’evoluzione di OpenAI con il rigore del resoconto documentato e il tono avvincente di una narrazione, illuminando tanto le conquiste quanto le ombre di un’impresa che sta ridefinendo il nostro futuro tecnologico.
Fondazione di OpenAI: un ideale no‑profit
OpenAI nasce ufficialmente a San Francisco nel dicembre 2015 come organizzazione di ricerca no‑profit dedicata all’intelligenza artificiale. L’annuncio al mondo, pubblicato l’11 dicembre 2015, delineava una missione ambiziosa e altruistica: “far progredire l’intelligenza digitale nel modo più propizio a beneficio dell’umanità nel suo complesso, non vincolati dalla necessità di generare un profitto finanziario”. In altre parole, i fondatori volevano creare un istituto di ricerca libero dalle pressioni commerciali, in grado di concentrarsi sullo sviluppo di un’Intelligenza Artificiale Generale sicura e utile per tutti. Si trattava di una risposta diretta alle crescenti preoccupazioni che la potenza dell’AI potesse essere monopolizzata da pochi attori corporate o sfuggire a considerazioni etiche. “Crediamo che l’AI debba essere un’estensione della volontà individuale umana e, nello spirito della libertà, distribuita il più ampiamente e uniformemente possibile”, affermavano gli iniziatori di OpenAI nello stesso comunicato.
A dare vita a questa visione fu un gruppo eterogeneo di imprenditori e ricercatori di spicco. Sam Altman, allora presidente dell’incubatore Y Combinator, e Elon Musk, il celebre CEO di Tesla e SpaceX, figuravano come co-presidenti di OpenAI fin dalla fondazione. Insieme a loro c’erano Greg Brockman, ex CTO di Stripe, nominato CTO di OpenAI, e Ilya Sutskever, uno dei più brillanti scienziati nel campo del deep learning proveniente da Google, scelto come direttore di ricerca. Il nucleo originario comprendeva anche ricercatori di talento come John Schulman, Wojciech Zaremba, Trevor Blackwell, Vicki Cheung, Andrej Karpathy, Durk Kingma e Pamela Vagata, mentre figure eminenti quali Yoshua Bengio, Alan Kay e Peter Thiel fungevano da consulenti.
Fin dall’inizio, OpenAI poté contare sul sostegno finanziario di alcuni dei nomi più altisonanti della Silicon Valley. A dicembre 2015 venne annunciato un impegno di 1 miliardo di dollari a sostegno del progetto, con contributi promessi da Musk, Altman, Brockman, Jessica Livingston, Peter Thiel, Amazon Web Services, Infosys e il fondo YC Research. In realtà, tale cifra era una promessa di finanziamento a lungo termine: nei primi anni, le donazioni effettivamente raccolte furono molto inferiori. Un’indagine successiva ha rivelato che, entro il 2019, OpenAI aveva ricevuto in totale circa 130 milioni di dollari in contributi, di cui meno di 45 milioni provenienti da Elon Musk. Fu lo stesso Musk, peraltro, a spingere inizialmente per annunciare un impegno da un miliardo: in una email del 2015 suggerì a Sam Altman e Greg Brockman di “sparare a una cifra molto più alta di 100 milioni” per non sembrare poco ambiziosi, arrivando a dire “coprirò io quello che gli altri non forniranno”. Questa generosità dichiarata rispecchiava l’interesse di Musk affinché l’AI non “prendesse una cattiva strada” in stile Skynet, la minacciosa AI di Terminator, come commentarono i media all’epoca.
Nei suoi primi passi, OpenAI incarnava dunque un’etica open-source e collaborativa. La neonata organizzazione affermò che avrebbe “collaborato liberamente” con altre istituzioni e ricercatori, pubblicando il più possibile delle proprie scoperte. L’idea era che l’avanzamento dell’AI fosse troppo importante per essere chiuso in laboratorio: meglio condividere i progressi, così che l’umanità nel suo insieme potesse beneficiarne e al contempo monitorarne lo sviluppo. Questo approccio aperto e trasparente era considerato essenziale per guadagnare la fiducia della comunità scientifica e mitigare i rischi: se tutti potessero esaminare e utilizzare i risultati di OpenAI, meno probabilmente l’AI sarebbe sfuggita di mano a pochi attori.
Nei primi anni, OpenAI si concentrò su ricerca pura e su tool a disposizione della comunità. Nel 2016 pubblicò OpenAI Gym, una piattaforma open-source per lo sviluppo di algoritmi di apprendimento per rinforzo, e Universe, un ambiente per addestrare agenti di AI su giochi e applicazioni. Questi primi progetti riflettevano la natura non commerciale dell’organizzazione e la volontà di fornire “beni pubblici” all’ecosistema dell’AI. Altman e colleghi espressero anche posizioni filosofiche importanti: all’inizio del 2018 OpenAI pubblicò il proprio Charter, un documento programmatico che sanciva principi come la sicurezza a lungo termine (impegno a rendere sicura l’AGI) e la cooperazione (impegno a collaborare con altri attori). In particolare, il Charter dichiarava che se un’altra squadra di ricerca allineata nei valori fosse stata sul punto di raggiungere l’AGI, OpenAI avrebbe sospeso la competizione per aiutarla, onde evitare corse pericolose senza adeguate precauzioni. All’epoca, un simile impegno appariva quasi utopico e confermava la natura non convenzionale di OpenAI nel panorama delle aziende tech.
I protagonisti dietro la visione
Alla base della nascita e della crescita di OpenAI vi sono alcune personalità di spicco, ciascuna con motivazioni e ruoli specifici, che hanno orientato la rotta dell’organizzazione. Comprendere chi sono questi protagonisti aiuta a illuminare le decisioni chiave prese lungo il cammino.
Elon Musk – Figura già mitica dell’innovazione tecnologica, co-fondatore di PayPal e CEO di Tesla e SpaceX, Musk fu tra i promotori iniziali di OpenAI. Preoccupato dai potenziali rischi di un’AI fuori controllo (più volte aveva evocato lo scenario di “superintelligenze pericolose”), Musk vide in OpenAI un baluardo per garantire che l’AI avanzata venisse sviluppata in modo trasparente e sicuro. Mise sul piatto finanziamenti significativi e il proprio prestigio, assumendo il ruolo di co-presidente al momento della fondazione. Nei primi anni partecipò attivamente alle strategie, spingendo per obiettivi ambiziosi – fu suo l’input di annunciare un fondo da 1 miliardo, come visto – e portando in dote la sua visione “cosmica”. Tuttavia, il coinvolgimento di Musk in OpenAI sarebbe stato di breve durata: divergenze strategiche lo avrebbero portato ad allontanarsi entro pochi anni (come vedremo, nel 2018 Musk lasciò ogni incarico operativo in OpenAI). Ciò nonostante, la sua influenza iniziale fu determinante nel dare credibilità e slancio al progetto. Musk incarnava la tensione tra paura e speranza sull’AI: da un lato temeva scenari distopici, dall’altro investiva per guidarne lo sviluppo virtuoso.
Sam Altman – Meno noto al grande pubblico rispetto a Musk (almeno all’epoca della fondazione), Sam Altman era già una figura di spicco nella Silicon Valley come presidente di Y Combinator, uno degli incubatori di startup più importanti al mondo. Giovane e brillante, Altman fu nominato co-chair di OpenAI insieme a Musk e divenne presto il punto di riferimento operativo dell’organizzazione. Mentre Musk portava una visione apocalittica sull’AI, Altman apportava pragmatismo e capacità manageriali. Era convinto sostenitore che l’AGI – un’AI in grado di eguagliare e superare l’intelligenza umana in molti compiti – potesse trasformare radicalmente la società, e riteneva fondamentale che tale trasformazione fosse guidata da un ente con fini benefici. Col tempo, Altman avrebbe assunto il ruolo di CEO di OpenAI, guidandone la transizione da semplice laboratorio no-profit a attore di mercato, senza mai abbandonare ufficialmente la retorica della missione per il bene dell’umanità. Dotato di doti diplomatiche, Altman fu spesso il volto pubblico di OpenAI: ha tessuto alleanze (in primis con Microsoft), tenuto discorsi e testimonianze davanti ai governi e saputo navigare le acque agitate di una comunità scientifica a volte critica verso OpenAI. Il suo nome è legato indissolubilmente ai successi più clamorosi dell’azienda, ma anche alla grande crisi interna del 2023 che lo ha visto protagonista.
Greg Brockman – Meno appariscente mediaticamente, Brockman è tuttavia uno dei pilastri tecnici di OpenAI sin dagli inizi. Ex direttore tecnico (CTO) della startup di pagamenti Stripe, che aveva lasciato giovanissimo, Greg Brockman portò in OpenAI le sue competenze ingegneristiche e organizzative. Fu nominato CTO di OpenAI già al momento del lancio nel 2015 e successivamente ha ricoperto il ruolo di presidente. Brockman è stato descritto come il “motore” tecnico: sotto la sua supervisione sono stati sviluppati i primi codici, le infrastrutture di calcolo, e si è formato il team di ricerca e ingegneria che avrebbe sfornato i vari GPT, DALL·E e altre invenzioni. Non avendo la stessa notorietà di Musk o Altman, Brockman operava più dietro le quinte, ma la sua importanza interna era cruciale. È noto per aver promosso una cultura “hackers & painters” in OpenAI, attraendo talenti e assicurando standard elevati di progettazione. Brockman fu anche colui che, nei momenti di crisi, cercò di tenere unito il team: ad esempio, quando nel 2023 Altman venne estromesso, Brockman lasciò il board in segno di protesta e si schierò dalla parte dei dipendenti, a testimonianza della sua lealtà verso la visione originaria e verso Altman. La sua presenza ha garantito continuità tecnica anche nelle fasi di transizione.
Ilya Sutskever – Se Altman è stato l’architetto strategico e Brockman il costruttore, Ilya Sutskever può essere considerato la mente scientifica di OpenAI. Classe 1985, di origini russe, Sutskever si era già affermato nel mondo dell’AI prima di unirsi a OpenAI: è co-autore di alcuni dei lavori fondamentali nel deep learning (tra cui ricerche pionieristiche sulle reti neurali profonde e il famoso algoritmo Seq2Seq per il machine translation). Nel 2015 era ricercatore al Google Brain team; accettò di diventare co-fondatore e chief scientist di OpenAI, attratto dalla missione altruistica. Sutskever ha guidato o supervisionato lo sviluppo dei modelli chiave di OpenAI: era nel team che addestrò GPT-2 e GPT-3, ed è stato un riferimento costante per la direzione della ricerca. Il suo contributo intellettuale è immenso: possiede una conoscenza tecnica profonda e una passione quasi filosofica per l’idea di AGI. È noto che Sutskever, nei primi tempi, sostenesse l’importanza di condividere apertamente i risultati, ma anche lui riconobbe presto che a un certo punto la cautela sarebbe stata necessaria. Infatti, già nel 2018, Sutskever spiegò a Musk che “man mano che ci avvicineremo a costruire un’AI avanzata, sarà sensato essere meno aperti“. La parola ‘Open’ in OpenAI significa che tutti dovrebbero beneficiare dei frutti dell’AI una volta che sarà costruita, ma è totalmente accettabile non condividere ogni dettaglio scientifico…”. Questo scambio (a cui Musk rispose: “Già”) mostra come Sutskever fosse conscio del dilemma tra apertura e sicurezza. Figura schiva e assorta, Ilya fu coinvolto suo malgrado nella controversia del 2023 quando, da membro del consiglio, partecipò alla decisione di licenziare Altman. In seguito dichiarò pubblicamente il suo profondo rammarico per quell’azione, prima di lasciare la compagnia nel 2024. La parabola di Sutskever riflette quella di OpenAI stessa: grandi traguardi scientifici intrecciati a difficili scelte etiche e personali.
Accanto a questi quattro protagonisti principali, altri individui hanno giocato ruoli importanti nella storia di OpenAI. Trevor Blackwell e gli altri co-fondatori tecnici aiutarono ad avviare i primi progetti; Reid Hoffman (co-fondatore di LinkedIn) sostenne finanziariamente OpenAI e intervenne in momenti critici (si dice che abbia coperto lui certe mancanze di cassa quando Musk ritirò il supporto); Mira Murati, ingegnera proveniente da Tesla, entrò in OpenAI guidando i progetti di hardware e divenne poi CTO nel 2019, contribuendo allo sviluppo di sistemi come DALL·E e ChatGPT; Dario Amodei, vice presidente di ricerca, fu un altro talento che però lasciò OpenAI nel 2020 per fondare una sua startup (Anthropic) orientata in modo diverso sulla sicurezza dell’AI. Ma in definitiva, la traiettoria di OpenAI è stata dettata in larga misura dalle visioni e dalle scelte di Altman, Musk, Brockman e Sutskever – a volte concordi, a volte in conflitto – nel tentativo di guidare l’AI verso un futuro migliore.
Dall’utopia iniziale ai primi cambi di rotta
Nei primi anni di attività (2016-2017), OpenAI operò come da progetto originario: un laboratorio di ricerca agile, finanziato da donazioni, che pubblicava articoli scientifici di alto profilo e rilasciava software open-source. Tra gli avanzamenti notevoli vi furono algoritmi di apprendimento per rinforzo in grado di battere record in giochi elettronici e progressi nella robotica (OpenAI sviluppò un sistema, chiamato Dactyl, capace di far risolvere ad una mano robotica un cubo di Rubik). Il tutto senza generare alcun profitto: le spese erano coperte dai fondi raccolti e dall’infrastruttura messa a disposizione (ad esempio, inizialmente OpenAI affittava potenza di calcolo da provider cloud e sfruttava supercomputer per addestrare i modelli). L’obiettivo dichiarato di lungo termine restava la creazione di un’AGI sicura e “distribuita il più ampiamente possibile”, ma ci si attendeva un percorso graduale, fatto di ricerca fondamentale e collaborazione aperta.
Tuttavia, con il crescere delle ambizioni scientifiche emersero presto alcune sfide concrete. Addestrare modelli di intelligenza artificiale sempre più grandi e complessi richiedeva risorse computazionali enormi, e di conseguenza investimenti finanziari ben superiori a quanto inizialmente preventivato. Come ha ricordato in seguito lo stesso team di OpenAI, intorno al 2017 divenne chiaro che per puntare seriamente all’AGI sarebbero serviti “quantità di calcolo vastissime”, e si iniziò a stimare che avrebbero potuto occorrere “miliardi di dollari all’anno”, cifre impossibili da raccogliere tramite sole donazioni filantropiche. In parallelo, il panorama competitivo stava cambiando: colossi come Google (con il suo laboratorio DeepMind) e Facebook investivano somme ingenti in progetti di AI avanzata. OpenAI, pur con tutti i suoi talenti, rischiava di rimanere indietro se non avesse trovato il modo di crescere rapidamente in scala.
Queste pressioni portarono a cambiamenti di visione interni. Il punto di svolta si manifestò su due fronti: il modello organizzativo/finanziario e l’approccio alla condivisione dei risultati. Sul primo fronte, nel corso del 2017 si accesero discussioni tra i co-fondatori su come reperire nuovi capitali senza tradire la missione originaria. Fu in questo contesto che Elon Musk, uno dei maggiori sponsor, propose soluzioni drastiche: Musk iniziò a sostenere la necessità di trasformare OpenAI in un’entità for-profit oppure addirittura di integrarla in una delle sue aziende. Secondo ricostruzioni emerse successivamente, a fine 2017 Musk suggerì che OpenAI venisse assorbita da Tesla, di cui avrebbe potuto diventare la divisione AI, beneficiando delle immense risorse economiche dell’azienda automobilistica. In alternativa, Musk si dichiarò disposto a continuare a finanziare OpenAI personalmente, ma chiedeva in cambio controllo e leadership: voleva assumere il ruolo di CEO dell’organizzazione for-profit che sarebbe nata e detenere la maggioranza del capitale e del consiglio di amministrazione.
Queste proposte crearono attrito con gli altri fondatori, che temevano potessero snaturare OpenAI. Altman, Brockman e gli altri ritenevano contrario alla missione cedere il controllo assoluto a un individuo – fosse pure Musk – e preferivano mantenere un’autonomia decisionale guidata dall’interesse per il beneficio comune. Le trattative interne con Musk si fecero tese. Nel mezzo di tali discussioni, Musk sospese le promesse di finanziamento che ancora doveva onorare, lasciando intendere che senza un cambiamento strutturale non avrebbe messo altri soldi. Questo generò anche un problema immediato di cassa: di fatto Musk non versò ulteriori fondi oltre a quelli già elargiti (in totale meno di 45 milioni, come detto), e OpenAI si trovò a corto di liquidità. Fu grazie all’intervento di investitori amici – tra cui Reid Hoffman – che vennero coperti temporaneamente i costi operativi per non far rallentare i progetti.
Alla fine, nel febbraio 2018, la frattura divenne insanabile. Musk lasciò ufficialmente il consiglio di OpenAI e si defilò dall’organizzazione, dichiarando che serviva “un concorrente credibile a Google/DeepMind” e che avrebbe provato a crearlo lui stesso, alludendo a Tesla o ad altre iniziative. Salutando il team, Musk espresse scetticismo sulle chance di successo di OpenAI senza investimenti massicci, e incoraggiò gli ex colleghi a trovare “la propria strada” per raccogliere capitali. In una email di fine 2018 inviò persino un monito: “Raccogliere anche qualche centinaio di milioni non basterà. Servono miliardi all’anno immediatamente, altrimenti lasciate perdere”. Queste parole, pur dure, riflettevano la convinzione di Musk che la sfida dell’AGI fosse di scala industriale. Da parte sua, Musk si sarebbe poi concentrato sull’AI applicata alle auto (con Tesla) e anni dopo avrebbe fondato una nuova società di AI (xAI) con obiettivi simili, ma il suo capitolo in OpenAI era chiuso.
L’uscita di Elon Musk – per alcuni versi il “patrono” originale del progetto – segnò la fine dell’innocenza per OpenAI. Rimasti senza il suo supporto finanziario e senza la sua figura carismatica, Altman e soci dovettero ripensare a fondo il modello operativo. La soluzione, maturata nei mesi successivi, fu una strutturazione ibrida: conservare un’organizzazione non-profit alla guida, ma istituire una società controllata di tipo for-profit in grado di attrarre investimenti esterni remunerativi. Nel 2019 OpenAI annunciò pubblicamente questa transizione: nacque OpenAI LP, una società “a profitto limitato” (in inglese capped-profit) progettata per conciliare la necessità di capitali con la missione etica. In base a questo modello, gli investitori avrebbero potuto ottenere al massimo un ritorno di 100 volte il capitale investito, dopodiché gli eventuali profitti in eccesso sarebbero tornati sotto controllo del ramo non-profit. L’idea del profitto limitato era innovativa e un po’ arzigogolata, ma serviva a tranquillizzare: OpenAI assicurava di non voler diventare una corporation qualunque votata al profitto illimitato, ma al contempo apriva la porta ai venture capital e agli incentivi azionari per i dipendenti. In pratica, OpenAI LP poteva emettere quote e distribuirle a chi metteva soldi o a chi lavorava al progetto, consentendo di raccogliere ingenti somme. La non-profit originaria (ribattezzata OpenAI Inc.) restava proprietaria di maggioranza e custode della missione, con potere di veto su certe decisioni cruciali.
Parallelamente a questa evoluzione strutturale, vi fu un cambio di rotta anche sul piano della trasparenza e condivisione dei risultati scientifici. Col progredire delle ricerche, i dirigenti di OpenAI iniziarono a porsi limiti su quanto fosse prudente divulgare apertamente. Un episodio emblematico avvenne nel febbraio 2019, quando OpenAI presentò GPT-2, un nuovo modello generativo di linguaggio. GPT-2 era straordinariamente abile nel produrre testi coerenti e prolungati a partire da un breve prompt – tanto abile che il team dichiarò di essere preoccupato dei possibili abusi. Invece di rilasciare subito al pubblico l’intero modello (come sarebbe stato nello spirito “open”), OpenAI annunciò che avrebbe reso inizialmente disponibile solo una versione ridotta di GPT-2, trattenendo il modello completo da 1,5 miliardi di parametri per timore che potesse essere usato per creare fake news credibili, spam automatico o altri contenuti manipolativi. Questa decisione fu motivata esplicitamente richiamando il Charter di OpenAI, secondo cui “le preoccupazioni di sicurezza potrebbero ridurre le nostre pubblicazioni tradizionali in futuro”. Pur in buona fede, la mossa scatenò critiche immediate da parte di alcuni esponenti della comunità: su Twitter diversi ricercatori accusarono OpenAI di star diventando “meno aperta” e di fare l’opposto di ciò che il nome prometteva, cioè di chiudere il codice invece di condividerlo. L’azienda ribatté che stava cercando di agire responsabilmente, inaugurando un “nuovo standard etico” di prudenza nell’era delle AI potenti, e dopo qualche mese – non riscontrando particolari abusi da parte dei modelli minori diffusi – finì per pubblicare anche la versione integrale di GPT-2. Ma il segnale era ormai chiaro: OpenAI non era più la romantica non-profit che apriva tutto a tutti, era diventata un attore più guardingo e strategico, disposto anche a deludere gli ideali originari in nome di una cautela (o, secondo alcuni detrattori, di un calcolo competitivo) ritenuta necessaria.
In sintesi, tra il 2018 e il 2019 OpenAI attraversò una metamorfosi: perse per strada un co-fondatore ingombrante (Musk) ma guadagnò l’opportunità di trovare finanziamenti ingenti altrove; ridimensionò l’utopia della totale apertura in favore di un pragmatismo focalizzato sulla sicurezza e sul consolidamento interno. Sam Altman, Greg Brockman e Ilya Sutskever – rimasti al timone – erano ora chiamati a un duplice compito: mantenere accesa la fiamma della missione benefica, convincendo ricercatori e opinione pubblica della propria serietà etica, e al tempo stesso competere nel mondo reale dell’industria tecnologica, assicurandosi capitali, talenti e vantaggi sui rivali. Il passo successivo fu trovare un partner disposto a scommettere sull’AI di OpenAI con il portafoglio aperto: partner che arrivò presto nella forma di un colosso di Redmond.
L’alleanza con Microsoft: miliardi per l’AI e l’AGI
A metà 2019, OpenAI trovò il sostegno finanziario di cui aveva bisogno stringendo una partnership storica con Microsoft. Il 22 luglio 2019, con un annuncio congiunto, venne reso noto che Microsoft avrebbe investito 1 miliardo di dollari in OpenAI. Si trattava del primo grande investimento esterno dalla creazione della nuova struttura for-profit, e proveniva da uno dei giganti tech più solidi al mondo. L’accordo andava oltre la semplice iniezione di denaro: sanciva una collaborazione strategica di ampio respiro. In base ai termini divulgati, OpenAI e Microsoft avrebbero lavorato assieme per sviluppare tecnologie di supercalcolo su Azure – la piattaforma cloud di Microsoft – necessarie ad addestrare sistemi di AI avanzata, puntando in ultima analisi all’AGI. Microsoft sarebbe diventato il fornitore cloud esclusivo di OpenAI, ovvero l’infrastruttura su cui sarebbero girati tutti gli esperimenti e i servizi di intelligenza artificiale di OpenAI. L’alleanza prevedeva anche che le due entità co-sviluppassero nuovi hardware e software di calcolo accelerato per l’AI su misura delle esigenze di OpenAI. In pratica, Microsoft mise a disposizione non solo soldi liquidi ma anche crediti computazionali e competenze tecniche, integrando profondamente OpenAI nel proprio ecosistema cloud.
Le motivazioni dietro questa partnership erano chiare e reciprocamente vantaggiose. Per OpenAI, ottenere l’accesso privilegiato ai data center Azure e ai fondi di Microsoft significava poter accelerare la ricerca senza l’assillo del budget: addestrare modelli con decine o centinaia di miliardi di parametri (come GPT-3, che sarebbe arrivato l’anno dopo) richiede una potenza di calcolo e un’ottimizzazione ingegneristica che solo poche aziende al mondo possiedono, e Microsoft è una di queste. Inoltre, legarsi a Microsoft offriva ad OpenAI una stabilità finanziaria di lungo termine e la possibilità di non dover rincorrere troppi investitori diversi – con il rischio di veder diluita la propria missione – poiché un singolo partner di peso copriva già gran parte del fabbisogno. Per Microsoft, l’investimento era un modo per rientrare da protagonista nella corsa all’AI: alla fine degli anni 2010 la “nuova ondata” di intelligenza artificiale (trainata dal deep learning) era dominata da Google e altre realtà, mentre Microsoft, pur attiva nel campo, non godeva della stessa percezione di leadership innovativa. Allearsi con OpenAI – all’epoca già conosciuta per risultati come GPT-2 e per il prestigio del team – permetteva a Microsoft di accedere in esclusiva alle tecnologie più avanzate di AI generativa. In effetti, fu reso noto che Microsoft avrebbe potuto commercializzare in modo indipendente alcune delle soluzioni sviluppate da OpenAI. Un esempio: nel settembre 2020 Microsoft sfruttò la partnership per ottenere una licenza esclusiva sul codice di GPT-3, appena addestrato, assicurandosi di fatto un vantaggio nell’utilizzo di quel modello. L’azienda di Satya Nadella vedeva in OpenAI non solo un investimento finanziario, ma un partner di ricerca con cui condividere know-how e integrare l’AI nei propri prodotti (da Azure stesso a Microsoft Office, Bing, GitHub, ecc.). Nadella dichiarò che la collaborazione era fondata su “l’ambizione comune di far progredire responsabilmente l’AI all’avanguardia e di democratizzarla come nuova piattaforma tecnologica”.
Negli anni immediatamente seguenti, la partnership si è andata rafforzando. Microsoft e OpenAI hanno costruito insieme supercomputer AI dedicati: nel 2020 Microsoft annunciò di aver allestito per OpenAI uno dei cinque supercomputer più potenti al mondo sulla sua infrastruttura cloud, con decine di migliaia di GPU interconnesse, proprio per supportare modelli come GPT-3. Nel 2021, Microsoft effettuò un ulteriore investimento (non divulgato pubblicamente nei dettagli, ma presumibilmente di entità simile al primo): il CEO Satya Nadella confermò che quella con OpenAI era una partnership “di lungo periodo” articolata in fasi successive. Infatti, a gennaio 2023 venne annunciata la terza fase della collaborazione: Microsoft parlò di un “nuovo investimento pluriennale di più miliardi di dollari” in OpenAI. Fonti giornalistiche indicarono la cifra di 10 miliardi di dollari complessivi come impegno di Microsoft in questo round, a fronte di una valutazione di OpenAI attorno ai 29 miliardi in quell’inizio. Anche in questo caso, più che l’esborso immediato, contava l’accordo strategico: Microsoft aumentava l’investimento in capacità di supercalcolo dedicato ad OpenAI, e dall’altro lato otteneva la possibilità di distribuire e monetizzare i modelli di OpenAI attraverso i suoi prodotti e servizi cloud. Azure divenne il servizio esclusivo su cui girava l’API di OpenAI messa a disposizione degli sviluppatori esterni, e Microsoft iniziò a integrare i modelli OpenAI in molte applicazioni: ad esempio, nel 2021 aveva già lanciato GitHub Copilot, un assistente di programmazione basato su OpenAI Codex (derivato da GPT-3), e all’inizio 2023 integrò una versione di GPT-4 nel suo motore di ricerca Bing (dando vita al chatbot “Bing Chat” concorrente di Google) e annunciò funzionalità di AI avanzata – copilot – all’interno della suite Office 365.
Questa sinergia trasformò OpenAI. Da piccola organizzazione indipendente, divenne in pratica una sorta di braccio di ricerca e sviluppo avanzato per Microsoft nel campo dell’intelligenza artificiale, sebbene formalmente restasse separata. Microsoft arrivò a detenere una partecipazione di capitale significativa: stime non ufficiali indicano che dopo l’investimento 2023 Microsoft avesse diritto a circa il 49% dei profitti di OpenAI LP (fino al raggiungimento del cap plafond concordato). In altre parole, pur non possedendo OpenAI in senso tradizionale (la governance restava con il board indipendente), Microsoft ne divenne il principale azionista economico e il principale cliente. Questa situazione fece storcere il naso ad alcuni osservatori, primo fra tutti Elon Musk che a inizio 2023 criticò pubblicamente: “OpenAI è stata creata come open-source e senza scopo di lucro… ma ora è chiusa e a scopo di lucro. Non era ciò che intendevo” – un chiaro attacco al fatto che l’azienda fosse ormai legata a Microsoft e non divulgasse liberamente i suoi modelli. In risposta indiretta a tali critiche, ad inizio 2023 OpenAI ribadì che la partnership con Microsoft serviva ad accelerare la sua missione e che l’azienda manteneva autonomia nelle scelte di ricerca. Sam Altman, ringraziando Microsoft per la fiducia, sottolineò di “condividere valori” e disse di essere entusiasta di continuare a costruire insieme l’intelligenza artificiale benefica.
Col senno di poi, l’alleanza OpenAI-Microsoft si è rivelata cruciale per entrambe le parti. OpenAI ha potuto sviluppare modelli sempre più grandi (GPT-3, GPT-4) in tempi rapidi e distribuirli al mondo intero tramite l’infrastruttura di Microsoft. Dal canto suo, Microsoft ha riguadagnato centralità nella rivoluzione dell’AI: basti pensare che il fenomeno ChatGPT (esploso nel 2022-23) ha trainato enormemente l’utilizzo del cloud Azure e ha permesso a Microsoft di lanciare prodotti innovativi (come Microsoft 365 Copilot, un assistente basato su GPT-4 integrato in Word, Excel e altri software). L’investimento iniziale di 1 miliardo è apparso col tempo un vero affare, tanto che a fine 2023 la quota di Microsoft in OpenAI valeva teoreticamente decine di miliardi sulla carta. Naturalmente, questa stretta relazione ha comportato anche una sorta di dipendenza reciproca: OpenAI divenne poco meno che inseparabile da Microsoft – ad esempio non può utilizzare altri cloud provider – e Microsoft si espose finanziariamente e in termini di reputazione sulle scelte di OpenAI (includendo i rischi, come si vide durante la crisi di governance del 2023 in cui Microsoft giocò un ruolo chiave, come vedremo). In definitiva, l’asse San Francisco–Redmond ha plasmato l’ecosistema dell’AI recente, gettando le basi sia per le grandi innovazioni sia per alcune tensioni latenti dovute all’incrocio tra ricerca, business e potere.
Innovazioni rivoluzionarie: dai modelli GPT a DALL·E
Nel frattempo che evolveva la sua struttura e stringeva alleanze, OpenAI continuava a perseguire il proprio scopo fondamentale: sviluppare tecnologie di intelligenza artificiale all’avanguardia. Anzi, proprio grazie alle risorse aggiuntive raccolte (economiche e computazionali), a partire dal 2018-2019 l’organizzazione riuscì a sfornare una serie di innovazioni che avrebbero avuto un impatto enorme sul settore. Tra queste spiccano i modelli della famiglia GPT – che hanno rivoluzionato il trattamento del linguaggio naturale – e i sistemi come DALL·E e Codex, che hanno esteso l’AI generativa rispettivamente alle immagini e al codice. Esploriamo queste principali pietre miliari tecnologiche targate OpenAI.
La serie GPT: dai transformer al chatbot che stupì il mondo
Il nome OpenAI è divenuto sinonimo di GPT (Generative Pre-trained Transformer), una serie di modelli di deep learning per la comprensione e generazione del linguaggio naturale. Tutto ebbe inizio con la ricerca sui Transformer, una nuova architettura di rete neurale introdotta da Google nel 2017, che OpenAI fu tra i primi ad adottare e potenziare. Nel 2018 OpenAI pubblicò il modello GPT-1, dimostrando la potenza dell’idea di pre-addestrare una rete neurale su grandi quantità di testo generico e poi riutilizzarla per vari compiti linguistici. Ma fu il successore a catturare l’attenzione globale: nel febbraio 2019, come accennato, OpenAI presentò GPT-2. Con i suoi 1,5 miliardi di parametri addestrati su 40 GB di testo, GPT-2 mostrava capacità sorprendenti di generare passaggi coerenti di testo di varie forme (articoli, racconti, risposte a domande) partendo da un semplice input. Era sufficientemente sofisticato che OpenAI, temendo usi malevoli, esitò a diffonderlo per intero subito. In ogni caso GPT-2 segnò l’inizio dell’era dei modelli linguistici di grandi dimensioni (LLM) accessibili: benché non fosse il più grande in assoluto (Google e Nvidia ne sperimentavano anche di più grandi per usi interni), GPT-2 divenne noto pubblicamente e fu un manifesto delle capacità della nuova OpenAI focalizzata su AI di punta.
La vera svolta venne l’anno successivo. Nel maggio 2020, OpenAI annunciò GPT-3, un balzo in avanti straordinario in termini di scala e prestazioni. GPT-3 era un modello di dimensioni senza precedenti all’epoca: conteneva 175 miliardi di parametri, due ordini di grandezza in più di GPT-2. Grazie a questa enorme rete neurale allenata su quasi tutto l’internet scritta (centinaia di miliardi di parole), GPT-3 mostrò abilità quasi “di dominio generale” nel linguaggio: poteva rispondere a domande di cultura generale, tradurre tra lingue, comporre email, riassumere testi complessi, generare codice sorgente in vari linguaggi, il tutto senza necessitare di un addestramento specifico per ciascun compito. Bastavano poche righe di istruzioni (i cosiddetti prompt) per indurlo a svolgere un determinato ruolo. I ricercatori di OpenAI scrissero che GPT-3 era capace di certi fenomeni di “meta-apprendimento”, cioè imparare la logica di un compito da un solo esempio dato nel prompt. Sebbene non fosse perfetto e commettesse anche errori grossolani, il modello rappresentava un netto miglioramento rispetto a GPT-2 in coerenza e ampiezza di applicazioni.
L’introduzione di GPT-3 portò OpenAI sotto i riflettori dell’opinione pubblica più ampia e degli sviluppatori. A differenza dei modelli precedenti, GPT-3 non venne distribuito in open-source; invece, OpenAI lanciò nel giugno 2020 un servizio API in versione beta, consentendo a sviluppatori selezionati di inviare query al modello sul cloud e ottenere risposte. Era un cambio di paradigma: invece di pubblicare il modello, OpenAI forniva accesso controllato ad esso come servizio. Ciò permise di mantenere il controllo sull’utilizzo (filtrando output potenzialmente problematici) e al contempo di creare un modello di business. A settembre 2020, Microsoft – come detto – ottenne una licenza esclusiva sul modello GPT-3 per integrarlo nelle proprie soluzioni. Ma l’API di OpenAI fu resa via via disponibile a tutti (a pagamento), inaugurando di fatto il mercato dei modelli linguistici come servizio. In poco tempo, decine di migliaia di sviluppatori iniziarono a usare GPT-3 per le applicazioni più disparate: bot conversazionali, strumenti di scrittura assistita, generatori di codice, tutor virtuali, e molto altro. GPT-3 divenne sinonimo di un nuovo livello di capacità delle macchine nel manipolare il linguaggio.
OpenAI non si fermò. Continuò a migliorare la tecnologia e soprattutto a lavorare sul controllo e l’affidabilità dei modelli. Un passo importante fu il progetto InstructGPT (rilasciato nel gennaio 2022), in cui GPT-3 venne raffinato con un particolare metodo di addestramento chiamato RLHF (Reinforcement Learning from Human Feedback): in pratica, OpenAI fece valutare e comparare le risposte del modello da istruttori umani per insegnargli a seguire meglio le istruzioni e a produrre output più utili e meno tossici. Il risultato fu che la versione “aligned” di GPT-3 (chiamata appunto InstructGPT) risultò molto più brava a obbedire a richieste dell’utente, evitando di divagare o di generare contenuti indesiderati. Questo divenne il fondamento per la successiva grande creazione: ChatGPT.
Il 30 novembre 2022, OpenAI lanciò pubblicamente un nuovo chatbot chiamato ChatGPT, basato su una versione migliorata di GPT-3 (conosciuta informalmente come GPT-3.5). Era accessibile gratuitamente sul sito di OpenAI, e in pochi giorni divenne un fenomeno virale. ChatGPT presentava un’interfaccia semplice: una chat dove gli utenti potevano porre domande o dare istruzioni in linguaggio naturale e ricevere risposte conversazionali molto articolate e spesso corrette. Il successo fu travolgente: oltre un milione di utenti si iscrissero per provarlo entro cinque giorni dal lancio. A gennaio 2023, ChatGPT contava già 100 milioni di utenti attivi mensili, un traguardo raggiunto in appena due mesi e che lo rese l’app consumer con la crescita più rapida di sempre. Mai prima un’AI conversazionale aveva catturato così l’attenzione del grande pubblico. Gli utenti rimanevano sbalorditi dalla capacità di ChatGPT di spiegare concetti, scrivere poesie o articoli, suggerire idee di programmazione, e persino di sostenere conversazioni su temi astratti. Nel bene e nel male, ChatGPT portò l’AI generativa nelle case di tutti: quotidiani, televisioni e social media ne parlarono diffusamente; milioni di persone lo usarono per assistenza nello studio, nel lavoro o per semplice curiosità.
Per OpenAI, ChatGPT fu un enorme successo strategico e d’immagine. Da un lato, dimostrò concretamente la validità e maturità dei suoi modelli linguistici, fungendo da vetrina interattiva per GPT-3.5 (e successivamente GPT-4). Dall’altro, gettò le basi di un modello commerciale: pur essendo gratuito inizialmente, servì a raccogliere feedback su vasta scala per migliorare ulteriormente il sistema, e a febbraio 2023 OpenAI lanciò ChatGPT Plus, un servizio in abbonamento a pagamento che forniva accesso potenziato (ad esempio anche nei momenti di congestione). ChatGPT alimentò anche un boom di interesse da parte di investitori: proprio sulla scia del suo exploit, OpenAI chiuse a inizio 2023 un accordo di vendita di quote che la valutava circa 29 miliardi di dollari. Nel mondo del lavoro e dell’industria, l’arrivo di ChatGPT segnò di fatto l’inizio di una corsa generalizzata all’adozione di AI generativa: aziende di ogni tipo cominciarono a chiedersi come integrare strumenti simili, e le big tech concorrenti (Google in primis) accelerarono i propri programmi, temendo di restare indietro.
Sul piano tecnico, ChatGPT fu presto affiancato da un modello ancora più potente. A marzo 2023, OpenAI annunciò il lancio di GPT-4, la quarta generazione del suo modello linguistico, disponibile inizialmente via API e attraverso una versione aggiornata di ChatGPT per gli abbonati Plus. GPT-4 era un modello di dimensioni non dichiarate (probabilmente nell’ordine dei trilioni di parametri, ma OpenAI per la prima volta non rivelò la taglia esatta), addestrato su un volume di dati ancora superiore e con tecniche di tuning fine più sofisticate. Nel documento tecnico di presentazione, OpenAI illustrò come GPT-4 avesse raggiunto performance di livello umano in vari test: ad esempio, superava con punteggi alti gli esami standardizzati come il Bar exam per avvocati e i test AP di liceo. Inoltre GPT-4 introdusse capacità multimodali: nella sua versione completa (non subito aperta al pubblico) poteva accettare input di immagini oltre che di testo, descrivendo o analizzando ciò che vedeva. Questo ampliava ulteriormente le potenzialità applicative (un utente poteva, ad esempio, inviargli la foto del contenuto di un frigorifero e chiedere suggerimenti per ricette, o mostrargli un grafico complesso chiedendo spiegazioni). Con GPT-4, OpenAI consolidò la propria leadership tecnica: pur emergendo nuovi concorrenti e modelli open-source alternativi, GPT-4 risultò per molti versi lo stato dell’arte, soprattutto in compiti che richiedevano ragionamento raffinato e comprensione di istruzioni complesse. Venne però anche evidenziato come GPT-4 non fosse perfetto: OpenAI stessa ammise che il modello ancora fabbricava risposte plausibili ma errate in alcuni casi (il fenomeno delle “allucinazioni”), poteva avere bias nei dati, e manifestava a tratti comportamenti inattesi. L’azienda dichiarò di aver posto maggiore enfasi sulla sicurezza del modello, riducendo drasticamente le volte in cui produceva discorsi d’odio o contenuti violenti, grazie ad un grande sforzo di filtro e addestramento con feedback umano prima del rilascio pubblico.
Con GPT-4 e ChatGPT, OpenAI non solo rivoluzionò settori come la customer service (automatizzando conversazioni) e la produzione di contenuti, ma iniziò a far intravedere anche scenari futuri di AI generalista più vicina all’intelligenza umana. Tanto che alcuni ricercatori (anche esterni, come un team di Microsoft Research) arrivarono a ipotizzare che GPT-4 mostrasse “sparks of AGI” – scintille di intelligenza generale – per via della varietà di compiti che sapeva svolgere in modo integrato. Sebbene tale affermazione sia controversa, dà il segno di come OpenAI sia riuscita a portare il discorso sull’AGI dal campo teorico a qualcosa di tangibile, racchiuso in modelli utilizzabili quotidianamente.
DALL·E: l’AI che dipinge e Codex: l’AI programmatrice
Oltre al linguaggio, OpenAI ha esteso la portata dell’AI generativa ad altre modalità, ottenendo innovazioni dal forte impatto mediatico e pratico.
Nel gennaio 2021, OpenAI presentò DALL·E, un modello di rete neurale in grado di generare immagini a partire da descrizioni testuali. Il nome era un omaggio all’artista Dalí e al personaggio Pixar WALL-E, segno dell’incrocio tra creatività artistica e intelligenza artificiale. Tecnicamente, DALL·E utilizzava una versione da 12 miliardi di parametri di GPT-3 adattata per produrre immagini invece che testo. L’utente forniva una frase – ad esempio “un gatto astronauta che suona il violino, dipinto nello stile di Van Gogh” – e il modello sintetizzava un’immagine originale coerente con quella richiesta. I risultati erano spesso sorprendenti: DALL·E mostrava una comprensione fine degli elementi descritti e riusciva a combinarli in modi plausibili e creativi. Insieme a DALL·E, OpenAI pubblicò anche CLIP, un modello di rete neurale capace di capire e valutare le immagini in base alla loro aderenza al testo (CLIP venne usato per valutare le immagini generate da DALL·E e scegliere le migliori). Queste innovazioni segnarono una pietra miliare: fino ad allora, l’AI generativa nel dominio visivo era agli albori, mentre DALL·E ne mostrava le potenzialità su una vasta gamma di soggetti.
Nel aprile 2022, OpenAI alzò ulteriormente l’asticella con DALL·E 2. La seconda versione del modello di image generation portava un netto miglioramento nella risoluzione e fotorealismo delle immagini create, tanto che molte sembravano opere di grafici digitali esperti o fotografie ritoccate. DALL·E 2 poteva generare volti, paesaggi, animali, oggetti, con una qualità prima impensabile, e permetteva anche semplici operazioni di editing come “espandere” un’immagine fuori dai suoi confini o sostituirne elementi via testo (la cosiddetta funzione di inpainting). OpenAI avviò un programma di accesso limitato su invito per DALL·E 2, e presto l’uso del modello si diffuse tra designer, pubblicitari, artisti e curiosi, inaugurando il filone dell’arte generativa AI. L’azienda pose delle restrizioni: ad esempio, per ragioni etiche, inizialmente DALL·E 2 non poteva generare volti di personaggi reali o contenuti violenti/osceni, cercando di prevenire usi impropri (fake news visive, deepfake, ecc.). Nonostante ciò, l’impatto fu enorme: la comunità online si dilettò a condividere le creazioni di DALL·E, e la qualità raggiunta divenne un punto di riferimento, spingendo presto anche altre organizzazioni a sviluppare modelli simili (come Midjourney o la versione open-source Stable Diffusion). Ma OpenAI rimase per molti il nome associato all’AI che “dipinge su richiesta”. Nel settembre 2023, fu lanciato DALL·E 3, ulteriore evoluzione integrata direttamente in ChatGPT: la nuova versione migliorava l’interpretazione di prompt complessi e la resa di dettagli difficili (mani umane, testi scritti nelle immagini, ecc.), grazie anche all’utilizzo di ChatGPT stesso per affinare la comprensione delle richieste. Ciò mostrò la sinergia tra i vari progetti di OpenAI: modelli linguistici e visivi collaboravano, avvicinandosi a un sistema multimodale generale.
Un altro fronte di innovazione è stato quello del codice. Ad agosto 2021, OpenAI introdusse Codex, un modello derivato da GPT-3 ma specializzato nell’output di codice informatico. Addestrato su decine di milioni di repository di programmi (tra cui gran parte del codice pubblico di GitHub), Codex era in grado di prendere comandi in linguaggio naturale e tradurli in codice eseguibile in vari linguaggi di programmazione (Python, JavaScript, etc.). Poteva ad esempio generare automaticamente una funzione a partire da una descrizione del suo scopo, o creare una pagina web data l’indicazione del design desiderato. Microsoft, che nel 2018 aveva acquisito GitHub, integrò subito questa tecnologia lanciando GitHub Copilot nel giugno 2021 (in beta) – un plugin per ambienti di sviluppo che suggerisce al volo spezzoni di codice mentre il programmatore scrive, proprio grazie a OpenAI Codex. Copilot si rivelò un assistente alla programmazione estremamente utile, capace di far risparmiare tempo su compiti ripetitivi e di aiutare anche programmatori meno esperti a scrivere codice funzionante. Nel 2022 Copilot divenne un prodotto commerciale a pagamento con migliaia di abbonati, segnando uno dei primi esempi di monetizzazione diretta di una tecnologia OpenAI (in partnership con Microsoft/GitHub). Codex e Copilot cambiarono il paradigma dello sviluppo software: da “scrivere tutto a mano” a “farsi suggerire dall’AI e poi rifinire”, scatenando anche dibattiti sul futuro del lavoro dei programmatori. OpenAI nel frattempo continuò a migliorare i modelli, e GPT-4 stesso dimostrò abilità di coding ancora più avanzate, tanto che la versione aggiornata di Copilot (Copilot X) integra GPT-4 per offrire vere e proprie spiegazioni e debugging conversazionale del codice.
Oltre a GPT, DALL·E e Codex, OpenAI ha prodotto altre innovazioni degne di nota: Whisper, un modello di riconoscimento vocale (speech-to-text) open-source rilasciato nel 2022, in grado di trascrivere e tradurre audio con notevole accuratezza; OpenAI Gym e ambienti di simulazione vari che hanno contribuito alla ricerca nell’apprendimento per rinforzo; e persino agenti capaci di eseguire operazioni complesse, come il sistema OpenAI Five che nel 2019 sconfisse i campioni mondiali umani nel videogame strategico Dota 2 – impresa notevole nel campo dei giochi, replicando per i giochi di squadra ciò che DeepMind aveva fatto per gli scacchi e il Go. Ciascuno di questi progetti ha spinto in avanti i confini in un sottodominio dell’AI.
Nel periodo 2016-2023 OpenAI ha costruito un portfolio tecnologico impressionante, con contributi pionieristici in molte aree: linguaggio, visione, voce, robotica, giochi. La sigla “GPT” è entrata nel vocabolario comune, “DALL-E” è sinonimo di arte AI, “Copilot” un assistente familiare per tanti sviluppatori. Queste innovazioni non solo hanno valore in sé, ma hanno generato un effetto a catena nel settore: hanno innescato nuove aziende, ispirato progetti open-source alternativi, e convinto il mondo che l’AI generativa è reale e potente. OpenAI si è così guadagnata la fama di fucina di idee rivoluzionarie, consolidando la propria influenza e alimentando al contempo dibattiti su come gestire le profonde implicazioni di tali tecnologie.
L’ascesa sul mercato e l’impatto culturale
Le tecnologie di OpenAI non sono rimaste confinate ai laboratori o agli addetti ai lavori: negli ultimi anni esse hanno avuto una diffusione massiccia, trasformando in breve tempo sia il mercato tecnologico sia l’immaginario popolare sull’intelligenza artificiale. Nessun’altra organizzazione di ricerca nel campo dell’AI aveva finora provocato un’ondata di cambiamento così repentina e ampia. L’effetto OpenAI si può osservare su più livelli.
Innanzitutto, il mercato: grazie soprattutto al traino di ChatGPT e GPT-4, OpenAI è passata dall’essere una realtà semi-sconosciuta al grande pubblico a diventare una delle aziende più ambite dagli investitori e valutate sul piano finanziario. Dopo il già citato round a circa 29 miliardi di dollari di valutazione a gennaio 2023, la crescita dell’utilizzo e dell’interesse verso i suoi prodotti portò in pochi mesi a un ulteriore salto: a fine 2023, OpenAI ha completato un accordo di vendita di azioni che la valutava almeno 80 miliardi di dollari. In meno di un anno, quindi, il valore percepito dell’azienda era quasi triplicato. Per una società con poche centinaia di dipendenti (nel 2023 erano circa 500) e solo inizialmente in utile, si tratta di numeri sbalorditivi, degni delle più grandi startup della storia. OpenAI è entrata nell’Olimpo dei cosiddetti “decacorni” (startup oltre i 10 mld di valore) e si profilava come possibile futura public company. Questa esplosione di valutazione riflette le aspettative immense che il mercato riponeva nelle sue tecnologie: non solo prodotti diretti come l’API GPT o le sottoscrizioni ChatGPT Plus, ma anche licenze (es. accordi con multinazionali per soluzioni su misura), e soprattutto il ruolo di vantaggio che OpenAI poteva mantenere nel plasmare l’AGI e magari un domani commercializzare un’eventuale super-intelligenza. Va detto che l’assetto particolare (capped-profit) pone dei limiti agli investitori sul ritorno, ma ciò non ha raffreddato l’interesse, segno che l’orizzonte strategico va oltre le logiche immediate di profitto.
L’influenza di OpenAI sul settore tecnologico si misura anche dal fermento che ha generato nei competitor e nell’ecosistema. L’uscita di GPT-3 e ancor più il boom di ChatGPT hanno provocato una sorta di “corsa all’oro” nell’AI generativa. Google, storicamente leader nell’AI ma sorpresa dalla rapidità di OpenAI, ha dichiarato una “code red” interna e affrettato lo sviluppo dei propri modelli conversazionali (lanciando nel 2023 il chatbot Bard, basato sul modello LaMDA, e poi integrando un sistema chiamato PaLM 2 nei suoi servizi). Meta (Facebook) ha rilasciato in open-source il suo grande modello linguistico LLaMA nel 2023, nel tentativo di non lasciare ad OpenAI/Microsoft tutto il palcoscenico, e successivamente versioni ancora più grandi come Llama 2, persino in collaborazione con Microsoft stessa. Numerose startup sono sorte con focus sull’AI generativa, molte fondate da ex-ricercatori di OpenAI: ad esempio Anthropic, creata da ex dirigenti di OpenAI nel 2021 (tra cui Dario Amodei), ha sviluppato il chatbot concorrente Claude ed è diventata anch’essa unicorno con investimenti di Google. Altre come Cohere, AI21 Labs, Stability AI (nota per Stable Diffusion) hanno attirato centinaia di milioni in capitale di rischio. In poche parole, OpenAI ha catalizzato un intero settore: se l’AI era già importante, dopo il 2022 è diventata la priorità numero uno per quasi tutte le aziende tech, con OpenAI spesso indicata come metro di paragone o partner di preferenza.
Non solo le grandi aziende: OpenAI ha anche influenzato la cultura delle startup e degli sviluppatori. Grazie alle API di OpenAI, migliaia di nuovi progetti hanno potuto incorporare funzioni di intelligenza artificiale avanzata senza doverle sviluppare da zero. Si è assistito alla fioritura di applicazioni che sfruttano GPT per usi specifici: dal customer service automatizzato alla generazione di testi di marketing, da assistenti medici virtuali alla creazione di videogiochi con dialoghi dinamici, e così via. Un intero nuovo filone di prodotti, i cosiddetti “AI-first”, è nato con l’idea di sfruttare queste API come componente base. In parallelo, sono aumentate le competenze e l’interesse degli sviluppatori verso l’AI: concetti come prompt engineering (l’arte di formulare input per ottenere i migliori risultati dai modelli) sono diventati argomento di blog e corsi, e figure professionali prima inesistenti (ad es. esperti nell’integrare modelli linguistici in flussi di lavoro) hanno trovato spazio. OpenAI stessa ha cercato di guidare questa comunità, lanciando ad esempio il programma di plugins per ChatGPT (per permettere a servizi terzi di estendere le capacità del chatbot) e migliorando la documentazione e gli strumenti per gli sviluppatori sul suo sito.
L’impatto culturale di OpenAI e delle sue creazioni è forse ancora più visibile. Nel giro di pochi anni, l’intelligenza artificiale è passata dall’essere percepita come un tema futuristico o di nicchia, al diventare un elemento presente nella vita quotidiana di milioni di persone. Termini come “ChatGPT” o “DALL-E” sono entrati nel linguaggio comune, citati nei telegiornali, nei fumetti, nei talk show. La capacità di un chatbot di dialogare in modo convincente ha suscitato meraviglia ma anche inquietudine: discussioni sull’affidabilità delle informazioni generate, sul rischio di plagio o sulla dipendenza dalle macchine si sono diffuse nelle scuole e negli uffici. Alcuni docenti hanno iniziato a interrogarsi su come adattare la didattica in un mondo in cui gli studenti possono farsi scrivere un tema da ChatGPT; redazioni giornalistiche hanno sperimentato (talvolta incautamente) l’uso di GPT per scrivere articoli, salvo dover correggere errori; programmatori hanno abbracciato Copilot come “collega aggiuntivo” o al contrario l’hanno rifiutato temendo l’automatizzazione del proprio lavoro. Sul fronte creativo, artisti e fotografi hanno dibattuto sull’uso di DALL·E e simili: c’è chi li vede come strumenti espressivi da incorporare nel proprio flusso, e chi come minacce che svalutano l’arte umana o sfruttano stili altrui (quest’ultimo punto ha portato anche a polemiche legali). In generale, OpenAI ha costretto la società a confrontarsi con l’idea che l’AI avanzata è arrivata, non è più fantascienza. E ciò ha sia entusiasmato chi sogna un futuro di abbondanza e progresso grazie alle macchine intelligenti, sia preoccupato profondamente chi teme ripercussioni occupazionali, sociali o addirittura esistenziali.
Non a caso, nel 2023 il dibattito su come regolare queste nuove AI si è infiammato. Sam Altman in persona è diventato un protagonista del dialogo politico: a maggio 2023 ha testimoniato davanti al Congresso degli Stati Uniti, invitando i legislatori a regolamentare l’AI generativa e proponendo l’istituzione di un’agenzia internazionale per la supervisione dell’AGI, riconoscendo implicitamente la potenza delle tecnologie che la sua azienda stava sviluppando. Allo stesso tempo, figure come Elon Musk (non più coinvolto in OpenAI) e centinaia di ricercatori firmarono lettere aperte invocando una “pausa” di 6 mesi nelle sperimentazioni di modelli più potenti di GPT-4, citando timori per la sicurezza e la mancanza di controllo. Queste iniziative, sebbene non abbiano prodotto stop effettivi, indicano quanto OpenAI abbia messo urgenza nel dibattito su AI e società. Entro il 2024, vari governi – dall’Unione Europea agli Stati Uniti – stavano elaborando normative o linee guida per l’uso dell’AI, in gran parte spinte dal repentino avvento di strumenti come quelli di OpenAI.
Anche dal punto di vista dell’educazione del pubblico, OpenAI ha avuto un ruolo notevole. Milioni di persone hanno sperimentato in prima persona cos’è un modello di intelligenza artificiale, scoprendone i punti di forza e i limiti. Questo ha demistificato molte idee: ad esempio, interagendo con ChatGPT, molti si sono resi conto che l’AI, pur brillante, non “capisce” davvero come un essere umano e può sbagliare in modi peculiari (come insistere su un errore con grande sicurezza). Al contempo, altri hanno percepito quasi una scintilla di personalità nell’AI, tanto che c’è chi ha provato empatia o instaurato un curioso rapporto conversazionale con il chatbot. Ciò ha portato psicologi, sociologi e filosofi a interrogarsi sull’effetto di tali agenti conversazionali sulle persone: se possano far compagnia o isolare, se possano influenzare opinioni (volontariamente o meno), e come mantenere la distinzione tra umano e macchina in interazioni sempre più fluide.
Infine, sul piano dell’industria tecnologica nel suo complesso, OpenAI ha riconfigurato alleanze e competizione. Microsoft, grazie a OpenAI, ha assunto una posizione aggressiva contro Google per la prima volta dopo anni, sfidandola apertamente sul search e sulla produttività con strumenti AI. Amazon Web Services, altro gigante cloud, ha dovuto rispondere annunciando partnership con startup rivali e offrendo hosting di modelli open-source. Nvidia, il principale fornitore di GPU per l’addestramento, ha visto esplodere la domanda dei suoi chip grazie alla corsa all’AI (OpenAI stessa ha acquistato decine di migliaia di GPU Nvidia per i suoi cluster). In borsa, nel 2023 i titoli legati all’AI hanno vissuto rally significativi, spesso trainati da notizie riguardanti OpenAI o i suoi prodotti. Persino settori non strettamente informatici – da quello legale a quello finanziario – hanno dovuto considerare l’impatto di GPT e soci nei rispettivi ambiti (ad esempio, studi legali iniziando a usare GPT-4 per ricerche giuridiche, o fondi di investimento sfruttando modelli per analisi testuali).
In sintesi, l’influenza di OpenAI ha travalicato i confini aziendali, cambiando il panorama tecnologico e toccando aspetti della vita quotidiana e della percezione collettiva dell’AI. In pochi anni, concetti prima relegati alla fantascienza – conversare con un’AI come fosse una persona, generare immagini di fantasia in pochi secondi, avere un “collega” robotico che scrive codice – sono diventati realtà concrete. OpenAI, con i suoi successi, ha alimentato enormi speranze di progresso ma anche acceso campanelli d’allarme: è come se il futuro preconizzato da tanti romanzi e film di fantascienza fosse arrivato in anticipo, portando con sé tanto opportunità quanto nuove domande. E su OpenAI si sono concentrate molte di queste domande, in quanto attore centrale del cambiamento in atto.
La crisi del 2023: il “golpe” del consiglio e il caso Altman
Nonostante i traguardi tecnologici e la crescente influenza, la storia di OpenAI non è stata priva di turbolenze interne. La più drammatica si è consumata nel novembre 2023, quando OpenAI è stata scossa da una crisi di governance senza precedenti, culminata nell’allontanamento improvviso – e poi nel reintegro – del suo CEO Sam Altman. L’episodio, definito dai media come un vero e proprio “golpe” all’interno dell’organizzazione, ha rivelato tensioni profonde sul futuro dell’azienda e ha tenuto con il fiato sospeso l’intera comunità tecnologica per alcuni giorni.
Tutto è accaduto rapidamente. Venerdì 17 novembre 2023, a sorpresa, il consiglio di amministrazione di OpenAI ha annunciato la rimozione di Sam Altman dal ruolo di CEO con effetto immediato. La notizia ha colto di sorpresa non solo il pubblico esterno, ma – a quanto trapelato – persino gran parte dello staff di OpenAI. Il comunicato ufficiale del board era stringato e criptico: si parlava di una decisione presa per la “mancanza di trasparenza di Altman nelle sue comunicazioni con il consiglio” e per un calo di fiducia, senza fornire dettagli concreti. In termini pratici, il board sembrava suggerire che Altman avesse agito in modi che mettevano a repentaglio l’equilibrio tra sicurezza e rapidità nello sviluppo dell’AI, un equilibrio caro ad almeno alcuni dei direttori. Infatti, indiscrezioni riportarono che il cda fosse diviso tra chi, come Altman, spingeva per rilasciare nuove tecnologie rapidamente capitalizzando sul vantaggio di OpenAI, e chi invece temeva che si stesse correndo troppo con modelli sempre più potenti senza adeguate precauzioni di sicurezza e senza informare a sufficienza il consiglio stesso. Tra questi ultimi c’era Ilya Sutskever, membro del board e cofondatore, noto per le sue preoccupazioni sulla sicurezza dell’AGI. Sutskever e altri tre direttori (inclusa la presidente del consiglio, Helen Toner) costituivano la maggioranza che votò per il licenziamento di Altman. Contestualmente, anche Greg Brockman – presidente di OpenAI e altro cofondatore – fu rimosso dal consiglio (probabilmente perché contrario alla decisione) e Brockman decise di lasciare l’azienda in segno di protesta immediata. Il board nominò Mira Murati, CTO, come CEO ad interim per gestire la transizione.
Questa mossa clamorosa scatenò un terremoto. Nel giro di poche ore, dipendenti, investitori e partner rimasero sbigottiti: Sam Altman era la figura pubblica e il leader visionario di OpenAI, e non era percepito come un amministratore delegato in difficoltà – tutt’altro, l’azienda veniva da successi e ulteriori finanziamenti. L’assenza di spiegazioni dettagliate da parte del board alimentò il caos informativo: sui social media e nei pressi dell’azienda si moltiplicarono voci di dissidi segreti riguardo progetti interni (alcune speculazioni dicevano che Altman spingesse per lanciare GPT-5 rapidamente, spaventando i garanti interni della sicurezza; altre ipotizzavano attriti personali). La reazione più concreta giunse dai dipendenti di OpenAI, che manifestarono un dissenso quasi unanime verso la decisione del consiglio. Nel weekend seguente, oltre 700 dipendenti su 770 firmarono una lettera aperta in cui dichiaravano che la mossa del board aveva “compromesso la missione di OpenAI” e chiedevano le dimissioni immediate dei consiglieri e il reintegro di Altman e Brockman, altrimenti avrebbero rassegnato le dimissioni in massa. Una tale rivolta interna, con il 90% abbondante della forza lavoro sull’orlo di andarsene, è un evento quasi inaudito nella Silicon Valley, e testimoniava la fiducia e la lealtà che il team riponeva in Altman e Brockman rispetto ai direttori.
Nel frattempo, il grande partner di OpenAI – Microsoft – non rimase a guardare. Il lunedì successivo (20 novembre), con la situazione ancora irrisolta, il CEO di Microsoft Satya Nadella annunciò a sorpresa di aver assunto Sam Altman e Greg Brockman per guidare un nuovo team di ricerca avanzata sull’AI all’interno di Microsoft. Questo colpo di scena spiazzò ulteriormente il board di OpenAI: Microsoft, pur diplomatica nelle comunicazioni, stava di fatto offrendo un paracadute ai due cofondatori e mandando un messaggio implicito di sfiducia nella governance di OpenAI. D’altronde Microsoft aveva investito miliardi ed era legata a doppio filo ad Altman per i futuri sviluppi: Nadella sottolineò di aver agito per “mantenere unita questa incredibile squadra e la missione”, riecheggiando le parole dei dipendenti ribelli. L’annuncio fu accolto con entusiasmo dai dipendenti in rivolta: su X (Twitter) si moltiplicarono i messaggi degli ingegneri OpenAI diretti ad Altman con “Wherever you go, we follow” (“ovunque tu vada, ti seguiamo”), lasciando intendere che se il board non avesse fatto marcia indietro, l’intera OpenAI si sarebbe di fatto trasferita in blocco in Microsoft al seguito di Altman.
Sotto questa pressione combinata – l’ultimatum dei dipendenti e la mossa di Microsoft – il consiglio di amministrazione di OpenAI dovette cedere in tempi record. Martedì 21 novembre fu trovato un accordo: Sam Altman sarebbe tornato come CEO di OpenAI, Greg Brockman sarebbe rientrato in azienda (anche se non immediatamente nel consiglio) e l’intero board sarebbe stato ristrutturato. I membri responsabili della destituzione (Sutskever, Toner, etc.) vennero rimossi o si dimisero, sostituiti da un nuovo consiglio “provvisorio” composto da figure di alto profilo scelte per ristabilire credibilità: il presidente sarebbe stato Bret Taylor (ex co-CEO di Salesforce), affiancato dall’ex segretario al Tesoro USA Larry Summers e da Adam D’Angelo (CEO di Quora ed ex board member di OpenAI che non aveva partecipato al licenziamento). Questa nuova governance ad interim avrebbe traghettato la società mentre veniva avviata la ricerca di altri membri e di una struttura più robusta.
La risoluzione della crisi fu accolta con sollievo dalla maggior parte degli attori: i dipendenti festeggiarono il ritorno di Altman (che twittò “I love OpenAI” appena annunciato l’accordo), Microsoft poté rimettere il “genio” al suo posto, e l’azienda evitò il collasso. Ma l’episodio lasciò anche strascichi e riflessioni importanti. Ilya Sutskever, figura chiave del golpe, dopo qualche giorno pubblicò un messaggio di scuse: “Rimpiango profondamente la mia partecipazione alle azioni del consiglio. Non ho mai voluto fare del male a OpenAI”. Tuttavia, la fiducia in lui era ormai compromessa: benché rimanesse come impiegato (Chief Scientist) fino a qualche mese dopo, la sua influenza interna crollò e nel maggio 2024 Sutskever si dimise e lasciò l’azienda definitivamente. In generale, l’incidente evidenziò un conflitto latente tra due anime di OpenAI: da una parte la spinta aggressiva e commerciale capitanata da Altman (col sostegno di gran parte dello staff desideroso di portare i loro modelli al mondo), dall’altra le preoccupazioni etiche di alcuni esponenti che temevano conseguenze catastrofiche se si fosse proceduto troppo in fretta. Questa tensione riflette in piccolo il più ampio dibattito globale su AI e sicurezza. Alla fine del 2023, la fazione “pragmatica” ebbe la meglio: il board che aveva tentato di frenare Altman venne di fatto esautorato, e la missione di OpenAI venne rilegittimata nelle mani di Altman stesso, Brockman e del loro partner Microsoft. Ma l’eco dell’accaduto portò l’attenzione sull’importanza di strutture di governance adeguate per aziende che maneggiano tecnologie potenzialmente trasformative. OpenAI annunciò che avrebbe ampliato il consiglio con figure indipendenti e creato un comitato per la sicurezza per fornire secondi pareri sullo sviluppo dei modelli, per evitare che simili rotture dovessero ripetersi in futuro.
Da un certo punto di vista, la crisi-lampo del 2023 può essere letta come un segnale di maturazione di OpenAI: l’azienda non era più un esperimento amichevole, ma una realtà con interessi enormi in gioco, dove divergenze di vedute strategiche potevano portare a scontri drammatici. Pochi giorni di caos hanno rischiato di far implodere OpenAI, ma paradossalmente ne hanno confermato la centralità: istituzioni e imprese di tutto il mondo guardavano col fiato sospeso, segno che le sorti di questa organizzazione venivano considerate cruciali per il futuro dell’AI. Come titolò qualcuno, “il primo colpo di stato nell’era dell’Intelligenza Artificiale” si è consumato non per il controllo di territori, ma per la direzione da dare a un’azienda di ricerca – e questo la dice lunga sul peso raggiunto da OpenAI.
Dopo la tempesta: conseguenze e nuovi equilibri
Superata la crisi di novembre 2023, OpenAI ha dovuto ricostruire la propria leadership e ristabilire la rotta in un contesto reso più complesso. Sam Altman, tornato saldo al comando, si trovò di fronte alla sfida di ricompattare il team e di rassicurare partner e pubblico sulla stabilità e affidabilità della società. Nei mesi seguenti, l’assetto di governance venne progressivamente rinnovato: il nuovo consiglio ad interim (Taylor, Summers, D’Angelo) aprì la strada a un board ampliato con l’ingresso di altri membri indipendenti competenti sia in tecnologia sia in questioni di sicurezza. L’obiettivo dichiarato era evitare la concentrazione di potere decisionale in poche persone e dotarsi di meccanismi di controllo più trasparenti.
Nonostante la vicenda traumatica, dal punto di vista operativo OpenAI riprese rapidamente le attività. Altman dichiarò che l’azienda avrebbe continuato a perseguire la sua missione con la stessa intensità di prima, e anzi con rinnovata determinazione a mantenere unita la squadra e la missione. Il messaggio interno fu di guardare avanti e imparare dagli errori. Ci furono comunque alcune uscite eccellenti conseguenti ai fatti di novembre: oltre a Sutskever che, come detto, lasciò definitivamente OpenAI nel maggio 2024, anche Mira Murati, la CTO che aveva fatto da CEO provvisoria durante il caos, scelse di dimettersi nel settembre 2024. Murati era una figura rispettata e la sua partenza fu un segnale che forse persistevano divergenze sulla direzione o sul modo in cui era stata gestita la transizione (secondo il Wall Street Journal, Murati era tra coloro che sollevavano perplessità sul ritmo frenetico di rilascio di nuovi prodotti e spingeva per maggiore attenzione alla sicurezza). Insieme a lei, se ne andarono quasi contemporaneamente anche altri due dirigenti di alto livello nel team di OpenAI, nomi meno noti al pubblico ma indicativi di un ricambio ai vertici. Questo piccolo esodo a fine 2024 fu monitorato dagli osservatori come segnale di un possibile squilibrio interno: il Wall Street Journal riportò che alcuni dipendenti temevano una deriva “troppo orientata al profitto” e alla consegna rapida di prodotti, a scapito della ricerca a lungo termine e della prudenza. Altman e Brockman, secondo queste fonti, stavano spingendo OpenAI a comportarsi come una tech company tradizionale in rapida crescita, mentre coloro che erano più sensibili agli ideali originari potevano sentirsi alienati.
Nonostante questi dissapori, OpenAI ha continuato ad espandere la sua presenza e influenza. Sul fronte delle partnership, oltre al consolidato rapporto con Microsoft, l’azienda ha iniziato a dialogare con altri attori: in aprile 2024, la stampa riportava contatti di OpenAI con Apple per possibili collaborazioni (dato l’interesse di Apple per l’AI generativa su device come Siri). Inoltre, non va dimenticato che OpenAI stava investendo i proventi raccolti per costruire anche internamente la propria infrastruttura hardware: Sam Altman nel 2023 accennò a progetti di sviluppare chip AI proprietari, per ridurre la dipendenza da fornitori come Nvidia. Questa direzione, se perseguita, posizionerebbe OpenAI non solo come sviluppatore software ma anche come potenziale innovatore hardware nel medio termine.
Un ulteriore elemento di consolidamento è stato il rapporto con i regolatori e la comunità internazionale. Dopo la crisi, Altman intensificò gli sforzi di diplomazia e partecipazione ai tavoli di discussione globali sull’AI. Ad esempio, partecipò a incontri con la Casa Bianca e con l’Unione Europea per contribuire a definire policy sull’intelligenza artificiale. OpenAI lanciò anche iniziative di trasparenza e dialogo pubblico, come la pubblicazione di report sullo stato delle sue ricerche in sicurezza e l’organizzazione di eventi (Developer conferences, ecc.) per aggiornare sulle sue roadmap, nel tentativo di ricostruire la fiducia.
Internamente, la riconferma di Altman come figura centrale ha portato anche ad un riallineamento della cultura aziendale. Il messaggio fu che l’azienda non avrebbe rallentato l’innovazione – ad esempio proseguiva lo sviluppo di GPT-5, sebbene con cautela – ma al tempo stesso Altman promise di ascoltare maggiormente le preoccupazioni. Venne istituito un meccanismo per cui un comitato esterno di esperti di AI Safety veniva consultato sui piani di rilascio di modelli futuri (una sorta di check and balance tecnico). Inoltre, OpenAI assunse figure di primo piano nel campo dell’etica e policy sull’AI per rafforzare quei reparti, anche in risposta alle critiche subite.
La vicenda del 2023 probabilmente rimarrà come uno dei momenti più cruciali nella storia di OpenAI, quello in cui l’azienda ha rischiato di implodere per visioni divergenti e poi è rinata con una struttura più solida (si spera). Ha mostrato quanto sia delicato gestire un’organizzazione con una missione quasi “di interesse pubblico” e al contempo soggetta alle dinamiche aziendali. Alcuni commentatori hanno paragonato la crisi di OpenAI alle crisi di “governance” che hanno colpito talvolta grandi istituzioni non-profit o fondazioni, con la differenza che qui c’era in ballo un valore commerciale enorme.
Un aspetto interessante è che, nonostante queste scosse interne, l’esterno – utenti, clienti, developer – quasi non ha avvertito interruzioni. ChatGPT ha continuato a funzionare, i prodotti di OpenAI hanno proseguito il loro percorso evolutivo. Questo indica che, al di là dei nomi in carica, OpenAI aveva ormai una inerzia e una struttura operativa abbastanza robuste da reggere. La fidelizzazione dell’ecosistema era verso i prodotti e la tecnologia, non solo verso Altman o altri individui. Ciò pone OpenAI in posizione di continuare a influenzare il mercato indipendentemente dalle faccende di leadership, almeno finché mantiene il vantaggio tecnologico.
Alla vigilia del 2025, OpenAI appare come un’azienda che ha superato il suo “battesimo del fuoco” societario, è tornata a navigare a vele spiegate ma con qualche cicatrice. Le dimissioni di figure chiave come Sutskever e Murati hanno chiuso un capitolo della vecchia guardia, e la nuova OpenAI di Altman e Brockman (saldamente sostenuta da Microsoft) sembra orientarsi verso un futuro dove l’espansione commerciale e l’accelerazione dello sviluppo restano prioritarie, bilanciate però da maggiori investimenti in sicurezza e qualche meccanismo di controllo aggiuntivo. Resta da vedere se questo equilibrio reggerà alle prossime sfide, perché il percorso verso l’AGI – se davvero sarà realizzabile – potrebbe generare nuove tensioni e interrogativi morali ancora più difficili di quelli affrontati finora.
Controversie e lati oscuri
Mentre OpenAI collezionava successi e plausi, non sono mancate critiche e zone d’ombra che hanno alimentato il dibattito attorno all’azienda. Data la posizione unica di OpenAI – a metà fra impresa hi-tech e iniziativa etica – molte discussioni sui rischi e le responsabilità dell’intelligenza artificiale si sono concretizzate proprio attorno alle sue scelte. È importante analizzare queste controversie in modo equilibrato, evitando sia la demonizzazione facile sia l’agiografia, poiché offrono spunti cruciali per comprendere le sfide poste da questo nuovo paradigma tecnologico.
“Open”AI o “Closed”AI? – Una delle critiche più frequenti riguarda la mancata trasparenza di OpenAI rispetto ai propositi iniziali. Come già descritto, l’azienda nacque con la promessa della massima apertura, ma nel tempo ha adottato un approccio molto più chiuso nello sviluppo dei suoi modelli di punta. Ad esempio, il codice e i pesi di GPT-3 o GPT-4 non sono stati resi pubblici; persino dettagli tecnici come l’architettura esatta o la dimensione di GPT-4 non sono stati divulgati. Questo comportamento ha portato alcuni a sottolineare l’apparente ipocrisia nel nome stesso “Open”AI. Quando nel 2019 OpenAI decise di non rilasciare GPT-2 per intero, diversi ricercatori l’accusarono di fare media hype e di tradire lo spirito di collaborazione. In seguito, col crescere dell’aspetto commerciale (API a pagamento, partnership esclusive con Microsoft), la critica è diventata più pungente: alcuni osservatori hanno sostenuto che OpenAI fosse diventata di fatto una società proprietaria come le altre, usando motivazioni di sicurezza come foglia di fico per la segretezza legata al profitto. Elon Musk – da ex fondatore deluso – è stato tra i più vocali su questo punto, dichiarando che OpenAI aveva “perso la sua apertura” una volta entrata nell’orbita di Microsoft.
Dal canto suo, OpenAI ha offerto giustificazioni per questa evoluzione. Ha sostenuto che la potenza crescente dei modelli imponeva cautela: diffondere integralmente GPT-3 o GPT-4 potrebbe consentire a chiunque di abusarne (per spam, disinformazione, ecc.) e rendere più difficile mitigare i rischi. Inoltre, l’azienda ha ricordato che la sua missione originale non era strettamente “open-source” ma di far sì che i benefici dell’AI fossero ampiamente distribuiti. In altre parole, se condividere liberamente ogni scoperta fosse risultato controproducente per la società, sarebbe stato coerente con la missione non farlo. La citazione di Ilya Sutskever nel 2018 (“man mano che ci avvicineremo all’AI forte, sarà sensato essere meno aperti”) mostra come già internamente ci fosse consapevolezza di questo dilemma. D’altra parte, c’è chi vede in questa giustificazione un pericolo: se ogni organizzazione deciderà unilateralmente cosa non divulgare per “sicurezza”, si rischia di frenare il progresso scientifico aperto e di concentrare il potere in mano a pochi. OpenAI è quindi finita al centro di un dibattito sulla responsabilità scientifica: fino a che punto è lecito chiudere conoscenza di frontiera nel nome della sicurezza? La questione rimane aperta e si ripropone ogni volta che un nuovo modello viene annunciato.
Sfruttamento del lavoro dietro l’AI – Un aspetto emerso solo di recente è il ruolo del lavoro umano sottopagato nel rendere possibili le magie dell’AI. A gennaio 2023 una dettagliata inchiesta di TIME ha rivelato che OpenAI si era avvalsa di operatori in Kenya pagati meno di 2 dollari l’ora per eseguire un compito estremamente gravoso: leggere e classificare testi dai contenuti violenti, pedopornografici o altrimenti disturbanti, in modo da aiutare a “insegnare” a ChatGPT cosa evitare. In pratica, per addestrare i filtri di sicurezza del chatbot (quegli stessi filtri che gli impediscono di produrre insulti, razzismo, apologie di reato, ecc.), OpenAI aveva esternalizzato ad un’azienda terza (Sama) la creazione di un dataset di esempi di discorsi tossici. I lavoratori keniani dovevano passare le giornate esposti a materiale profondamente scioccante – dal bestialismo alla violenza estrema – segnalandone la natura. Questo lavoro è stato definito da alcuni come “lato oscuro” dell’AI generativa: modelli come ChatGPT appaiono puliti e brillanti perché qualcuno ha fatto “il lavoro sporco” di pulizia dei dati, spesso in condizioni precarie lontano dai riflettori.
La notizia ha sollevato un’ondata di critiche verso OpenAI, accusata di aver sfruttato manodopera a basso costo nei paesi in via di sviluppo per migliorare il proprio prodotto miliardario, senza che ciò fosse noto o riconosciuto pubblicamente. Si tratta di una problematica in realtà diffusa nell’industria (anche i social media usano moderatori esternalizzati), ma la retorica idealistica di OpenAI ha reso la rivelazione ancora più stridente. Altman ha risposto promettendo controlli più stretti sui fornitori e sottolineando che cercare di filtrare i contenuti tossici era comunque un tentativo di responsabilità. Resta il fatto che questo episodio ha portato all’attenzione il tema del lavoro dietro l’AI: se gli algoritmi faranno sempre più cose “umane”, spesso per addestrarli serviranno esseri umani in carne ed ossa che svolgono compiti monotoni o stressanti (etichettare dati, correggere output, ecc.). Il rischio è la nascita di una “classe operaia dell’AI” invisibile e poco tutelata. OpenAI, proprio per il suo status, è stata invitata a dare l’esempio migliorando le condizioni e la trasparenza su questi processi.
Bias e contenuti controversi – Come tutti i modelli di deep learning addestrati su grandi moli di dati di Internet, anche i sistemi di OpenAI hanno manifestato problemi di bias (pregiudizi) e generazione di contenuti inappropriati. Sia GPT-3 che ChatGPT nelle prime versioni tendevano, se provocati, a riflettere stereotipi presenti nei dati di training – ad esempio associando certi gruppi etnici o di genere a termini negativi, o rispondendo in modo discriminatorio a input tendenziosi. OpenAI ha investito molto nel mitigare questi bias tramite l’RLHF e filtri, ma l’equilibrio è delicato: troppi filtri e il modello viene accusato di essere “politicamente corretto” o limitato; filtri troppo laschi e possono sfuggire output razzisti, sessisti, ecc. Nel 2022-23 si sono viste entrambe le lamentele: ambienti conservatori accusavano ChatGPT di essere “troppo woke” (ad esempio rifiutandosi di lodare figure di destra estrema o adottando uno stile che riflette valori progressisti), mentre ricercatori indipendenti hanno dimostrato che con opportuni prompt il modello poteva ancora generare insulti o disinformazione. OpenAI si è trovata a dover calibrare con attenzione le linee guida etiche date ai modelli e agli annotatori umani, per non cadere né nel lassismo né nella censura eccessiva. Questo dibattito sconfina nel politico: qualcuno sostiene che modelli usati su larga scala come ChatGPT debbano inevitabilmente aderire a valori inclusivi di base (non discriminare, non incitare odio), altri temono una sorta di monopolio ideologico da parte delle aziende tech sul discorso pubblico.
Disinformazione e sicurezza – Un’altra preoccupazione è legata all’uso potenziale dei modelli OpenAI per scopi malevoli. Già GPT-2 fu trattenuto per paura dei “fake news generator”, ma col rilascio di GPT-3 e seguenti il genio è uscito dalla lampada: oggi chiunque, con un po’ di competenza tecnica, può usare API o modelli open per generare testi credibili su larga scala. OpenAI, assieme ad altri, ha studiato strumenti per rilevare testi generati (come un classificatore o watermarking digitale), ma i risultati finora sono poco affidabili. Ciò significa che spetta alle piattaforme e al pubblico stare all’erta su possibili ondate di contenuti non autentici. Nel bene, ChatGPT può aiutare a scrivere, ma nel male può creare e-mail di phishing convincenti, recensioni false, propaganda automatizzata. Altman ha riconosciuto questo rischio, ma ha ritenuto che i benefici del rilascio controllato di queste tecnologie superassero i rischi – salvo poi chiedere regolamentazioni, segno che neanche le aziende vogliono essere le sole a farsi carico del problema.
Copyright e diritti – Un fronte di controversia legale: OpenAI è stata bersaglio di cause legali per violazione di copyright. Vari gruppi di autori, artisti e programmatori hanno intentato azioni sostenendo che i modelli come GPT e DALL·E sono stati addestrati sui loro lavori protetti da copyright (libri, codice, immagini) senza consenso né compenso, e che ora i modelli potrebbero generare testi o immagini derivati dalle loro opere. Ad esempio, una causa collettiva avviata da programmatori contesta che Codex/GitHub Copilot riproduca a volte porzioni di codice prese da repository pubblici con licenze open-source che richiederebbero attribuzione, cosa che il tool non fa. OpenAI si è difesa invocando il principio del “fair use” dell’addestramento su dati pubblici e sottolineando che l’output del modello non è una semplice copia ma qualcosa di nuovo (nella stragrande maggioranza dei casi). Tuttavia, la materia è nuova e i tribunali dovranno stabilire regole: se venisse deciso che l’addestramento di AI sui dati protetti è illegale senza licenza, l’intero settore ne sarebbe sconvolto. Per ora OpenAI e altre aziende stanno formando gruppi di pressione e negoziando con editori e media per trovare accordi (ad esempio, OpenAI ha siglato accordi con alcune agenzie di stampa per accedere ai loro archivi in modo autorizzato). Ma molti creatori indipendenti restano insoddisfatti, temendo di vedere il proprio lavoro usato per alimentare macchine che potrebbero in futuro togliere loro spazio. C’è poi un aspetto culturale: anche quando non c’è infrazione diretta, alcuni artisti trovano ingiusto che DALL·E possa imitare uno stile da loro inventato (magari su cui hanno costruito una carriera) in pochi secondi. È un nuovo tipo di concorrenza dell’AI all’ingegno umano che solleva interrogativi etici sul riconoscimento del merito e dell’identità artistica.
Superintelligenza e timori esistenziali – Al di là dei problemi immediati, OpenAI è al centro anche dei timori più estremi sull’AI, quelli legati alla possibile creazione di una superintelligenza fuori controllo. Ironia della sorte, fu proprio questa paura a motivare Musk e altri nella fondazione di OpenAI, e a distanza di anni è di nuovo Musk (insieme ad altri, come alcuni ricercatori del Future of Life Institute) a lanciare moniti su Altman che “gioca con il fuoco” avvicinandosi troppo velocemente all’AGI. Nel marzo 2023 una lettera aperta – firmata tra gli altri da Musk e da scienziati come Stuart Russell – chiedeva una moratoria di 6 mesi su modelli più potenti di GPT-4. Altman e OpenAI non hanno aderito alla pausa, ritenendola poco realistica, ma la pressione li ha spinti ad enfatizzare i lavori sulla sicurezza di frontiera: OpenAI ha un team dedicato all’Alignment (allineamento delle AI ai valori umani) e cofinanzia ricerche su come evitare che un’AI molto avanzata possa comportarsi in modi non desiderati. Tuttavia, le frange più critiche (i cosiddetti AI doomers) vedono con sospetto il fatto che la stessa entità che costruisce modelli cerchi di auto-regolarsi e di rassicurare. Alcuni avrebbero preferito una supervisione indipendente o lo sviluppo di modelli in ambiti accademici aperti. Altman ha più volte ribadito di prendere sul serio i rischi esistenziali nel lungo termine, ma di credere anche che non bloccare la ricerca sia importante perché permette di capire meglio come gestirla. Insomma, c’è uno scontro quasi filosofico: catastrofisti vs. ottimisti, prudenza vs. velocità. OpenAI si trova nel mezzo di questo discorso, cercando di tenere una linea in cui continua ad avanzare (perché fermarsi significherebbe lasciare il campo ad altri, magari meno coscienziosi), ma cerca di farlo responsabilmente. Le rassicurazioni però non convincono tutti: c’è chi nota che finché OpenAI è incentivata commercialmente a essere prima, avrà sempre un potenziale conflitto d’interessi nel frenare su un progetto rischioso ma innovativo.
Impatto socio-economico – Un altro lato controverso è la prospettiva che modelli come quelli di OpenAI possano sostituire o comunque ridisegnare molti posti di lavoro. Altman stesso, in audizione al Senato USA, ha ammesso che “l’AI rimpiazzerà probabilmente alcuni posti di lavoro, forse molti, e dobbiamo pensare a come mitigare questo impatto”. Se strumenti come GPT diventano parte integrante di assistenti software, traduttori automatici, servizio clienti, scrittura tecnica, programmazione, ecc., quali saranno le conseguenze per milioni di lavoratori in questi campi? OpenAI promuove la visione che l’AI possa coadiuvare gli umani, sollevandoli dai compiti ripetitivi e permettendo loro di concentrarsi su attività a maggior valore aggiunto. Tuttavia, la storia insegna che le rivoluzioni tecnologiche, pur creando nuovi mestieri, nell’immediato possono causare dislocazioni e aumentare le disuguaglianze se i benefici non sono distribuiti equamente. Alcuni critici accusano Altman di essere troppo ottimista a riguardo, e fanno paralleli con l’automazione industriale che ha sì migliorato la produttività generale ma anche richiesto politiche di welfare per i lavoratori colpiti. Nel caso di OpenAI, l’azienda ha lanciato iniziative come concorsi per idee su come usare l’AI per il bene sociale, e ha finanziato studi su politiche di reddito universale (tema caro ad Altman già dai tempi di Y Combinator). Ma siamo solo agli inizi di comprendere l’impatto.
Nepotismo e governance – Un’ultima controversia, resa evidente dal caos del 2023, riguarda la governance stessa di OpenAI. Per lungo tempo, il consiglio di amministrazione dell’organizzazione non-profit era composto principalmente dai cofondatori (Altman, Sutskever, Brockman) e da pochi altri (inclusi alcuni investitori filantropici). Questo ha portato a critiche di scarso controllo indipendente: di fatto Altman e i suoi collaboratori storici potevano prendere decisioni cruciali con limitate verifiche esterne. La ragione di questa struttura era che il board aveva il compito di preservare la missione e di non avere conflitti di interesse economici (infatti ne facevano parte persone che non avevano quote di OpenAI LP). Tuttavia, si è visto che ciò non ha impedito conflitti di altra natura (strategica/valoriale). Dopo la risoluzione del 2023, con l’ingresso di nuove figure nel board, OpenAI ha un’opportunità di migliorare la propria governance. Ma il pubblico e la comunità guardano con attenzione: c’è chi teme che Altman e Brockman abbiano adesso ancora più potere (dopo aver “vinto” la battaglia interna) e possano essere tentati di bypassare eventuali freni. L’azienda dovrà dimostrare coi fatti di saper essere responsabile internamente, non solo esternamente, forse includendo nel board esperti di etica, o rappresentanti degli utenti, per dare più confidenza che non si ripetano decisioni calate dall’alto poco comprensibili.
In conclusione di questa carrellata, va sottolineato che molte delle controversie intorno ad OpenAI sono in realtà manifestazioni delle grandi domande che la società si pone sull’Intelligenza Artificiale. OpenAI è diventata un simbolo e dunque concentra critiche che vanno oltre essa stessa. Bias, lavoro, copyright, rischi esistenziali – non sono problemi unici di OpenAI, ma del campo intero. Tuttavia, il ruolo pionieristico e la grande visibilità fanno sì che sia spesso OpenAI la prima chiamata a risponderne. L’azienda finora ha mostrato volontà di confrontarsi con queste questioni: ha correttamente ridotto i bias evidenti nei suoi modelli, ha ammesso le proprie mancanze nel caso dei data workers in Kenya assumendosi l’impegno di fare meglio, partecipa attivamente a discussioni su normative e linee guida. Ciononostante, alcuni critici rimangono insoddisfatti e ritengono che una società privata non sia l’entità ideale per gestire tecnologie di tale portata: preferirebbero più ricerca aperta, standard condivisi a livello di settore e intervento pubblico (norme, incentivi, ecc.) per garantire che l’AI evolva a beneficio di tutti. Questo dibattito è destinato a proseguire e OpenAI ne sarà ancora al centro, dovendo dimostrare con azioni concrete di essere degna della fiducia riposta, e di saper mitigare i “lati oscuri” che inevitabilmente accompagnano un cambiamento tecnologico così profondo.
Conclusione: OpenAI oggi e domani
Dagli esordi altruistici di un laboratorio no-profit all’attuale ruolo di potenza trainante dell’AI generativa, la parabola di OpenAI è stata tanto rapida quanto intensa. In meno di un decennio, OpenAI ha contribuito a trasformare ciò che era oggetto di ricerca specialistica – reti neurali, modelli linguistici – in strumenti di uso quotidiano per milioni di persone. Ha acceso l’immaginazione collettiva sulle possibilità dell’intelligenza artificiale, mostrando progressi che molti non attendevano così presto. Allo stesso tempo, ha dovuto confrontarsi con responsabilità crescenti e dilemmi etici che raramente un’azienda privata si trova ad affrontare in modo così diretto.
Oggi OpenAI si presenta come un’entità ibrida: è formalmente guidata da una società non-profit devota alla missione originaria di beneficenza globale, ma funziona operativamente come una startup innovativa e ben finanziata, in partnership con un colosso commerciale. Questo assetto le ha permesso di ottenere il meglio di entrambi i mondi – libertà di ricerca e mezzi ingenti – ma anche l’ha esposta a tensioni interne ed esterne, come abbiamo visto. Nel bene e nel male, OpenAI è un esperimento unico: nessun’altra organizzazione ha una simile concentrazione di talenti, capitale e obiettivi a lungo termine nell’AI. Per alcuni, rappresenta la speranza che un gruppo relativamente ristretto ma motivato di persone possa indirizzare una tecnologia potentissima verso esiti positivi per l’umanità, evitando che sia controllata solo dai giganti tech tradizionali o da governi autoritari. Per altri, incarna il rischio di un potere enorme non democraticamente controllato, un preludio ad un’oligarchia tecnologica.
Quale sarà il futuro di OpenAI e come impatterà il mondo? Diverse traiettorie si prospettano. Sul piano tecnologico, l’azienda continuerà quasi certamente a spingere i confini: il lavoro su modelli multimodali integrati (vista, udito, linguaggio) farà emergere sistemi ancora più versatili; la ricerca su AGI vera e propria proseguirà, magari con prototipi che imparano e agiscono in ambienti complessi con un certo grado di autonomia. OpenAI potrebbe essere tra le prime a creare agenti AI in grado di eseguire compiti articolati nel mondo digitale su comando (già con l’integrazione di plugin in ChatGPT si intravede questa direzione). L’azienda sta anche esplorando scenari di personal AI – assistenti personalizzati per individui – il che pone questioni su privacy e adattamento ai singoli utenti. La sfida sarà far evolvere i modelli mantenendo un allineamento con i valori umani man mano che diventano più capaci: un compito di proporzioni colossali, che richiederà probabilmente contributi interdisciplinari (non solo ingegneri, ma anche psicologi, filosofi, esperti legali…).
Sul piano di mercato, OpenAI potrebbe consolidarsi come fornitore centrale di servizi AI: così come oggi si pensa a Google per le ricerche o a Amazon AWS per il cloud, OpenAI punta a essere la piattaforma di riferimento per l’intelligenza artificiale generativa. Già ora l’API di OpenAI alimenta migliaia di aziende; in futuro, potremmo vedere un ecosistema ancora più vasto di applicazioni costruite sopra i modelli di OpenAI, un po’ come un sistema operativo dell’AI. Al contempo, la concorrenza non starà a guardare: altre big tech integreranno le proprie offerte (Google, Meta, Amazon intensificano i loro sforzi), e anche il movimento open-source nel campo AI cercherà di erodere il vantaggio di OpenAI pubblicando modelli gratuiti comparabili. OpenAI dovrà quindi correre per mantenere un vantaggio qualitativo e dimostrare che i suoi servizi valgono la preferenza rispetto ad alternative eventualmente più economiche o “aperte”. Ciò potrebbe portare a sinergie ancora maggiori con Microsoft, o all’apertura di nuove linee di business (non è escluso che OpenAI stessa sviluppi applicazioni end-user specifiche, oltre a ChatGPT).
Sul fronte sociopolitico, OpenAI si troverà presumibilmente sempre più coinvolta con governi e istituzioni. Potrebbe partecipare alla definizione di standard internazionali per l’AI – un ruolo quasi da organismo di regolazione privata. Sam Altman e i suoi collaboratori potrebbero diventare figure analoghe a quelle dei “capitani” dell’industria del secolo scorso, consultati come esperti per decidere politiche di istruzione, lavoro e sicurezza correlate all’AI. Questo chiaramente comporta oneri di trasparenza e rigore: OpenAI dovrà continuare lo sforzo di spiegare in termini comprensibili il funzionamento e l’impatto dei suoi sistemi, evitando quell’aura “misteriosa” che a volte circonda l’AI e che genera timori irrazionali nel pubblico. Un maggiore coinvolgimento pubblico potrebbe anche portare a richieste più stringenti: per esempio, in futuro potrebbe essere normato che modelli come quelli di OpenAI vengano sottoposti a audit indipendenti periodici, o che debbano ottenere “certificazioni di sicurezza” prima di rilascio (sul modello dell’industria farmaceutica). OpenAI si è detta favorevole in linea di principio a regolamentazioni sensate, quindi potrebbe collaborare attivamente a costruire queste prassi.
Un’incognita riguarda la sostenibilità economica a lungo termine. Nonostante gli investimenti giganteschi, addestrare e far girare modelli sempre più grandi ha costi esorbitanti. Finora OpenAI, grazie a Microsoft, non ha badato a spese, ma alla lunga dovrà creare un equilibrio tra spese e ricavi. Ciò potrebbe spingere l’azienda verso un cauto pragmatismo: per finanziare la ricerca AGI, serviranno prodotti solidi che generano profitto (come la suite API, servizi enterprise, ecc.). Se questi dovessero saturare o se i margini calassero per concorrenza, potrebbe emergere una tensione tra destinare risorse a ricerca a lungo termine rischiosa o a progetti più commerciali. Tuttavia, viste le valutazioni monstre e l’interesse di investitori, OpenAI ha una discreta libertà di manovra almeno per qualche anno.
In definitiva, OpenAI si trova all’intersezione di grandi forze: progresso scientifico, interessi economici, aspirazioni sociali e paure ancestrali. È raro che una singola organizzazione incarni tutte queste dimensioni, ed è ciò che rende la sua storia così affascinante. Nel corso di questo saggio abbiamo visto come da un sogno di altruismo tecnologico si sia passati attraverso compromessi, vittorie e sconfitte, fino a creare qualcosa di nuovo e complesso. Forse l’insegnamento principale di questa vicenda è che l’innovazione radicale è indissolubilmente accompagnata da complessità: non esistono risposte semplici su come gestire l’AI potente, ma OpenAI, con tutti i suoi difetti e slanci, rappresenta un coraggioso tentativo di “far la cosa giusta” mentre si naviga verso l’ignoto.
Il giudizio finale su OpenAI rimane in divenire. Molto dipenderà da come affronterà gli anni immediatamente successivi: se saprà realizzare ulteriori passi avanti verso l’AGI in sicurezza, se saprà condividere i benefici con la collettività e mitigare i danni collaterali, allora potrà mantenere quel mix di fiducia e ammirazione che finora – nonostante tutto – la circonda. Viceversa, errori gravi o mancanza di trasparenza potrebbero incrinare il patto di fiducia con il pubblico. Per ora, OpenAI sembra aver retto le prove a cui è stata sottoposta: ha dimostrato resilienza nella crisi interna, ha continuato a innovare incessantemente, e non ha evitato il confronto sulle questioni difficili.
In un certo senso, OpenAI appare come uno specchio: riflette le nostre speranze di un futuro migliorato dall’intelligenza artificiale, e al contempo riflette le nostre inquietudini su chi detiene il potere di plasmare quel futuro. Guardare a OpenAI significa guardare a noi stessi, a come come umanità decidiamo di gestire un potenziale enorme. La sua storia, ancora in svolgimento, è la storia di una scommessa sul meglio dell’ingegno umano – che l’AI possa ampliare le possibilità, arricchire le vite, risolvere problemi urgenti – e insieme un monito costante a considerare con saggezza il rovescio della medaglia.
Come scrisse OpenAI nel suo Charter nel 2018, “il percorso verso l’AGI ha implicazioni globali” e richiede un approccio cooperativo e precauzionale. Cinque anni dopo, quelle parole suonano profetiche e impegnative. OpenAI si trova a essere uno dei principali attori a percorrere quel sentiero inesplorato. Sarà compito non solo suo, ma di tutti i portatori di interesse – governi, comunità scientifica, società civile – assicurare che quella strada porti verso un futuro in cui l’AI realizzi davvero il bene comune e non diventi fonte di nuove divisioni o pericoli.
La storia di OpenAI mostra che tecnologia e valori non possono viaggiare separati: senza i secondi, la prima rischia di smarrire la propria direzione. La narrazione di OpenAI è fatta di codici e algoritmi d’avanguardia, ma anche di persone, di idee, di errori e correzioni, di leadership e di comunità. Continueremo a seguire questo racconto con attenzione, consapevoli che non è solo la storia di un’azienda, bensì un capitolo della più ampia storia dell’umanità alle prese con l’avvento di un nuovo genere di intelligenza. E come in ogni storia appassionante, il finale non è ancora scritto. OpenAI si trova all’incrocio del possibile: le scelte compiute oggi echeggeranno nel domani di tutti. Sta a noi, collettivamente, fare in modo che quell’eco sia positiva.
Fonti:
- OpenAI (2015). Introducing OpenAI. Annuncio ufficiale di fondazione con mission e struttura (Introducing OpenAI | OpenAI) (Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman | TechCrunch).
- TechCrunch (2015). OpenAI Launches With Backing From Elon Musk And Sam Altman. Elenco fondatori e donatori iniziali (Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman | TechCrunch) (Artificial Intelligence Nonprofit OpenAI Launches With Backing From Elon Musk And Sam Altman | TechCrunch).
- OpenAI (2024). OpenAI and Elon Musk. Chiarimenti ufficiali sul ruolo di Musk e la transizione for-profit (OpenAI and Elon Musk | OpenAI) (OpenAI and Elon Musk | OpenAI).
- NPR (2023). OpenAI reinstates Sam Altman as its chief executive. Resoconto della crisi di novembre 2023 e reazioni (OpenAI reinstates Sam Altman as its chief executive : NPR) (OpenAI reinstates Sam Altman as its chief executive : NPR).
- Reuters (2024). OpenAI valued at $80 billion after deal, NYT reports. Dati su valutazioni $29B e $80B, effetto ChatGPT (OpenAI valued at $80 billion after deal, NYT reports | Reuters) (OpenAI valued at $80 billion after deal, NYT reports | Reuters).
- TechCrunch (2019). OpenAI built a text generator so good, it’s considered too dangerous to release. Caso GPT-2 e critiche sulla chiusura (OpenAI built a text generator so good, it’s considered too dangerous to release | TechCrunch) (OpenAI built a text generator so good, it’s considered too dangerous to release | TechCrunch).
- TIME (2023). OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic. Inchiesta sul lavoro di moderazione a basso costo (OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | TIME) (OpenAI Used Kenyan Workers on Less Than $2 Per Hour: Exclusive | TIME).
- Wired (2024). OpenAI’s Chief AI Wizard, Ilya Sutskever, Is Leaving the Company. Notizia e motivazione delle dimissioni di Sutskever (OpenAI’s Chief AI Wizard, Ilya Sutskever, Is Leaving the Company | WIRED) (OpenAI’s Chief AI Wizard, Ilya Sutskever, Is Leaving the Company | WIRED).
- OpenAI (2019). Microsoft invests in and partners with OpenAI to support us building beneficial AGI. Comunicato su partnership e investimento $1B (Microsoft invests in and partners with OpenAI to support us building beneficial AGI | OpenAI).
- Microsoft (2023). Microsoft and OpenAI extend partnership. Annuncio investimento pluriennale e esclusiva Azure (Microsoft and OpenAI extend partnership – The Official Microsoft Blog) (Microsoft and OpenAI extend partnership – The Official Microsoft Blog).
- Wikipedia (2025). OpenAI. Cronologia e struttura aziendale, modello capped-profit (OpenAI – Wikipedia) (OpenAI – Wikipedia).
- Business Insider (2024). OpenAI execs were reportedly worried the company could collapse when Ilya Sutskever left. Report sul clima interno dopo la crisi, dimissioni Murati etc. (Execs Were Worried OpenAI Could Collapse After Cofounder Left: WSJ – Business Insider) (Execs Were Worried OpenAI Could Collapse After Cofounder Left: WSJ – Business Insider).