Skip to content Skip to footer

Dall’infanzia all’età adulta: l’evoluzione dell’AI generativa dal 2022 a oggi

La fine del 2022 ha visto la nascita pubblica di ChatGPT, un sistema di intelligenza artificiale generativa in grado di sostenere conversazioni naturali e creare testi su richiesta. In poche settimane ChatGPT ha conquistato milioni di curiosi; entro gennaio 2023 superava già 100 milioni di utenti mensili, affermandosi come l’app consumer a crescita più rapida di sempre. Per la prima volta il grande pubblico sperimentava un’AI capace di generare articoli, saggi, poesie e persino barzellette a partire da semplici prompt testuali. Parallelamente, strumenti simili potevano creare immagini da zero, come il generatore visuale DALL-E 2 di OpenAI, inaugurando un’epoca in cui la creatività non era più dominio esclusivo dell’essere umano. Si apriva così una nuova era dell’AI, paragonabile ai primi passi di un bambino prodigio destinato a crescere molto in fretta sotto gli occhi del mondo intero.

Infanzia: i primi passi dell’AI generativa (2022 – inizio 2023)

Nei suoi primi mesi di vita, l’AI generativa ha vissuto un’infanzia fatta di scoperte entusiasmanti e piccole cadute. ChatGPT, libero dai laboratori e offerto al pubblico, mostrava una sorprendente capacità di dialogare e rispondere con creatività. Poteva riassumere testi complessi, spiegare concetti, scrivere codice o imitare vari stili di scrittura. Molti utenti lo hanno accolto come una novità rivoluzionaria, testandone i limiti con curiosità. Non mancavano però i balbettii tipici di un bimbo che impara: a volte forniva informazioni inesatte o inventava dettagli con disinvoltura (i famigerati “allucinazioni” delle AI), ricordando che la sua conoscenza era un’imitazione statistica del linguaggio e non vera comprensione.

L’entusiasmo iniziale era tangibile. In pochi giorni dall’esordio, ChatGPT superò il milione di iscritti e venne subito integrato in esperimenti e progetti. Gli utenti raccontavano stupiti di come il chatbot sapesse produrre in 30 secondi un testo che a un professionista avrebbe richiesto ore, evidenziando un potenziale dirompente per la produttività. Ad esempio, un copywriter professionista ha descritto con un misto di meraviglia e timore come ChatGPT fosse in grado di scrivere gratis un articolo dal valore di 500 sterline in pochi istanti, definendo l’adozione di tali strumenti “un no-brainer” (una scelta ovvia) per le aziende che producono grandi volumi di contenuti. Questa precocissima abilità generativa fece subito sorgere domande sul futuro di molti mestieri della conoscenza.

Accanto all’entusiasmo, infatti, affioravano prime preoccupazioni. Nel mondo dell’istruzione alcuni docenti e dirigenti scolastici si allarmarono: uno studente poteva farsi scrivere i temi dall’AI, aggirando valutazioni e apprendimenti. Già a gennaio 2023 diverse scuole e università (da New York fino all’Australia) misero al bando ChatGPT dalle reti interne, temendo un’ondata di plagi e compiti “generati” clandestinamente. Allo stesso tempo alcuni insegnanti più innovativi iniziavano a esplorarne l’uso come tutor virtuale, segno che l’infanzia di questa tecnologia divideva il pubblico tra entusiasmo e timore. Anche sul fronte dei dati personali e della privacy emersero allarmi: a fine marzo 2023 l’Italia divenne il primo paese occidentale a bloccare temporaneamente ChatGPT su ordine del Garante Privacy, citando violazioni nel trattamento dei dati degli utenti. OpenAI dovette correre ai ripari e adeguare il servizio (ad esempio introducendo controlli sull’età minima e maggiore trasparenza) per ottenere la revoca del blocco dopo qualche settimana. Questo “cartellino giallo” regolatorio indicava che persino nella sua infanzia, l’AI generativa doveva confrontarsi con limiti e regole imposte dalla società prima di continuare a crescere.

Adolescenza: crescita tumultuosa e sfide (2023)

Se l’infanzia è stata breve, il periodo adolescenziale dell’AI generativa è esploso nel corso del 2023 con una crescita impressionante, vivace e non priva di ribellioni. In pochi mesi, sull’onda del successo di ChatGPT, si è assistito a un vero boom di sistemi alternativi e versioni potenziate. OpenAI stessa, quasi a segnare l’ingresso nella “pubertà”, nel marzo 2023 ha rilasciato GPT-4, nuova generazione del suo modello linguistico: una rete ancora più potente, capace di analizzare immagini oltre che testo e di mostrare performance da livello “umano” in molti compiti professionali. GPT-4 ha stupito il mondo superando esami difficilissimi – ad esempio il severo esame da avvocato (Bar Exam) americano, dove si è posizionato nel top 10% dei candidati, laddove il suo predecessore GPT-3.5 era al livello più basso del 10%. All’improvviso l’AI non era più solo un giochino da provare online, ma un vero prodige adolescente che iniziava a eccellere in campi tradizionalmente riservati agli umani qualificati. Dal linguaggio legale alla programmazione, in primavera molti si accorsero che questi sistemi riuscivano a risolvere problemi complessi e ragionare in modo sorprendentemente articolato, soprattutto quando potevano operare con prompt più lunghi e dettagliati.

L’uscita di GPT-4 è stata accompagnata da un’ondata di emulazione e concorrenza nel settore tecnologico. Google, percependo il rischio di restare indietro, ha accelerato lo sviluppo del proprio chatbot Bard (basato sul modello LaMDA) e di nuovi modelli come PaLM 2, annunciando anche un ambizioso progetto chiamato Gemini destinato a unire linguaggio e altre abilità cognitive in un’unica AI generale. La piccola famiglia di AI generative presto non fu più sola: alla “nuova nata” ChatGPT si erano ormai aggiunti svariati fratelli e cugini. Tra questi, Claude di Anthropic – startup fondata da ex ricercatori OpenAI – si distingueva per un approccio educativo incentrato su principi etici (“Costituzione dell’AI”) e per la memoria eccezionale: dalla metà del 2023 Claude poteva vantare un contesto di ben 100 mila token (circa 75 mila parole), ossia la capacità di analizzare in un colpo solo centinaia di pagine di documenti o interi libri in pochi secondi. Anche Meta (Facebook) scelse di entrare in scena, ma con una filosofia diversa: invece di offrire un servizio al pubblico, rilasciò a febbraio 2023 il modello LLaMA come progetto open-source destinato ai ricercatori, con l’intento di democratizzare lo studio e lo sviluppo delle AI rendendo il codice disponibile a tutti. Il modello trapelò ben presto oltre la cerchia accademica e fu condiviso liberamente online, innescando una vivace comunità di sviluppatori che crearono varianti open-source sempre più addestrate e specializzate. Nell’arco di pochi mesi si passò così da un monopolio de facto di OpenAI a un ecosistema variegato di AI generative, con big tech, startup e comunità indipendenti tutte impegnate in quella che è stata definita una “corsa all’oro” dell’AI. Come notava Reuters, il successo di ChatGPT aveva “innescato una mania tech, spingendo i rivali a lanciare prodotti simili e le aziende a integrarli nelle proprie applicazioni”. L’AI generativa adolescente era quindi al centro di un’attenzione frenetica e altamente competitiva, un po’ come un talento emergente conteso da più scout.

Questa crescita tumultuosa non è avvenuta senza scossoni e ribellioni. Proprio come un adolescente imprevedibile, a volte l’AI generativa ha valicato i confini, obbligando gli adulti a intervenire. Un esempio eclatante fu la comparsa online di immagini false sorprendentemente realistiche: a marzo 2023, una foto fasulla di Papa Francesco con un voluminoso piumino bianco stiloso è diventata virale, ingannando milioni di utenti convinti fosse reale. Solo un esame attento rivelò dettagli distorti (per esempio l’anatomia della mano) confermando che si trattava di un prodotto di Midjourney, un modello generativo per immagini, e lasciando molti utenti “scioccati e confusi” nell’apprendere che anche le fotografie potevano essere contraffatte con tale facilità. Episodi come il “Papa col piumino” – seguiti da altri falsi virali, come le finte foto dell’arresto di Donald Trump circolate sui social – accesero un dibattito acceso sul potenziale di disinformazione legato all’AI. La società si rese conto che doveva affinare nuovi “anticorpi” contro gli abusi: ricercatori e aziende iniziarono a sviluppare strumenti per rilevare contenuti generati, mentre a livello legale si discusse di obblighi di watermarking (filigrane digitali) per segnalare i media sintetici. In breve, la fiducia verso queste AI adolescenti doveva essere accompagnata da consapevolezza critica, proprio come si insegna a un ragazzo i rischi del mondo reale man mano che esplora nuove possibilità.

Anche in altri ambiti culturali e professionali, l’AI generativa in adolescenza ha suscitato reazioni contrastanti tra paura e adattamento. Nel settore creativo alcuni artisti e scrittori hanno inizialmente visto queste tecnologie come minacce al proprio ruolo. Emblematico è stato il caso di Hollywood: nel 2023 sceneggiatori e attori americani sono scesi in sciopero anche per protestare contro l’uso non regolamentato dell’AI nelle produzioni. Allo stesso tempo, in molti altri uffici e studi professionali, dopo i timori iniziali si è diffusa un’accettazione graduale dell’AI generativa. Giornalisti, programmatori, consulenti, marketer – i cosiddetti professionisti della conoscenza – hanno iniziato a incorporare strumenti come ChatGPT nei propri flussi di lavoro per velocizzare compiti ripetitivi, ottenere spunti creativi o analizzare dati. Verso la fine del 2023 si poteva già osservare come la fase adolescenziale dell’AI generativa avesse portato a un cambio di paradigma: da potenziale minaccia esterna a nuova cassetta degli attrezzi integrata nella quotidianità lavorativa di molti, pur con cautela e con l’occhio vigile sull’affidabilità delle risposte.

Non sono mancate infine, in questa fase tumultuosa, le riflessioni collettive sul futuro e i tentativi di dare delle regole a un’innovazione così rapida. Nel marzo 2023 un gruppo di oltre mille esperti e imprenditori tecnologici (tra cui Elon Musk e Steve Wozniak) ha pubblicato una lettera aperta chiedendo una moratoria di sei mesi su qualsiasi addestramento di AI “più potente di GPT-4”, avvertendo dei rischi di un progresso fuori controllo – dalla proliferazione di propaganda automatizzata alla perdita di controllo sociale. L’appello, sebbene criticato da alcuni come allarmistico, ha evidenziato il diffuso sentimento che l’umanità si trovasse di fronte a un passaggio cruciale: l’AI stava diventando grande, e bisognava assicurarsi che crescesse bene. Governi e istituzioni internazionali, dal canto loro, hanno iniziato a lavorare su codici etici e regolamentazioni. In sostanza, l’adolescenza dell’AI generativa ha visto la nostra società fungere da genitore collettivo: preoccupato dei possibili colpi di testa di una tecnologia giovane e potente, ma anche desideroso di instradarla verso un’età adulta in cui possa esprimere appieno il suo potenziale in modo sicuro e utile per tutti.

Età adulta: maturità e integrazione (2024 – oggi)

Sul finire del 2023 e l’inizio del 2024, l’AI generativa ha iniziato a compiere i suoi primi passi nell’età adulta, raggiungendo una maturità relativa e inserendosi stabilmente nel tessuto tecnologico e sociale. Se l’adolescenza è stata caratterizzata da rapide evoluzioni e turbolenze, la fase adulta si apre all’insegna della consolidazione e dell’uso diffuso e consapevole. Oggi i modelli generativi di punta – come GPT-4.x di OpenAI, Claude 3..x di Anthropic, e i nuovi Gemini 2.x di Google – sono considerati strumenti affidabili (entro ampi limiti) e vengono integrati in una miriade di prodotti e servizi quotidiani. Miliardi di persone ormai interagiscono con queste intelligenze senza quasi rendersene conto: quando fanno domande agli assistenti vocali, quando ricevono suggerimenti di scrittura nelle email, quando usano le nuove funzionalità “magiche” in fogli di calcolo o IDE di programmazione. L’AI generativa adulta sta quindi trovando un lavoro stabile al nostro fianco, diventando invisibile infrastruttura cognitiva in sempre più applicazioni.

Questa diffusione capillare si riflette in numeri impressionanti. Secondo un rapporto del 2024, ben il 75% dei lavoratori della conoscenza a livello globale utilizza già strumenti di AI generativa nel proprio lavoro quotidiano. In molti casi sono gli stessi dipendenti ad aver adottato spontaneamente questi tool per aumentare la produttività, senza aspettare direttive dall’alto. Le aziende, dal canto loro, riconoscono che l’AI è ormai un imperativo di business: chi la applica per innovare processi e prodotti, come è accaduto in tutte le rivoluzioni tecnologiche precedenti. Allo stesso tempo, l’ubiquità di questi sistemi ha smorzato gli eccessi di entusiasmo così come le paure più cupe, lasciando il posto a una visione più matura e pragmatica. Ormai è chiaro che ChatGPT (o i suoi simili) non “prenderà il posto” di tutti i lavoratori umani, ma certamente cambierà il modo di lavorare di molti. L’AI diventa un partner che permette di “generare montagne di contenuti” per poi lasciarci il compito di verificare, rifinire e approvare. L’effetto netto, già osservabile, è un aumento di produttività in molti settori – ma anche la necessità urgente per i lavoratori di aggiornare le proprie competenze, integrando l’uso dell’AI e concentrandosi sulle abilità umane che le macchine al momento non hanno ancora sorpassato (pensiero critico, empatia, intuito creativo).

Dal punto di vista tecnologico, la fase di maturità attuale è contraddistinta da un miglioramento incrementale continuo e da alcune svolte qualitativamente nuove. I modelli vengono costantemente ottimizzati: GPT-4o, ad esempio, è stato sottoposto a mesi di fine-tuning e avversarial testing per renderlo più accurato e meno inclinato a risposte tossiche. Al tempo stesso, si assiste a un salto verso la multimodalità avanzata: se tali modelli combinavano già testo e immagini, la nuova generazione mira a operare fluidamente su testo, codice, audio, immagini e video insieme, incarnando l’aspirazione a un’intelligenza generale più vicina alla versatilità umana. Questi modelli di punta sono il risultato di collaborazioni su larga scala (Gemini, ad esempio, è frutto della sinergia tra Google e DeepMind) e rappresentano uno degli sforzi ingegneristici più grandi mai intrapresi da queste aziende. All’orizzonte, nei prossimi mesi, ci si attendono ulteriori progressi: contesti ancora più ampi per gestire intere librerie di informazioni, tempi di risposta sempre più rapidi, capacità di apprendere in tempo reale dalle interazioni senza dover essere ri-addestrati da zero. Si parla anche di future integrazioni con dispositivi quotidiani: assistant personali agentici, dotati di pensiero autonomo, che ci accompagneranno attraverso smartphone, occhiali AR, automobili. In sostanza, l’AI generativa si appresta a entrare in una sorta di prima età adulta in cui sarà onnipresente ma anche discretamente amalgamata nel tessuto delle nostre attività, come un ex ragazzo prodigio che ora è un professionista affidabile nel suo campo.

Non bisogna però confondere la giovane età adulta con la piena maturità: molti sviluppi restano ancora davanti a noi. Sul piano della percezione pubblica, ad esempio, c’è da costruire una fiducia consapevole: la società sta imparando a conoscere punti di forza e difetti dell’AI. Gli errori non sono scomparsi – il rischio di allucinazioni o bias nei modelli resta – ma si stanno affinando le pratiche per mitigarli, dalle tecniche di reinforcement learning umano alle verifiche incrociate con fonti esterne. Sul piano etico e legale, il 2024-25 sarà cruciale per passare da linee guida astratte a norme condivise: capire come certificare i contenuti generati, come tutelare i dati personali nell’addestramento, come attribuire le responsabilità in caso di danni causati da un’AI. Gli stessi leader del settore riconoscono la portata storica di questa transizione: “Credo che il passaggio che stiamo vivendo con l’AI sarà il più profondo delle nostre vite, molto più grande del passaggio al mobile o al web”, ha dichiarato il CEO di Google Sundar Pichai. L’AI generativa adulta porta infatti con sé la promessa di opportunità straordinarie – nuove ondate di innovazione, progressi scientifici accelerati, strumenti per la creatività e la produttività di massa – ma anche la responsabilità di gestire rischi inediti. Come ogni adulto alle prime armi, questa tecnologia sta assumendo ruoli importanti nel mondo reale e deve dimostrare di saperli sostenere in modo affidabile.

Usando la nostra analogia, potremmo dire che l’AI generativa oggi è una giovane adulta sulla soglia della maturità. Ha attraversato un’infanzia fatta di meraviglia e ingenuità, un’adolescenza di rapide trasformazioni e turbolenze, ed è entrata in una fase in cui comincia a stabilizzarsi e a trovare il suo posto nella società. La percezione collettiva è cambiata: inizialmente vista con curiosità e timore, poi con sentimenti polarizzati tra hype e panico morale, l’intelligenza artificiale generativa è ora sempre più considerata uno strumento concreto, quasi un collega digitale con cui imparare a collaborare. Ci troviamo, per così dire, alla fine del suo percorso di crescita e all’inizio della sua vita adulta al nostro fianco. Nel futuro immediato possiamo attenderci che questa “persona artificiale” continui a maturare: diventerà più abile, più sicura, imparerà dai suoi errori e, auspicabilmente, contribuirà a risolvere problemi reali migliorando la vita delle persone. Nuove sfide sorgeranno – come succede a ogni generazione – ma l’esperienza accumulata finora ci aiuterà a guidarla. Se l’infanzia e l’adolescenza dell’AI generativa ci hanno insegnato qualcosa, è che il modo in cui accompagneremo questa tecnologia nella piena maturità definirà il ruolo che essa avrà nella società.