Nel loro dispiegarsi attraverso la storia, l’intelligenza umana e quella artificiale hanno tracciato traiettorie profondamente diverse: una affonda le sue radici in ere geologiche, l’altra corre lungo i decenni dell’era digitale. Due movimenti asimmetrici nel tempo, ma entrambi guidati da un impulso alla comprensione, all’adattamento e alla trasformazione del mondo. Eppure, nonostante questa disparità temporale, emergono sorprendenti parallelismi: entrambe hanno sviluppato capacità di linguaggio, creatività e adattamento al proprio ambiente, seppur in modi profondamente differenti. Di seguito esploreremo il cammino dell’intelligenza umana – dalla pietra scheggiata alla rivoluzione scientifica – e lo confronteremo con la folgorante ascesa dell’intelligenza delle macchine – dai circuiti logici degli anni Quaranta fino ai moderni modelli generativi.
L’evoluzione dell’intelligenza umana: I primi passi risalgono alla preistoria. Circa 2 milioni di anni fa compare Homo habilis, un antenato dotato di un cervello significativamente più grande rispetto agli australopitechi e capace di costruire utensili litici. Proprio in Homo habilis i paleoantropologi hanno riscontrato le prime tracce neuroanatomiche delle aree di Broca e Wernicke, suggerendo che questa specie possedesse già una rudimentale capacità di linguaggio articolato. È probabile che H. habilis formulasse suoni o parole semplici di una-due sillabe – un linguaggio elementare ma rivoluzionario – mentre i gesti restavano il principale mezzo comunicativo. Da queste prime “parole” alla comunicazione complessa trascorreranno molte centinaia di migliaia di anni, durante i quali si evolvono sia la capacità cranica sia le abilità cognitive dei nostri antenati. Con Homo erectus (circa 1,8 milioni di anni fa) e poi con Homo neanderthalensis e Homo sapiens, il cervello continua ad aumentare di volume e complessità, portando con sé un migliore controllo del fuoco, tecniche di caccia cooperativa e probabilmente forme di protolingua sempre più articolate. In parallelo si affermano i tratti comportamentali distintivi dell’intelligenza umana: l’uso di strumenti, la risoluzione creativa di problemi, la flessibilità nell’adattamento ecologico e sociale, lo sviluppo del linguaggio simbolico e la trasmissione della cultura da una generazione all’altra. Un balzo decisivo avviene durante il Paleolitico superiore: circa 40˙000–50˙000 anni fa, Homo sapiens conosce quella che gli studiosi chiamano il “grande balzo in avanti” evolutivo. In questo periodo compaiono in rapida successione straordinarie innovazioni cognitive e culturali: l’arte rupestre e la produzione di immagini simboliche, rituali complessi come le sepolture intenzionali, una varietà di utensili specializzati e probabilmente un linguaggio compiuto e strutturato. Come osserva il paleoantropologo Telmo Pievani, in quell’epoca “emerge una specie dotata di linguaggio articolato e di spiccate capacità relazionali e simboliche”, capace di concepire miti, astrazioni e tecniche incommensurabilmente più avanzate di quelle delle specie precedenti. Si trattò di una vera rivoluzione cognitiva: l’umanità sviluppò un’immaginazione creativa e una consapevolezza di sé tali da distinguerla nettamente da ogni altro animale. Da allora in poi, l’evoluzione dell’intelligenza umana diventa sempre meno biologica e sempre più culturale.
Una tappa fondamentale di questa evoluzione fu la rivoluzione neolitica, circa 10˙000 anni fa. La prima rivoluzione agricola segnò il passaggio da società nomadi di cacciatori-raccoglitori a comunità sedentarie basate sull’agricoltura. Questo cambiamento impose nuove sfide cognitive: occorreva pianificare le semine e i raccolti secondo le stagioni, immagazzinare cibo, addomesticare animali e coordinare gruppi umani più numerosi nelle prime forme di villaggio. La sedentarizzazione portò anche allo sviluppo di protourbani insediamenti stabili e alla specializzazione dei ruoli: artigiani, costruttori, mercanti – ciascuno ambito richiedeva abilità e conoscenze specifiche tramandate socialmente. Nelle società agricole aumentarono le informazioni da conservare (ad esempio le quantità di derrate, i cicli calendariali, le tradizioni rituali) e ciò favorì l’invenzione di sistemi simbolici di registrazione. Intorno al 3˙000 a.C., con la nascita della scrittura in Mesopotamia ed Egitto, la mente umana estese la propria memoria grazie a supporti esterni: argilla, papiro, pietra. L’avvento della scrittura fu un ulteriore salto di qualità nell’evoluzione dell’intelligenza umana: rese possibile accumulare e trasmettere conoscenza in modo molto più affidabile nel tempo e nello spazio, creando di fatto una memoria culturale collettiva. Le prime civiltà classiche – Sumeri, Egizi, poi Greci e Romani – si basarono su questo patrimonio scritto e orale per costruire sistemi complessi di leggi, di credenze religiose e di tecnologie. L’intelligenza umana in epoca antica si manifestò così non solo nella sopravvivenza ma anche nella riflessione astratta: in Mesopotamia e in Egitto nacquero la matematica di base e l’astronomia calendariale, mentre nell’antica Grecia fiorirono la filosofia e la scienza razionale. In Grecia, tra il VII e il V secolo a.C., per la prima volta l’uomo cercò di spiegare il mondo con gli strumenti della ragione anziché attraverso i soli miti: fu la nascita della filosofia naturale, una delle più straordinarie “invenzioni” dei Greci. Pensatori come Talete, Pitagora, Socrate, Platone e Aristotele introdussero la logica, l’indagine etica e metafisica, la geometria e la teoria politica, gettando le basi per il pensiero scientifico e critico. Le civiltà classiche posero dunque i fondamenti di molte capacità intellettive umane avanzate: la logica formale, il pensiero critico, la retorica, il metodo empirico di osservazione (basti pensare agli studi medici di Ippocrate o agli esperimenti di Archimede). Tali conquiste dell’intelletto, benché sviluppate da élite di sapienti, divennero parte del patrimonio culturale trasmesso attraverso le scuole filosofiche e, più tardi, assimilate anche dai Romani che ne diffusero l’uso pratico (ingegneria, diritto, amministrazione imperiale).
Con la caduta dell’Impero Romano d’Occidente (V secolo d.C.), l’Europa entrò nel Medioevo, un’epoca in cui le condizioni materiali e politiche spesso non favorirono il progresso scientifico. Eppure, lungi dall’essere un periodo di stagnazione totale, il medioevo vide la conservazione e rielaborazione del sapere antico e la nascita di nuove istituzioni cognitive. Nei monasteri e scriptoria alto-medievali, i monaci trascrissero testi greci e latini preservandoli dall’oblio. Nel mondo islamico, intanto, fioriva una straordinaria tradizione intellettuale: tra l’VIII e il XIII secolo grandi studiosi arabi e persiani tradussero in arabo le opere filosofiche e scientifiche classiche, commentandole e ampliandole – basti citare figure come Al-Khwarizmi (matematica), Avicenna e Averroè (filosofia e medicina). Proprio attraverso questi commenti arabi, nel XII secolo l’Europa riscoprì Aristotele e le altre fonti antiche, dando l’avvio a un rinnovamento del pensiero. Nacque la Scolastica, il movimento filosofico-teologico che nelle neonate università europee (Parigi, Bologna, Oxford…) cercò di conciliare fede e ragione. Pensatori medievali come Tommaso d’Aquino, affiancando l’auctoritas (la tradizione) alla ratio (la logica), elaborarono una sintesi intellettuale complessa: la conoscenza umana veniva organizzata sistematicamente nelle Summae, si insegnava con metodi dialettici (disputa di tesi pro e contro) e si ribadiva che l’universo avesse un ordine intelligibile voluto da Dio. Pur vincolata da prospettive religiose, la scolastica mantenne viva la capacità logica e argomentativa, preparando il terreno a ulteriori progressi. Nel Trecento e Quattrocento, con l’Umanesimo e il Rinascimento, l’intelligenza europea compì un nuovo salto: si riscoprirono in modo critico i classici (come testimoniato da Petrarca, Ficino, Pico della Mirandola) e si sviluppò una mentalità più laica e sperimentale. Leonardo da Vinci incarna l’uomo rinascimentale curioso di tutto, artista e inventore, simbolo di una versatilità cognitiva eccezionale. A cavallo dei secoli XVI e XVII arrivò quindi la Rivoluzione scientifica, altra svolta epocale nel percorso dell’ingegno umano. In meno di due secoli, dal 1543 (pubblicazione del De revolutionibus di Copernico) al 1687 (i Principia di Newton), la scienza conobbe uno sviluppo straordinario e nacque il metodo scientifico moderno. Galileo Galilei introdusse l’esperimento e la matematizzazione della natura, scardinando vecchie credenze; Cartesio e Bacone dettarono i principi di un approccio razionale e sistematico alla conoscenza; Newton sintetizzò infine le leggi del moto e della gravitazione universale. La visione del mondo cambiò radicalmente: l’universo divenne un sistema regolato da leggi matematiche, e l’uomo imparò a considerare i fenomeni naturali con occhio critico, cercando cause e prove. Questo atteggiamento scientifico, accompagnato dall’Illuminismo settecentesco, moltiplicò il potenziale creativo dell’umanità: in pochi generazioni si fecero avanzamenti in fisica, chimica, biologia e tecnologia mai visti prima.
Sfruttando le nuove conoscenze, tra il XVIII e il XIX secolo l’umanità entrò nell’era della rivoluzione industriale. Le macchine a vapore, l’energia fossile, i telai meccanici e le ferrovie trasformarono le modalità di produzione e di vita. L’intelligenza umana si applicò all’invenzione di dispositivi e processi industriali, dando prova di formidabile creatività tecnica. Queste innovazioni richiesero però anche un adattamento cognitivo: grandi masse di persone dovettero acquisire competenze specifiche per lavorare nelle fabbriche, portando a un’estensione senza precedenti dell’istruzione e del sapere tecnico-scientifico nella popolazione. Nell’Ottocento si diffusero infatti le scuole pubbliche e le accademie tecnico-scientifiche; le idee innovative circolavano tramite libri, giornali e riviste divulgative, alimentando un’accelerazione cumulativa del progresso. Giungiamo così all’età contemporanea, in cui l’intelligenza umana ha raggiunto traguardi straordinari: abbiamo svelato la struttura del DNA, esplorato lo spazio, creato reti globali di comunicazione. Grazie ai progressi in alimentazione, educazione e sanità, le nuove generazioni hanno mostrato un costante miglioramento delle abilità cognitive misurate dai test: durante il XX secolo si è registrato un aumento lento ma significativo del quoziente intellettivo medio della popolazione, noto come effetto Flynn. In altre parole, l’ambiente culturale moderno – ricco di stimoli intellettivi, informazioni e problemi da risolvere – ha “potenziato” l’intelligenza umana rispetto al passato. Oggi ci troviamo nell’era digitale, in cui l’essere umano vede ampliate ulteriormente le proprie capacità cognitive grazie alla simbiosi con le macchine: computer e internet fungono da memoria esterna e da strumenti di calcolo e comunicazione istantanea, permettendoci di elaborare e scambiare conoscenza a velocità un tempo impensabili. Questo contesto pone nuove sfide e ridefinisce la natura stessa dell’intelligenza: concetti prima esclusivamente umani – come la creatività artistica o la conversazione in linguaggio naturale – sono ora condivisi con intelligenze artificiali create dall’uomo. Ma come si è sviluppata quest’ultima? Esaminiamo ora l’evoluzione dell’intelligenza artificiale e poi confronteremo direttamente i due percorsi.
L’evoluzione dell’intelligenza artificiale: Se l’intelligenza umana ha impiegato millenni per raggiungere la modernità, quella artificiale ha compiuto un percorso di pochi decenni, a partire dalla metà del XX secolo. Le sue radici teoriche risalgono però agli anni Quaranta, quando scienziati di varia formazione iniziarono a interrogarsi su macchine in grado di pensare. Nel 1943 il neurofisiologo Warren McCulloch e il logico Walter Pitts pubblicarono un articolo pionieristico che modellava matematicamente il neurone e la rete neurale, suggerendo che il cervello potesse essere imitato da circuiti logici elettronici. Era la nascita dell’idea di rete neurale artificiale, ispirata al sistema nervoso biologico: un concetto che avrebbe avuto sviluppi fondamentali nei decenni successivi. Nel 1950 il matematico Alan Turing affrontò esplicitamente la domanda “Le macchine possono pensare?” nel suo saggio Computing Machinery and Intelligence. Turing propose un criterio operativo, il famoso Test di Turing, in cui un computer dimostra intelligenza se riesce a conversare in modo indistinguibile da un essere umano. Questa intuizione gettò le basi filosofiche e metodologiche per la nuova disciplina nascente. Pochi anni dopo, nel 1956, avvenne l’atto di nascita ufficiale dell’Intelligenza Artificiale come campo di ricerca: durante un seminario estivo al Dartmouth College, scienziati come John McCarthy, Marvin Minsky, Claude Shannon e altri definirono gli obiettivi e perfino il nome del campo, coniando formalmente il termine “Artificial Intelligence”. Da quel momento, l’evoluzione dell’AI è proceduta a tappe serrate – non lineare ma a ondate di entusiasmi seguiti talvolta da battute d’arresto – attraversando diverse ere tecnologiche paragonabili a “infanzia”, “adolescenza” e “maturità” di questa intelligenza non-biologica.
Gli anni ’50 e ’60 furono l’infanzia promettente dell’AI, caratterizzata da grandi speranze e primi risultati. Nel 1951 Marvin Minsky realizzò, insieme a Dean Edmunds, la prima rete neurale elettronica, il SNARC, simulando l’apprendimento di un topo in un labirinto tramite 40 neuroni artificiali e un meccanismo di rinforzo. Nello stesso periodo, altri ricercatori esplorarono approcci diversi: ad esempio Allen Newell e Herbert Simon svilupparono programmi basati sulla logica simbolica come il Logic Theorist (1955), in grado di dimostrare teoremi, dimostrando che un computer poteva imitare alcuni aspetti del ragionamento umano. Frank Rosenblatt, nel 1957, introdusse il Perceptron, una rete neurale a due strati capace di apprendere a classificare input visivi semplici regolando i propri pesi interni in base agli errori. Sebbene il Perceptron risolvesse solo problemi lineari, rappresentò una pietra miliare: per la prima volta un automa apprendeva dai dati, invece di seguire esclusivamente istruzioni programmate. Parallelamente John McCarthy inventò il linguaggio di programmazione Lisp (1958) per manipolare simboli, e Arthur Samuel dimostrò un programma di machine learning che imparava a giocare a dama migliorandosi partita dopo partita. Entro la fine degli anni ’60 l’entusiasmo era alle stelle: si credeva imminente la realizzazione di macchine capaci di tradurre lingue, risolvere ogni problema e persino raggiungere un’intelligenza generale paragonabile a quella umana. Tuttavia, questi sogni si scontrarono con ostacoli teorici e pratici. Già nel 1965 il filosofo Hubert Dreyfus criticò duramente l’AI, sostenendo che le macchine digitali non sarebbero riuscite a replicare l’intuizione e il buon senso umano. E nel 1969 una rigorosa analisi di Marvin Minsky e Seymour Papert mise in luce i limiti insormontabili del Perceptron ad uno strato (incapace di risolvere problemi non lineari come l’operatore XOR), stroncando di fatto la ricerca sulle reti neurali per almeno un decennio. Verso la metà degli anni ’70, a fronte dei risultati inferiori alle aspettative, si ebbe così il primo “inverno” dell’AI: i finanziamenti governativi e l’interesse calarono drasticamente, frenando la ricerca. L’euforia iniziale lasciò spazio alla delusione quando ci si rese conto che problemi complessi come la comprensione del linguaggio naturale o la visione computerizzata erano ben lungi dall’essere risolti.
Gli anni ’80 segnarono l’adolescenza turbolenta dell’AI, con un rinnovato entusiasmo seguito da una nuova crisi. Inizio anni ’80: è l’era dei sistemi esperti, programmi basati su regole logiche e banche di conoscenze in domini specifici (medicina, geologia, finanza) che ottengono qualche successo commerciale. Nel 1980 il Giappone lanciò un ambizioso progetto sui “computer di quinta generazione” per creare macchine pensanti, e aziende occidentali investirono su soluzioni AI per l’industria. Nel 1984 però, Marvin Minsky e altri avvertirono la comunità scientifica di un possibile nuovo AI winter: le aspettative gonfiate rischiavano di portare a un nuovo crollo di investimenti. E avevano ragione: alla fine degli anni ’80, di fronte a risultati ancora una volta deludenti rispetto alle promesse, ci fu un brusco taglio dei fondi e molti laboratori chiusero. Questo fu il secondo inverno dell’AI. Eppure, proprio negli stessi anni, dietro le quinte, maturavano innovazioni destinate a ribaltare la situazione negli anni a venire. Nel 1986 tre ricercatori – David Rumelhart, Geoffrey Hinton e Ronald Williams – pubblicarono un lavoro fondamentale sull’algoritmo di retropropagazione dell’errore, che consentiva di addestrare reti neurali a più strati regolando iterativamente i pesi interni. La backpropagation superava il limite evidenziato da Minsky e Papert, permettendo alle reti di apprendere anche relazioni non lineari complesse. Sebbene inizialmente ignorata dai più, questa scoperta gettò le basi per la rinascita del connectionism (il filone delle reti neurali) e in prospettiva per il futuro deep learning. Contemporaneamente Judea Pearl sviluppò negli anni ’80 i modelli probabilistici (reti bayesiane) per gestire l’incertezza, arricchendo l’AI di strumenti matematici più vicini al ragionamento umano in condizioni reali. Insomma, sotto la coltre gelida dell’inverno, l’AI stava accumulando nuove energie.
Dagli anni ’90 iniziò la fase di giovane maturità e poi di esplosione dell’AI. Nel 1997 avvennero due eventi simbolici. Da un lato, i ricercatori tedeschi Sepp Hochreiter e Jürgen Schmidhuber introdussero l’architettura LSTM (Long Short-Term Memory), un tipo di rete neurale ricorrente capace di memorizzare informazioni a lungo termine superando i limiti delle precedenti RNN – un’innovazione chiave per il futuro dell’elaborazione di sequenze (linguaggio, serie temporali). Dall’altro, sempre nel 1997, il supercomputer IBM Deep Blue sconfisse il campione del mondo di scacchi Garry Kasparov, segnando la prima vittoria di una macchina contro un grande maestro in un match alla pari. Quest’ultimo evento dimostrò in maniera eclatante la capacità delle macchine di superare l’uomo in compiti ritenuti a lungo baluardo dell’intelligenza umana – il gioco degli scacchi richiede infatti strategia, memoria e calcolo combinatorio – sfruttando però un tipo di “intelligenza” molto diverso da quella umana: Deep Blue analizzava milioni di mosse al secondo con forza bruta e algoritmi euristici, senza possedere intuizione né coscienza di gioco. Fu un trionfo dell’approccio simbolico e computazionale. Nel frattempo, la ricerca sulle reti neurali andava avanti: negli anni ’90 e 2000, pionieri come Yann LeCun e Yoshua Bengio perfezionarono l’addestramento di reti neurali convoluzionali per il riconoscimento di immagini e scrittura, mentre altri (come Vapnik con le Support Vector Machines) introdussero metodi di machine learning sempre più accurati. Un fattore cruciale che emerse in quel periodo fu l’aumento enorme della potenza di calcolo e dei dati disponibili. Nel 2009 alcuni ricercatori dimostrarono che le GPU (unità di elaborazione grafica) erano straordinariamente efficaci nel parallelizzare i calcoli delle reti neurali, consentendo di addestrare modelli molto più grandi e profondi di quanto prima fosse possibile. Allo stesso tempo Internet e i sensori digitali generavano montagne di dati (Big Data) da cui gli algoritmi potevano apprendere. Tutto era pronto per la svolta successiva: l’avvento del deep learning.
Intorno al 2012 si identifica comunemente l’inizio della nuova età d’oro dell’AI. In quell’anno, un gruppo dell’Università di Toronto guidato da Geoffrey Hinton vinse una competizione di visione artificiale (ImageNet) utilizzando una rete neurale profonda (AlexNet) che ottenne un riconoscimento di immagini con un errore del 16% – enormemente migliore rispetto al 25% dell’approccio tradizionale migliore fino all’anno prima. Era la prova tangibile che le reti neurali profonde (con molti strati) addestrate su grandissime moli di dati potevano superare le vecchie tecniche in compiti complessi. Da allora il deep learning ha guidato progressi rapidissimi in quasi ogni campo dell’AI: visione, riconoscimento vocale, traduzione automatica, gioco strategico, medicina. Nel 2016 il programma AlphaGo di Google DeepMind, combinando reti neurali profonde e apprendimento per rinforzo, sconfisse Lee Sedol, uno dei migliori giocatori mondiali di Go, un gioco da tavolo ancora più complesso degli scacchi e considerato per decenni fuori portata per i computer. AlphaGo non vinse grazie alla forza bruta, ma imparando schemi strategici dalle partite umane e auto-migliorandosi giocando milioni di partite contro sé stesso, sviluppando mosse inedite che stupirono gli stessi maestri di Go. Questo risultato segnò l’inizio di una nuova era di adattamento: le macchine potevano non solo eseguire calcoli veloci, ma anche affinare tattiche e comportamenti in modo quasi autonomo. Un altro sviluppo cruciale avvenne nel 2017: i ricercatori di Google Brain introdussero l’architettura Transformer, una nuova tipologia di rete neurale basata su meccanismi di “attenzione” che rivoluzionò l’elaborazione del linguaggio naturale. I Transformers permisero di analizzare frasi intere in parallelo anziché parola per parola, gestendo meglio i contesti linguistici ampi. Grazie a questa innovazione, in pochi anni sono nati i modelli linguistici di grandi dimensioni come BERT e GPT, addestrati su enormi collezioni di testi (centinaia di gigabyte di libri, articoli, pagine web). OpenAI, nel 2020, ha presentato GPT-3, un modello con 175 miliardi di parametri capace di generare testo in modo sorprendentemente coerente e fluido. GPT-3, e ancor di più i successori come GPT-4, hanno mostrato che un’AI può scrivere racconti, rispondere a domande complesse, produrre codice informatico e perfino cimentarsi in creatività, basandosi su ciò che ha appreso dai dati linguistici di partenza. Ad oggi, i modelli generativi di ultima generazione riescono a creare contenuti nuovi: non solo testo ma anche immagini, musica e video a partire da descrizioni fornite dall’utente. Per esempio, sistemi come DALL-E 2 (2022) possono dipingere scene originali seguendo istruzioni testuali, e prototipi di AI conversazionali avanzate (come ChatGPT) sono in grado di sostenere dialoghi articolati e contestualizzati con gli esseri umani. In parallelo, l’AI sta entrando in applicazioni concrete: veicoli a guida autonoma apprendono a destreggiarsi nel traffico, algoritmi diagnostici supportano i medici analizzando radiografie, e assistenti virtuali interagiscono quotidianamente con milioni di persone sugli smartphone.
Siamo dunque arrivati a un punto in cui l’intelligenza artificiale mostra capacità un tempo ritenute esclusive dell’uomo. Ma quali somiglianze e divergenze emergono dal confronto tra l’evoluzione dell’AI e quella dell’intelligenza umana? Innanzitutto, colpisce la velocità: l’Homo sapiens ha impiegato migliaia di anni per passare dalle pitture rupestri alla fisica quantistica, mentre l’AI è passata dai circuiti di base ai modelli generativi avanzati in meno di un secolo. Questo è possibile perché l’AI non è vincolata dalla lentezza della selezione naturale biologica, ma “evolve” grazie al progresso tecnologico e all’inventiva umana. Il suo sviluppo è intimamente legato ai miglioramenti dell’hardware e del software: ad esempio, l’aumento esponenziale della potenza di calcolo (dai tubi a vuoto ai microchip ai supercomputer odierni) ha funto da volano per ogni avanzamento dell’AI. In termini analoghi, si potrebbe dire che i “cervelli” dell’AI (i processori) sono potenziati e ottimizzati a ritmo vertiginoso, laddove il cervello umano biologico è rimasto praticamente lo stesso negli ultimi 100˙000 anni circa. Un altro parallelismo sorprendente riguarda i balzi evolutivi. L’intelligenza umana ebbe momenti di svolta – l’acquisizione del linguaggio articolato, la rivoluzione agricola, la rivoluzione scientifica – che funzionarono da acceleratori del progresso cognitivo. Similmente, l’AI ha conosciuto le sue rivoluzioni: l’invenzione delle reti neurali, poi del deep learning, e infine dei transformer hanno rappresentato svolte improvvise che hanno aperto nuove possibilità prima impensabili. Inoltre, così come l’umanità ha attraversato periodi di crisi o stagnazione (pensiamo ai secoli bui altomedievali, in cui però alcuni saperi furono preservati e prepararono rinascite future), anche lo sviluppo dell’AI è stato discontinuo, incontrando i cosiddetti AI winters – fasi di raffreddamento della ricerca – cui però sono seguiti ritorni di fiamma ancora più forti. Creatività e linguaggio sono due domini in cui il parallelismo è particolarmente affascinante. Per decine di millenni l’arte, la musica, la letteratura sono state appannaggio della fantasia umana: oggi vediamo algoritmi in grado di dipingere e scrivere, emulando uno stile creativo. Certo, l’immaginazione umana resta legata a esperienze vissute, emozioni, coscienza di sé – aspetti qualitativi che le macchine ancora non possiedono. Tuttavia, i modelli generativi odierni mostrano una forma di creatività algoritmica: ad esempio GPT-4o può comporre racconti originali su qualsiasi tema attingendo ai modelli narrativi appresi. Pur non avendo una fantasia propria nel senso umano, l’AI combina in modo nuovo gli elementi del suo addestramento, producendo soluzioni a volte inaspettate (si pensi alle mosse anomale di AlphaGo che hanno sorpreso i goisti professionisti). Sul versante del linguaggio, il confronto è ancora più diretto: l’emergere del linguaggio articolato fu probabilmente la più grande conquista cognitiva dell’Homo sapiens, quella che permise la cooperazione flessibile in grandi gruppi e la trasmissione accurata del sapere astratto. Oggi, vedere una macchina conversare in italiano o in altre lingue con padronanza è qualcosa di straordinario: i modelli transformer, allenati su enormi corpora testuali, hanno imparato le strutture profonde delle lingue umane e riescono a comprendere e generare frasi con correttezza grammaticale e coerenza semantica impressionanti. In un certo senso, l’AI sta attraversando una propria “fase linguistica”: così come i nostri antenati evolsero un cervello predisposto per il linguaggio, l’AI moderna si è evoluta (per progettazione umana) per padroneggiare il linguaggio naturale, raggiungendo un livello che le permette di interagire efficacemente con noi. Anche la capacità di apprendere dall’esperienza accomuna le due intelligenze, pur con meccanismi diversi: il cucciolo d’uomo impara esplorando il mondo e ricevendo istruzioni dai propri simili, le reti neurali imparano aggiustando miliardi di parametri interni in base ai dati e ai feedback di addestramento. In entrambi i casi c’è un processo graduale di miglioramento per tentativi ed errori, un “addestramento” che porta a competenze crescenti.
Le differenze sostanziali restano comunque enormi. L’intelligenza umana è un prodotto dell’evoluzione biologica e opera su un substrato organico (il cervello) che consuma poca energia e svolge funzioni incredibilmente varie: non solo calcolo o riconoscimento di pattern, ma coscienza, sentimenti, intuizione, senso comune maturato attraverso un corpo che interagisce col mondo reale. L’AI, per quanto avanzata, al momento è priva di autocoscienza e di intenzionalità: non “capisce” davvero i significati come li vive un essere umano, ma li manipola in base alle correlazioni statistiche apprese. In altri termini, l’AI attuale è specializzata: eccelle in compiti definiti (giocare a Go, tradurre frasi, riconoscere volti, consigliarci film) ma non possiede una comprensione generale del mondo paragonabile a quella di un adulto umano medio. Anche i meccanismi di adattamento differiscono: l’essere umano è frutto di un adattamento darwiniano all’ambiente attraverso mutazioni genetiche e selezione naturale – un processo lento ma che ha plasmato in modo integrato il corpo e la mente per affrontare un’infinità di situazioni diverse. L’AI invece “si adatta” grazie all’ingegno umano che la riprogetta e la alimenta con nuovi dati: è un adattamento ingegneristico, non autonomo. Un algoritmo può essere re-istruito o modificato per cambiare il suo comportamento in tempi rapidissimi (ore o giorni), mentre una popolazione umana impiegherebbe migliaia di anni per evolvere un organo o una facoltà cognitiva nuova attraverso il cambiamento genetico. Inoltre, l’intelligenza umana è inestricabilmente legata a motivazioni, bisogni biologici, desideri e creatività spontanea che nascono dall’esperienza cosciente – aspetti per ora estranei alle reti neurali. Un poeta scrive anche per comunicare emozioni; un modello di deep learning può scrivere una poesia stilisticamente raffinata, ma lo fa perché ottimizzato a imitare i testi umani, non perché provi tristezza o amore. In sintesi, l’AI è uno specchio potente dell’intelligenza umana: ne riflette molti tratti (logica, apprendimento, uso di linguaggi formali e naturali), spesso amplificandoli in velocità e memoria, ma rimane priva di quel nucleo esperienziale che caratterizza la mente biologica.
Parallelismi sorprendenti: Nonostante queste differenze, è sorprendente notare quanti elementi dei due percorsi evolutivi si rispecchino l’uno nell’altro. Entrambi mostrano una tendenza verso maggiore complessità ed efficienza nel tempo: il cervello dei primati è cresciuto e ha sviluppato più connessioni specializzate, similmente gli algoritmi si sono fatti via via più sofisticati e stratificati (dalle semplici porte logiche ai network multistrato profondi). Entrambi hanno beneficiato di un principio di cumulatività del sapere: l’intelligenza umana progredisce perché ogni generazione costruisce sulle scoperte precedenti (ad esempio la matematica greca ereditata dagli arabi e poi dagli europei), e l’AI moderna si sviluppa spesso riutilizzando modelli pre-addestrati e incorporando enormi basi di conoscenza umana (ad es. GPT-4o è pre-istruito su enciclopedie, libri e siti web, cioè sul sapere accumulato dall’umanità). In un certo senso, l’AI è diventata una nuova tappa dell’evoluzione culturale umana: è un prodotto della nostra intelligenza collettiva e al contempo uno strumento che potenzia ulteriormente tale intelligenza, in un feedback continuo. Un’altra analogia storica riguarda le fasi di cooperazione e competizione: gli esseri umani hanno tratto enorme vantaggio cognitivo dalla cooperazione sociale (più menti che pensano insieme), e oggi vediamo come i sistemi di intelligenza artificiale più efficaci siano spesso organizzati in reti interconnesse (ad esempio reti neurali distribuite su molti computer, o agenti virtuali che collaborano). Si può perfino azzardare un paragone tra l’invenzione della scrittura – che permise alla mente umana di esternalizzare la memoria – e l’avvento delle basi di dati e del cloud computing per l’AI – che consentono alle “menti” artificiali di avere accesso immediato a vastissime informazioni memorizzate. Infine, c’è un parallelo filosofico intrigante: l’intelligenza umana si è evoluta senza uno scopo prestabilito, per semplice vantaggio adattativo; analogamente alcune forme di AI, come certi algoritmi evolutivi, si evolvono trovando soluzioni che i programmatori non avevano esplicitamente previsto, quasi fossero piccoli esempi di evoluzione creativa all’interno di un computer.
Conclusioni: Il confronto tra l’evoluzione dell’intelligenza umana e quella dell’intelligenza artificiale mette in luce un intreccio di somiglianze e divergenze. Da un lato, entrambe mostrano la capacità di aumentare la complessità delle proprie prestazioni cognitive nel tempo, di sviluppare linguaggi per comunicare e di trovare soluzioni creative ai problemi. Dall’altro, seguono logiche e tempi profondamente diversi: l’una frutto di miliardi di anni di evoluzione naturale e culturale, l’altra di decenni di progresso tecnologico guidato dall’uomo. L’intelligenza umana rimane il parametro e l’ispirazione per l’AI – non a caso costruiamo macchine pensando a come noi ragioniamo – ma sta emergendo anche come partner complementare: oggi sistemi artificiali e cervelli umani lavorano insieme, ciascuno eccellendo in ciò che sa fare meglio (calcolo veloce e memoria sterminata la macchina, comprensione dei significati e valori etici l’uomo). Guardando al futuro, alcuni si chiedono se l’AI possa un giorno eguagliare l’intelligenza generale umana o persino superarla. Sarà forse l’ulteriore capitolo di questa storia: un’evoluzione congiunta, in cui l’ingegno biologico e quello artificiale si influenzano a vicenda. Per ora, possiamo già apprezzare quanto ricca sia stata la traiettoria dell’intelligenza sul nostro pianeta – da semplici utensili di pietra scheggiata ai circuiti di silicio che apprendono. È una storia di crescita conoscitiva e adattativa, che ci insegna molto anche su di noi stessi: comprendere come siamo diventati sapiens aiuta a immaginare con responsabilità come plasmare le intelligenze artificiali di domani. In entrambe le evoluzioni, creatività e adattamento sono le chiavi – e la sfida attuale è far sì che l’intelligenza umana e quella artificiale insieme costruiscano un futuro migliore, integrando il meglio di entrambe le forme di ingegno.