Introduzione

Quest’opera contiene in larga parte contenuti generati dall’intelligenza artificiale. L’intervento umano è stato centrale nell’organizzazione degli argomenti, nella revisione e nella cura del prodotto finale. Edizione 1.0 © 2026
Questo saggio breve ricostruisce, in forma controfattuale e su base documentaria, come Umberto Eco avrebbe potuto leggere l’intelligenza artificiale generativa testuale e i large language model, inserendoli nel proprio lessico teorico: semiosi, interpretazione come congettura, enciclopedia culturale, cooperazione tra testo e lettore, limiti dell’interpretazione. L’operazione non intende attribuire a Eco posizioni mai espresse, bensì mettere alla prova i suoi strumenti concettuali di fronte a un oggetto tecnico emerso dopo la sua scomparsa. In questa prospettiva, il confronto diventa un esperimento teorico controllato, fondato su testi e categorie già consolidate nel suo percorso intellettuale.
Il fulcro dell’analisi risiede in due fonti primarie tarde, spesso poco considerate nel dibattito recente: la lezione del 2004 sulle nuove tecnologie tenuta all’Università di Pisa e pubblicata integralmente, e la lezione magistrale del 2010 alla Sapienza Università di Roma. In entrambe si trovano concetti che possono essere messi in relazione con i nodi tecnici dei modelli linguistici contemporanei, soprattutto per quanto riguarda il rapporto tra informazione e significato, tra catena dei segni e ancoraggio alla realtà. Queste lezioni offrono un lessico sorprendentemente adatto a descrivere la soglia che separa il calcolo statistico dalla produzione di senso, tema oggi centrale nella discussione sui sistemi generativi.
Le evidenze dirette consentono di delineare tre aspettative plausibili. Anzitutto, Eco avrebbe descritto i modelli linguistici come dispositivi capaci di produrre sequenze su base probabilistica, in grado di generare “informazione” in senso tecnico. Nel suo quadro teorico, l’informazione appartiene alla fonte e alle sue regolarità statistiche; il messaggio emerge quando una sequenza viene assunta entro un atto comunicativo. La trasformazione dell’informazione in “messaggio” avverrebbe quindi soltanto nel momento in cui un interprete umano le attribuisce un senso e uno scopo comunicativo, collocandola dentro un contesto di attese, intenzioni e pratiche condivise. Questa distinzione permette di leggere il funzionamento dei large language model come produzione di candidati testuali che acquistano statuto comunicativo solo attraverso l’intervento dell’interprete.
In secondo luogo, Eco avrebbe ribadito il ruolo culturale del filtraggio e la necessità di un’enciclopedia condivisa. La crescita incontrollata dell’informazione tende infatti a frammentare i linguaggi comuni e a moltiplicare repertori isolati; per Eco la cultura vive di selezione, di gerarchie, di criteri di pertinenza. In tale cornice, la qualità e la regolazione dei repertori testuali da cui i modelli apprendono diventano questioni decisive, poiché da quei repertori dipende la configurazione dell’enciclopedia implicita che orienta le risposte. Il problema investe la quantità dei dati insieme alla loro organizzazione simbolica e al tipo di comunità interpretativa che essi presuppongono.
Infine, Eco avrebbe difeso l’idea di limiti interpretativi come criterio di coerenza testuale. L’interpretazione, nella sua prospettiva, si configura come congettura sottoposta a verifica interna, capace di confrontarsi con l’intero del testo e con le sue restrizioni. In questa luce, l’assertività tipica dei sistemi generativi e le loro allucinazioni possono essere comprese come effetti strutturali di un obiettivo orientato alla plausibilità più che all’accertamento. La coerenza formale di una risposta non garantisce il suo radicamento in pratiche di controllo condivise; occorre un lavoro ulteriore di verifica che riporta l’atto interpretativo entro un orizzonte comunitario.
Laddove manca una presa di posizione esplicita sui large language model, dato che Eco muore nel 2016, l’argomentazione avanza ipotesi motivate, chiaramente distinte dalle evidenze testuali. Tra queste, la lettura dell’LLM come un “Abulafia” contemporaneo: un motore combinatorio capace di produrre connessioni e testi attraverso la permutazione di elementi archivistici. Il rischio cognitivo specifico consiste nello scambiare la potenza combinatoria per accesso privilegiato alla conoscenza, confondendo l’ampiezza delle correlazioni con una comprensione intenzionale del mondo. Tale ipotesi si fonda su un intreccio di elementi: il ruolo del computer e della combinatoria nel Il pendolo di Foucault e la testimonianza dello stesso Eco sul legame tra intreccio narrativo ed entrata in scena del personal computer. In quel contesto letterario, la macchina funge da catalizzatore di connessioni, mettendo in scena la seduzione di una chiave universale; la riflessione teorica che ne deriva offre un precedente utile per interrogare le promesse e le aspettative oggi attribuite ai modelli linguistici.
Principi ecoiani rilevanti per capire un LLM
Nel 2004 Eco avvia la sua riflessione distinguendo con chiarezza due accezioni di “informazione”: da un lato quella tecnica, derivata dalla teoria matematica dell’informazione, intesa come proprietà statistica della fonte e misurabile in termini di probabilità e riduzione dell’incertezza; dall’altro quella ordinaria, come messaggio dotato di significato e trasmissibile all’interno di una situazione comunicativa. Il passaggio dall’una all’altra coincide, nella sua prospettiva, con l’ingresso nell’ambito della comunicazione e della significazione, cioè con l’intervento di un interprete che attribuisce senso a una sequenza di segni. In questa soglia si gioca una trasformazione decisiva: una configurazione formale diventa contenuto condiviso. Questa architettura concettuale dialoga in modo sorprendente con la descrizione tecnica dei large language model nei rapporti contemporanei: sistemi pre-addestrati a predire il token successivo, che ottimizzano una grandezza statistica, la loss, sulla forma linguistica. Anche qui si osserva uno scarto fra il livello del calcolo probabilistico e quello dell’assunzione di significato, che si attiva soltanto quando un utente legge l’output come risposta pertinente.
Nella stessa lezione del 2004 emerge un tema decisivo per comprendere i modelli generativi: la cultura come capacità di filtrare e scartare informazione. Eco richiama il sovraccarico informativo del presente e, attraverso Jorge Luis Borges, evoca la figura di Funes, incarnazione di una memoria totale che paralizza l’inferenza perché incapace di selezionare e di dimenticare. Una memoria integrale, priva di gerarchie, impedisce di costruire concetti e di operare distinzioni rilevanti. Il web viene così accostato a una memoria sterminata, continuamente aggiornata, priva però di un dispositivo culturale che stabilisca cosa trattenere e cosa lasciare cadere. In termini ecoiani, il sapere praticabile nasce da una memoria selettiva e da una comunità che converge su scarti, gerarchie e criteri di affidabilità. Senza questo lavoro di selezione, l’accumulo resta massa indistinta. Applicata ai modelli linguistici, tale osservazione invita a interrogarsi sul rapporto fra quantità di dati e qualità delle inferenze, fra ampiezza del corpus e capacità di articolare differenze significative.
La lezione del 2010 offre un secondo quadro teorico: la semiosi come catena di interpretanti, dotata di una dimensione pragmatica che rimanda a un “oggetto dinamico” esterno alla sola circolazione dei segni. Ogni segno rinvia a un altro segno, in una progressione potenzialmente illimitata, e tuttavia questa catena trova un orientamento nella relazione con qualcosa che eccede il testo. Eco chiarisce che l’interpretazione forma abiti e orienta interventi sulla realtà che ha dato avvio alla semiosi. L’atto interpretativo incide sulle pratiche, modifica comportamenti, stabilizza consuetudini. Questa attenzione al fuori-testo è cruciale nel confronto con i modelli linguistici, perché sposta lo sguardo dalla coerenza interna del discorso verso l’ancoraggio: un testo trova la propria efficacia entro pratiche, verifiche, correzioni e contesti condivisi. Una sequenza linguisticamente ben formata acquista pieno statuto solo quando entra in circuiti di controllo e di uso.
Sempre nel 2010 Eco propone un criterio operativo per distinguere i processi semiotici da quelli che ne imitano soltanto la superficie. Quando manca un agente capace di scegliere fra interpretazioni alternative o di sospendere l’interpretazione, si abbandona il dominio triadico per entrare in una dinamica di stimolo e risposta. L’esempio è quello del “codice genetico”: i nucleotidi reagiscono e si sostituiscono senza sapere che cosa significhi una corrispondenza. Qui non vi è deliberazione, né confronto tra ipotesi possibili, bensì concatenazione regolata. Per il nostro tema è decisivo il nesso che Eco stabilisce tra semiosi, decisione interpretativa e possibilità di negoziazione. L’interpretazione implica sempre una presa di posizione, un orientamento che potrebbe essere diverso e che resta aperto alla discussione.
Infine, due concetti ecoiani orientano direttamente la relazione fra utente e modello. Il primo è la cooperazione interpretativa: nell’estratto di Lector in fabula il lettore entra nel testo come scelta teorica che ne accredita il ruolo e insieme ne delimita l’azione. Il testo predispone un percorso, suggerisce mosse, orienta aspettative, e il lettore collabora entro questi vincoli. Trasposto nell’interazione con un modello linguistico, questo schema illumina la dinamica del prompting, in cui l’utente costruisce un contesto e ne attende uno sviluppo coerente. Il secondo concetto riguarda i limiti dell’interpretazione: Eco descrive l’atto interpretativo come una congettura sottoposta alla prova della coerenza testuale, ammettendo la coesistenza di ipotesi concorrenti. L’interpretazione avanza, si espone al controllo dell’insieme del testo e può essere corretta o riformulata. Questo schema, che procede da un’ipotesi alla sua verifica sul testo, possiede una struttura quasi algoritmica e può essere accostato ai meccanismi di prompting e di controllo delle risposte generative. Il dialogo iterativo con un modello, in questa prospettiva, assume la forma di una sequenza di congetture e verifiche locali, entro un orizzonte che resta aperto alla revisione.
Come funzionano i large language model
I large language model contemporanei derivano in larga parte dall’architettura Transformer, fondata sul meccanismo di self-attention, e adottano configurazioni encoder-decoder oppure decoder-only a seconda dei compiti per cui sono progettati. L’idea di fondo consiste nel trattare il linguaggio come una sequenza di elementi discreti, i token, e nel modellare le relazioni statistiche che li legano all’interno di un contesto variabile. I modelli della famiglia GPT descritti in letteratura hanno natura autoregressiva: generano testo prevedendo, di volta in volta, il token successivo sulla base del contesto disponibile. Ogni nuova parola prodotta viene incorporata nella sequenza e diventa a sua volta parte del contesto per le predizioni successive, in un processo iterativo che può estendersi per centinaia o migliaia di token. Questa impostazione produce una conseguenza strutturale rilevante anche nel confronto con Eco: l’ottimizzazione riguarda le regolarità di co-occorrenza e le dipendenze contestuali interne alla forma linguistica, poiché il modello apprende distribuzioni di probabilità sulle sequenze osservate durante l’addestramento, senza un legame necessario con un “oggetto dinamico” esterno, a meno che non intervengano strumenti ulteriori che mettano in relazione il testo con fonti o ambienti extra-testuali.
Le prestazioni crescono in modo regolare con l’aumento di parametri, dati e capacità di calcolo: le cosiddette scaling laws descrivono in termini empirici una relazione di tipo power-law tra la perdita e le risorse impiegate nell’addestramento. Ciò significa che, entro certi limiti osservati sperimentalmente, l’incremento coordinato di dimensioni del modello, quantità di dati e potenza computazionale conduce a miglioramenti prevedibili nella qualità delle predizioni. Dal punto di vista dell’esperienza d’uso, questa crescita di scala si traduce in maggiore flessibilità conversazionale, in una gestione più coerente dei contesti lunghi e in una più marcata capacità di in-context learning, vale a dire l’adattamento al compito attraverso esempi forniti nel prompt, senza che in quel momento vengano modificati i pesi del modello. Il sistema, infatti, non aggiorna i propri parametri durante l’interazione con l’utente, bensì sfrutta le informazioni incluse nel contesto immediato per orientare le predizioni, simulando un apprendimento situato che resta confinato allo spazio della sessione corrente.
Sul pre-addestramento, che fornisce al modello una competenza linguistica generale, si innestano poi fasi di specializzazione, come il fine-tuning supervisionato e le tecniche di addestramento basate su feedback umano, che orientano il modello verso istruzioni e preferenze di output più definite. In questa fase si interviene su dati curati e su criteri espliciti di valutazione, in modo da rendere il comportamento del sistema più allineato a determinate aspettative pragmatiche e stilistiche. In parallelo si è sviluppato un insieme di pratiche che trasformano l’input in una vera e propria regia semiotica: il prompt engineering consiste nella progettazione di vincoli, ruoli discorsivi, esempi e criteri stilistici, spesso raccolti e sistematizzati in rassegne dedicate. L’utente, formulando il prompt, delimita il campo delle interpretazioni possibili e definisce implicitamente un quadro di cooperazione testuale entro cui il modello deve operare, agendo così su parametri contestuali che influenzano in modo significativo l’output finale.
Un aspetto tecnico decisivo, anche in prospettiva ecoiana, riguarda le cosiddette allucinazioni: la produzione di contenuti plausibili sul piano linguistico che risultano però infondati dal punto di vista fattuale o non sostenuti dal contesto disponibile. Questo fenomeno deriva dalla natura probabilistica dell’obiettivo di addestramento, che privilegia la coerenza e la verosimiglianza rispetto alla verifica diretta dei fatti. La letteratura recente le analizza attraverso tassonomie, individuando fattori causali e possibili strategie di mitigazione, come la riformulazione delle istruzioni o l’integrazione con fonti esterne. Un’altra linea di sviluppo, pensata per rafforzare il radicamento informativo, combina generazione e recupero documentale: la retrieval-augmented generation integra una memoria esterna consultabile, riducendo l’affidamento esclusivo alla memoria parametrica interna al modello. In questo schema, il sistema accede a documenti pertinenti prima di formulare la risposta, inserendo nel processo generativo un passaggio di consultazione che rende più esplicito il legame tra testo prodotto e basi informative di riferimento.
Convergenze e tensioni fra Eco e i large language model
Una prima convergenza riguarda il rapporto tra informazione statistica e messaggio, nodo teorico che permette un confronto diretto tra la riflessione semiotica di Eco e l’architettura dei modelli linguistici contemporanei. Dal punto di vista ingegneristico, il modello opera sul versante statistico: apprende distribuzioni di occorrenza, calcola dipendenze contestuali e genera sequenze sulla base di probabilità condizionate. Il suo orizzonte primario è la forma linguistica trattata come regolarità numerica. Eco, nella lezione del 2004, introduce una soglia concettuale decisiva: una sequenza diventa messaggio quando entra in un atto interpretativo e viene assunta come portatrice di significato comunicabile. Il passaggio si realizza nell’incontro con un interprete che attribuisce scopo, direzione e pertinenza, e non all’interno della sola fonte che produce combinazioni. In questa prospettiva il chatbot può essere letto come un produttore di candidati testuali che acquistano statuto di messaggio soltanto dentro un’interpretazione umana, situata in un contesto pragmatico e orientata da attese specifiche. La distinzione ecoiana illumina così la differenza tra generazione di informazione in senso tecnico e produzione di significato in senso comunicativo, e trova un parallelo nel dibattito contemporaneo sull’intento comunicativo come componente del significato, elemento che non appartiene strutturalmente a un sistema addestrato esclusivamente sulla forma.
Una seconda convergenza tocca il tema dell’enciclopedia, concetto centrale nel lessico di Eco. Per lui l’enciclopedia è una rete culturale di interpretanti, una biblioteca di biblioteche che struttura la competenza di una comunità e orienta le inferenze possibili. Si tratta di un insieme organizzato di saperi, gerarchie e abitudini interpretative che vanno oltre l’idea di un semplice deposito di dati e consentono di riconoscere pertinenze e stabilire connessioni. I large language model costruiscono, attraverso l’addestramento su corpora vastissimi, una sorta di enciclopedia distribuzionale: un repertorio implicito di associazioni, cornici discorsive e stili ricavato dalla frequenza e dalla co occorrenza dei segni. Questa enciclopedia non è esplicitamente organizzata secondo criteri dichiarati, eppure manifesta una competenza che si traduce in capacità di inferenza e di modulazione stilistica. La semiotica italiana recente ha tentato un collegamento esplicito tra questi due piani, descrivendo il funzionamento dei modelli come produzione assertiva e meta abduttiva, legata alle leggi dei grandi numeri. In tale lettura emerge una distanza rispetto ai processi comunitari attraverso cui il senso viene discusso, negoziato e stabilizzato: l’enciclopedia parametrica del modello è il risultato di un calcolo su tracce linguistiche, mentre l’enciclopedia ecoiana implica una dinamica sociale di confronto e selezione.
Una terza convergenza riguarda il passaggio dalla cooperazione interpretativa al prompting, cioè alla progettazione dell’input che orienta l’output del modello. Nel lessico ecoiano, il testo prefigura un lettore e ne vincola il percorso interpretativo, predisponendo attese e limitando derive arbitrarie. L’interpretazione si svolge entro margini che il testo stesso contribuisce a delineare. Nell’interazione con un chatbot, l’utente costruisce un contesto artificiale: definisce compiti, assegna ruoli, stabilisce criteri di stile e di pertinenza. Le risposte ottenute variano sensibilmente al variare delle istruzioni, mostrando quanto il contesto progettato incida sulla configurazione dell’output. Prompt engineering e fine tuning possono allora essere letti come tecniche di costruzione di un lettore implicito e di una strategia testuale capaci di indirizzare la produzione linguistica. La differenza resta significativa: la strategia proviene dall’esterno e agisce sul meccanismo generativo attraverso dati di istruzione e preferenze selezionate, senza coincidere con una intenzionalità interna al modello. Il dispositivo esegue calcoli coerenti con i vincoli forniti, mentre la responsabilità interpretativa rimane in capo a chi progetta e utilizza il contesto.
Accanto a queste convergenze emergono tensioni che mettono alla prova l’analogia. Il primo fronte riguarda l’intenzionalità e la scelta interpretativa. Eco distingue la semiosi da un meccanismo che sostituisce automaticamente un elemento con un altro senza alternativa o sospensione possibile; nella sua impostazione la semiosi implica un agente che sceglie tra interpretazioni, che può rivedere una decisione e che riconosce la pluralità delle ipotesi disponibili. Un large language model produce testo tramite calcolo e campionamento, guidato da una funzione obiettivo e dai vincoli del prompt. L’analogia più vicina, in termini ecoiani, è quella di un dispositivo che genera segni potenziali senza assumere un punto di vista intenzionale sul mondo. Il modello opera senza adottare un’interpretazione e rende probabile una continuazione linguistica compatibile con il contesto fornito. La nozione di scelta, in questo scenario, si colloca sul lato dell’utente che seleziona istruzioni, valuta risposte e decide se accoglierle o riformularle.
Il secondo punto di tensione riguarda i limiti dell’interpretazione e l’assertività delle risposte generative. Per Eco l’interpretazione è una congettura che deve essere sottoposta a prova sulla coerenza complessiva del testo: l’ipotesi interpretativa viene accettata quando trova riscontro nell’insieme delle sue parti e non entra in contraddizione con il tessuto discorsivo. Questo criterio introduce un controllo interno che disciplina la libertà interpretativa. Nel dibattito attuale, le cosiddette allucinazioni mettono in luce la distanza tra coerenza formale e fondamento informativo: un testo può apparire fluido e plausibile, pur deviando dai fatti o dal contesto disponibile. La letteratura tecnica descrive queste produzioni come esiti sistemici di un obiettivo orientato alla plausibilità statistica. Una parte della semiotica contemporanea, richiamandosi a Eco, osserva che nel modo di produzione di molte risposte generative manca una fase esplicita di negoziazione e verifica condivisa: la macchina tende a fornire una soluzione verbale stabile, con limitata trasparenza rispetto al percorso che l’ha resa possibile. Il problema consiste nell’ancoraggio a pratiche di controllo esterne più che nella sola coerenza locale del discorso.
Il terzo punto di tensione concerne filtraggio e linguaggio comune. Eco osserva che un ambiente informativo privo di filtri permette a ciascuno di costruire una propria enciclopedia, con il rischio di indebolire il terreno condiviso necessario al confronto e alla verifica. La cultura, nella sua prospettiva, si fonda su meccanismi di selezione, scarto e gerarchizzazione che consentono a una comunità di riconoscere criteri comuni di affidabilità. Un large language model che personalizza le risposte, si adatta a stili e preferenze, viene specializzato su domini specifici e opera in contesti effimeri può accentuare la formazione di micro enciclopedie operative: ogni sessione definisce regole locali di significato e pertinenza, modellate sulle istruzioni ricevute. Si tratta di un’inferenza teorica, fondata sulla diagnosi ecoiana della frammentazione enciclopedica e sulla descrizione tecnica della dipendenza dell’output dal prompt e dai dati di specializzazione. L’interazione personalizzata amplia le possibilità di adattamento, e al tempo stesso solleva la questione di come mantenere un lessico condiviso che consenta il confronto tra interpretazioni differenti. In questo spazio di convergenze e tensioni si colloca il dialogo possibile tra la semiotica di Eco e i large language model, un dialogo che non si esaurisce nell’analogia tecnica ma investe la natura stessa del significato, della comunità interpretativa e delle pratiche di controllo del discorso.
Ipotesi ragionate su cosa Eco avrebbe detto oggi
Ipotesi: Eco avrebbe guardato ai large language model come a un oggetto privilegiato per la semiotica, poiché rendono osservabile con chiarezza sperimentale il passaggio dalla forma all’interpretazione. Nella lezione del 2004 la soglia fra combinatoria statistica e messaggio viene tematizzata in modo esplicito e assunta come questione metodologica centrale; un chatbot trasforma quella soglia in esperienza quotidiana e quasi didattica: sequenze linguistiche vengono generate in grande quantità, secondo regolarità probabilistiche, e acquisiscono statuto di messaggio solo quando un lettore le assume come risposta pertinente, inserendole in un orizzonte di attese, scopi e contesti. In questa prospettiva il modello linguistico diventerebbe un laboratorio empirico della teoria ecoiana: mostra in tempo reale come la significazione non coincida con la mera produzione di forme, ma emerga nell’atto interpretativo che le seleziona, le valuta e le integra in un progetto comunicativo.
Ipotesi: avrebbe tracciato una genealogia culturale del generatore testuale, collegando la “scrittura combinatoria” del computer alle tradizioni della permutazione medievale e rinascimentale, e leggendo il modello contemporaneo come erede tecnico di Abulafia. Questa congettura trova un solido appoggio nei testi: il computer nel Il pendolo di Foucault è descritto come scrigno di documenti e programmi, macchina capace di intrecciare materiali eterogenei secondo logiche di connessione e risonanza; la logica della “parola d’ordine” culmina nella risposta “no”, rifiuto dell’idea di una chiave unica del sapere e ironica smentita di ogni pretesa totalizzante. Il parallelismo con la cultura del prompting risulta particolarmente istruttivo: oggi si cerca spesso il prompt “giusto” come grimaldello universale capace di aprire qualsiasi porta cognitiva; l’Abulafia ecoiano oppone una negazione che rinvia alla fatica dell’interpretazione, alla necessità di controlli incrociati e alla pluralità degli accessi possibili. In questa chiave, il large language model apparirebbe come una sofisticata macchina combinatoria che amplifica una tendenza culturale antica, rendendo ancora più urgente una riflessione sui limiti e sulle condizioni di validità delle connessioni prodotte.
Ipotesi: avrebbe messo in discussione le narrazioni che attribuiscono ai modelli una comprensione autonoma, ricorrendo a un argomento strutturale. La semiosi, nella sua elaborazione teorica, implica scelta interpretativa, possibilità di alternative e rapporto con un oggetto dinamico che eccede la pura catena dei segni; un sistema che sostituisce segni secondo regolarità interne, per quanto sofisticate, resta ancorato alla superficie dei testi e opera entro un circuito formale. La distinzione proposta nel 2010 fra processo semiotico e reazione automatica offrirebbe così un lessico efficace per separare la fluidità linguistica dall’atto del comprendere. In questa prospettiva, l’eloquenza di un modello verrebbe analizzata come effetto di calcolo su grandi masse di dati, mentre la comprensione, intesa come assunzione di responsabilità interpretativa e orientamento pragmatico verso il mondo, rimarrebbe una prerogativa legata a pratiche, decisioni e comunità interpretanti.
Ipotesi: avrebbe riconosciuto valore alle tecniche che reintroducono filtraggio e verificabilità nella catena generativa, vedendovi un tentativo di avvicinare la produzione automatica a una pratica culturale regolata. Eco insiste sul ruolo culturale dello scarto e sull’esigenza di criteri condivisi per stabilire che cosa entri nell’enciclopedia comune, sottolineando come la memoria collettiva si fondi su selezioni, gerarchie e controlli. Sul piano tecnico, le soluzioni che affiancano al modello una memoria esterna consultabile e citabile vanno nella direzione di un ritorno alla biblioteca, con un meccanismo di selezione più trasparente e una maggiore tracciabilità delle fonti. Pur in assenza di un commento diretto di Eco su queste architetture, la sua teoria del filtro e dell’enciclopedia rende plausibile una sintonia con strumenti che trasformano la risposta in un percorso di consultazione, rendendo visibili i passaggi, le dipendenze e i criteri di scelta. In tal modo, la generazione automatica potrebbe essere ricondotta a un quadro di pratiche verificabili, più vicino alla dimensione comunitaria della conoscenza.
Ipotesi: avrebbe interpretato la polarizzazione del dibattito pubblico sui modelli generativi attraverso la griglia culturale di Apocalittici e integrati, mantenendo prudenza verso contrapposizioni troppo rigide e verso narrazioni salvifiche o catastrofiste. Un esempio recente di applicazione di quella griglia alle tecnologie digitali si trova in un articolo accademico che richiama esplicitamente Eco per analizzare reazioni polarizzate a dispositivi contemporanei; ciò mostra l’attualità di quella distinzione come strumento di lettura delle dinamiche culturali. Qui interessa soprattutto la dinamica discorsiva: è probabile che Eco avrebbe spostato l’attenzione dalle etichette alle pratiche di lettura, alle condizioni dell’interpretazione e ai criteri di filtraggio che regolano l’uso concreto dei modelli. Invece di chiedersi se i large language model siano una minaccia o una promessa, avrebbe invitato a osservare come vengono integrati nei contesti educativi, professionali e creativi, quali abitudini interpretative favoriscono e quali trasformazioni producono nelle comunità di lettori e scrittori.
Fonti (link essenziali)
https://old.unipi.it/index.php/news/item/7334-la-cultura-e-anche-capacita-di-filtrare-le-informazioni
https://www.cieg.info/wp-content/uploads/2017/04/Umberto-Eco_4a-lezione-magistrale-31-gennaio-2010.pdf
https://papers.neurips.cc/paper/7181-attention-is-all-you-need.pdf
https://proceedings.neurips.cc/paper/2020/file/1457c0d6bfcb4967418bfb8ac142f64a-Paper.pdf
https://arxiv.org/pdf/2303.08774
https://arxiv.org/pdf/2203.02155
https://arxiv.org/abs/2311.05232
https://mimesisjournals.com/ojs/index.php/ec/article/download/4452/3468/8885
