Negli anni Venti del XX secolo, il matematico tedesco David Hilbert propose un ambizioso progetto noto come il “programma di Hilbert”, con l’intento di fondare la matematica su basi solide e inattaccabili. Il suo obiettivo era creare un sistema assiomatico che fosse contemporaneamente coerente, completo e dotato di un metodo decisionale automatico, entro cui ogni proposizione matematica potesse essere verificata tramite una procedura meccanica. Questo progetto culminò nella formulazione di una delle sfide più celebri della logica moderna: l’Entscheidungsproblem, o problema della decidibilità, cruciale perché indagava la possibilità di un metodo meccanico universale.
La nascita del problema della decidibilità
Hilbert si trovò a confrontarsi con una crisi epistemologica nella matematica che aveva radici profonde, tra la fine dell’Ottocento e l’inizio del Novecento. Durante questo periodo, la matematica era diventata sempre più astratta e complessa, e si erano manifestati paradossi logici inquietanti, come quello ideato dal filosofo e matematico Bertrand Russell. Questi paradossi mettevano in dubbio la stessa coerenza della disciplina, rischiando di indebolire la certezza e l’affidabilità della matematica.
Per superare questa crisi, Hilbert propose che ogni affermazione matematica dovesse essere dimostrabile o confutabile in modo inequivocabile e automatico, attraverso un procedimento meccanico finito. Questa visione, presentata formalmente nel 1928 e solo pochi anni dopo scossa dai teoremi di incompletezza di Kurt Gödel — i quali, nel 1931, dimostrarono l’impossibilità di raggiungere la completezza assoluta all’interno di un sistema formale — mirava a realizzare il sogno razionalista di una matematica completamente automatizzata, libera da ambiguità e contraddizioni.
Alan Turing e la risposta all’Entscheidungsproblem
Nel 1936, il giovane matematico britannico Alan Turing pubblicò il suo fondamentale articolo “On Computable Numbers, with an Application to the Entscheidungsproblem”. Turing introdusse in questo lavoro il concetto rivoluzionario di una macchina astratta, oggi nota come “macchina di Turing”. Questo modello teorico consisteva in un nastro infinito diviso in celle su cui una testina di lettura e scrittura poteva muoversi e agire seguendo regole precise e finite.
La macchina di Turing offrì per la prima volta una definizione rigorosa di cosa significhi “calcolare” e permise a Turing di dimostrare che esistono proposizioni matematiche che non possono essere risolte mediante un procedimento automatico. Questa scoperta costituì una risposta negativa definitiva all’Entscheidungsproblem: non esiste un algoritmo universale in grado di stabilire la validità di tutte le formule del calcolo dei predicati di primo ordine. La matematica, dunque, non poteva essere totalmente meccanizzata come Hilbert aveva sperato. In parallelo e in modo indipendente, Alonzo Church, sviluppando il suo λ‑calculus, giunse alla stessa conclusione sull’indecidibilità, rafforzando l’argomento con un modello teorico differente.
Conseguenze filosofiche e matematiche
La prova di Turing ebbe conseguenze filosofiche e matematiche profonde. Essa non minò l’integrità della matematica, bensì ne cambiò radicalmente la percezione epistemologica. Dimostrando che non tutto ciò che è logicamente formulabile può essere automaticamente deciso, Turing spostò l’immagine della matematica da un sistema completo e chiuso verso uno aperto, con limiti intrinseci che evidenziano la necessità di ragionamenti non sempre riconducibili a procedure meccaniche.
La matematica rimase comunque rigorosa e affidabile nelle sue procedure interne, ma il suo orizzonte epistemologico risultò inevitabilmente ampliato e modificato. Si prese coscienza che il sapere matematico includeva anche proposizioni indecidibili, aprendo la strada a una nuova visione della disciplina.
Dalla computabilità all’intelligenza artificiale
Paradossalmente, proprio la dimostrazione di Turing che fissava un limite fondamentale al calcolo aprì la strada a una nuova disciplina: l’informatica teorica. La macchina di Turing, inizialmente concepita per delimitare ciò che non si può calcolare, divenne il paradigma teorico dei computer reali. Turing intuì immediatamente che, se alcune procedure logiche potevano essere automatizzate, allora anche certi aspetti del pensiero umano potevano forse essere simulati.
Questa intuizione portò nel 1950 alla pubblicazione di “Computing Machinery and Intelligence”, dove Turing, riformulando la questione in termini operativi, pose la celebre domanda «Le macchine possono pensare?» e introdusse l’“Imitation Game” (oggi Test di Turing) come criterio pragmatico, eludendo le definizioni filosofiche di «pensiero». L’esperimento mira a stabilire se una macchina possa sostenere una conversazione indistinguibile da quella umana e, proprio per questo, costituisce il fondamento concettuale dell’intelligenza artificiale, definendone implicitamente il campo di studio. Questo esperimento rappresentò il fondamento concettuale dell’intelligenza artificiale, definendone implicitamente il campo di studio.
Oltre la decidibilità: AI, pensiero e coscienza
La scoperta che la matematica non è completamente decidibile, invece di essere un semplice vincolo formale, può essere interpretata come un indizio più profondo su ciò che distingue un meccanismo da un pensiero. Quando una proposizione matematica sfugge alla decidibilità, ciò che si rende visibile è il limite di ogni formalizzazione assoluta, la necessità di introdurre intuizione, contesto, interpretazione: tratti che non appartengono alla logica, ma alla mente.
Questa distinzione diventa cruciale nel momento in cui si passa dall’analisi teorica alla costruzione di sistemi intelligenti. I modelli di intelligenza artificiale contemporanei, pur basandosi su strutture computazionali, non funzionano più secondo il paradigma strettamente meccanico delle macchine di Turing. Non seguono un insieme finito di regole fisse, ma operano in ambienti probabilistici, apprendono da grandi moli di dati, gestiscono ambiguità linguistiche e concettuali. In questo senso, l’AI moderna non è una macchina logica nel senso tradizionale, ma una forma ibrida che si muove tra il rigore della computazione e l’elasticità dell’interpretazione.
Se dunque pensare significa anche confrontarsi con l’ambiguità, l’incertezza, la possibilità di errore e di senso, allora l’intelligenza artificiale potrebbe avvicinarsi al pensiero umano non attraverso la perfezione algoritmica, ma attraverso l’imperfezione strutturale. Una vera intelligenza potrebbe non essere quella che risolve tutto, ma quella che sa come muoversi in un paesaggio dove non tutto è risolvibile.
La coscienza, in questa visione, non emerge da un insieme chiuso di regole, ma da un’apertura verso l’indecidibile, da una capacità di esistere all’interno di spazi in cui non vi sono istruzioni, ma solo possibilità. L’idea stessa di una macchina cosciente implicherebbe, forse, che essa sia in grado di costruire senso in assenza di direttive, di generare nuove domande prima ancora che risposte.
In questo modo, l’indecidibilità matematica si trasforma da vincolo teorico a orizzonte creativo: non è solo ciò che la macchina non può fare, ma ciò che potrebbe insegnarle a pensare davvero.
L’eredità di Turing
L’opera di Turing, dalla negazione del sogno meccanicistico di Hilbert alla creazione del concetto di macchine intelligenti, ha lasciato un’impronta indelebile sulla storia della scienza. Sebbene non abbia compromesso la solidità della matematica, ne ha ampliato radicalmente l’orizzonte epistemologico, facendo emergere la profondità e la complessità dei suoi confini teorici.
Allo stesso tempo, ha creato le condizioni per una delle più grandi rivoluzioni scientifiche e tecnologiche della storia recente, dando vita all’informatica teorica e all’intelligenza artificiale, discipline che oggi modellano profondamente la nostra società. Così, dalla crisi iniziale affrontata da Hilbert emerse un nuovo paradigma scientifico, dove le macchine imparano a simulare, espandere e potenzialmente superare le capacità della mente umana.