Arnaldo Colasanti
All'Università di Tor Vergata di Roma

L’errore dell’intelligenza

Qual è il limite dell'IA, l'intelligenza artificiale? La risposta è nella scienza e nei teoremi di Kurt Gödel. Anticipiamo l'intervento di Arnaldo Colasanti a un convegno su «Arte e creatività, psicologia e neuroscienze»

Oggi, presso l’Auditorium Ennio Morricone – Macroarea di Lettere e Filosofia dell’Università Tor Vergata di Roma, si terrà un convegno su «Arte e creatività, psicologia e neuroscienze» dal titolo: “Dialoghi – INsieme In sintonia. Le sfide di una scuola che cambia”. Per gentile concessione dell’autore anticipiamo l’intervento di Arnaldo Colasanti. 

* * *

Il problema dell’IA include violentemente “la fine della teoria” e l’obsolescenza del metodo scientifico. L’articolo di Chris Anderson è pubblicato su «Wired» il 23 giugno del 2008: The end of theory: the data deluges makes the scientific method obsolete. Pochi giorni dopo, il 14 luglio, vari istituti finanziari americani precipitano in default. Interviene la Federal Reserve. La Lehman Brothers è liquidata: siamo all’acme, persino simbolico, della più sconvolgente crisi finanziaria mondiale. Il discorso di Anderson è per paradosso ugualmente perentorio ed estremo: i dati parlano da soli. Non c’è bisogno di una chiave di interpretazione. I modelli sono insufficienti: la scienza storica ha perso il suo senso. Lo svuotamento appare feroce. I petabyte (la misura di unità informatica in quanto multiplo, intesa come 1 biliardo di byte) ci permettono di dire “la correlazione è sufficiente”. Per Anderson, occorre smettere di cercare i modelli. “Possiamo analizzare i dati senza fare ipotesi; possiamo inserire i numeri nei più grandi cluster informatici che il mondo abbia mai visto e lasciare che gli algoritmi statistici trovino modelli dove la scienza non può”. Ecco, dunque, la domanda edipica: There’s no reason to cling to our old ways. It’s time to ask: What can science learn from Google? Non c’è motivo di aggrapparsi ai nostri vecchi modi e vie. È giunto il momento di domandarsi: cosa può imparare la scienza da Google?”.

Nel 2008, nell’epoca della massima dematerializzazione del prodotto finanziario, la nuova scienza si ammanta di una pura trasparenza: viene annullato qualsiasi oscuramento del modello. La connessione epocale tra finanza e scienza è luciferina. La cartolarizzazione, la distribuzione infinita dei crediti, la metamorfosi di qualsiasi prodotto economico in una sequenza di denaro scritturale, restano il sogno alchemico del grande bagliore e così la fine del significato fondamentale, persino antropologico, delle parole credito e debito. La nuova scienza, da parte sua, autorizza un bagliore che vieta qualsiasi inutile approssimazione. L’oggettività dei fenomeni osservati prescinde infatti dalla teoria: i Big Data impongono un apprendimento che accade nella pura assenza della comprensione degli stessi fenomeni. Non c’è giustificazione né bisogno di sapere. Del resto, lo stesso trattamento dei “big data” non sa migliorare la capacità di previsione dei fenomeni naturali o sociali. Il cosiddetto “metodo degli analoghi” impone un impianto probabilistico. L’estrazione di un predittore singoloconsente semplicemente un pronostico individualizzato. Il punto sconvolgente è dunque qui: è il machine learning a produrre un esito; vale a dire, è il funzionamento dei processi infiniti e indeterministici l’apparente paradigma della fine della teoria. Risuona come un editto francamente ansiogeno la frase del premier Margaret Thatcher nell’intervista del 3 maggio 1981 su The Sunday Times: “Economics are the method; the object is to change the heart and soul”. L’obiettivo è cambiare il cuore e l’anima: la cartolarizzazione finanziaria che verrà, l’imposizione di un perenne equilibrio precario privo di alternative, il terribile slogan “There is No Alternative” (lo stesso ripetuto da Gerhard Schröder “Es gibt keine Alternative”) è senza alcun dubbio la traccia di una crisi biopolitica, quella che impone la fine della storia e della teoria. Con un corollario significativo: se l’intelligenza umana è costituita dall’incertezza naturale dell’adattamento, è chiaro che il metodo del machine learning risulti superiore, a causa della sua seconda natura, l’artificiale, ovvero l’efficacia del calcolo e del pronostico individualizzato.

Facciamo un passo in avanti. La pura trasparenza della nuova scienza sembra far proprio il tema dell’indecibilità della matematica, quello stesso tema che, in fondo, dovrebbe metterla in crisi. I teoremi di Kurt Gödel (la matematica di Peano non contiene tutti gli enunciati; gli enunciati G come quelli non-G sono ugualmente indimostrabili) vengono assorbiti dalla trasparenza del “diluvio” dei Data. Certo, la sintassi non contiene la semantica: tuttavia, la correlazione continua ad essere una semantica, o meglio il suo poter essere è l’assenza di necessità, che è cancellata dall’effetto liquido dell’efficacia. Siamo sul punto di poter parlare persino di una violenta cartolarizzazione a cui è soggetta la semantica. In questi termini, la classica critica di Heidegger “Die Wissenschaft denket nicht” è disinnescata: non può più essere l’accusa del filosofo classico, giacché l’indimostrabilità di un percorso logico e argomentativo dei procedimenti della nuova scienza include la propria non necessità metodologica. Il machine learning risulta una macchina assiomatica che sforna teoremi efficaci quanto incapaci, ma appunto perché disinteressati, alla fondazione della scienza.

Giunti qui, si può comunque porre una domanda ermeneutica, partendo dal fatto che il bagliore di cui parlo sia lo stesso dell’illuminismo storico. Dunque: l’intuizione illuministica, nel suo mito fondativo di Aufklärung, come ha pensato il significato della trasparenza? Due aspetti filosofici ci paiono essenziali. Descartes, nella terza delle Meditazioni metafisiche, c. 6, parla del vero e del falso delle idee. Leggo: “Per quanto riguarda le idee, se saranno viste solo per sé stesse e non le riferirò a qualcos’altro, non possono essere propriamente false perché, sia che immagini una capra o una chimera, non è meno vero che immagino l’una come l’altra”. Dunque, le idee, considerate in sé stesse, sono immagini: come tali, non sono mai false. Continua: “Non vi è da temere nessuna falsità nella volontà o nelle affezioni giacché, quantunque io possa desiderare cose malvage o cose che non esistono, non può comunque non essere vero che io le desidero”. Che significa: il desiderio è l’intenzione; è il fondamento di una potente convinzione collettiva. Con una precisazione sostanziale: “Quindi rimangono solo i giudizi, nei quali mi devo guardare dallo sbagliare”. Il dualismo cartesiano è definitivo. Ma a colpirci è la frase “Nulla etima in ipsa voluntate, vel affectibus, falsitas est timenda”, non si deve temere l’immagine dell’idea e la forza stessa dell’immaginazione. Insomma, la liberazione dal sospetto dell’illusione (ovviamente sul piano delle idee e non su quello dei giudizi) costituisce un aspetto epistemologico fondamentale: da qui parte la libertà della scienza, la sua autonomia, il Wertfrei del conoscere scientifico. Con una sottolineatura: tale libertà immaginifica è il punto base della trasparenza affrancata, lo stesso dell’asset della “fine della teoria”.

Secondo punto, tornando al ‘900. Kurt Gödel, come tutti i maghi, squarcia la perentorietà della sua riflessione indicando un concetto sublime, ossia la “complessità logica”, il fatto, cioè, che la matematica sia più complessa della sua stessa dimostrabilità. Incredibilmente la trasparenza dell’indecibilità fa i conti con una posizione illuministica estrema, quella di Kant, il quale pensa l’idea attraverso e oltre l’immagine (fonte questa nietzschiana): l’oggettività, dunque, non esiste unicamente nell’intelletto soggettivo ma, al contrario, partecipa a ciò che è reale e, appunto, che è oggettivo. La posizione kantiana è chiara: “Eine objektive Perzeption ist Erkenntnis”. Vale a dire: il concetto (Begriff) fa riferimento a più realtà, unificandole. L’oggettività è ciò che è valido, nel senso proprio di topos, ossia è una intersoggettività. In breve: l’intersoggettività dell’oggettività reale conosciuta accoglie la complessità logica di Kurt Gödel.

Il ragionamento ci porta al concetto chiave di Noumenon e al suo essere un ente intelligibile. Se pensassimo al noumeno come ad un semplice limite che esclude tragicamente la cosa in sé dal fenomeno, perderemmo il suo essere un contenuto della ragione, ovvero quella sua straordinaria gamma di reale possibilità che il noumeno assume. La fonte del pietismo riformato kantiano (senza dubbio, pressante) induce a considerare il noumeno quale il confine conflittuale di un limite che, non permettendo il superamento del fenomeno, chiude semplicemente la regione della metafisica. Ma sarebbe poco. Il confine infatti è Grenze, cioè non è demarcazione negativa (in tal caso, il termine idoneo sarebbe stato Schranke): piuttosto, è un luogo, un sito privilegiato e complesso che appartiene, insieme, all’esperienza come allo spazio del semplicemente pensato e desiderato. Insomma, i confini della ragione coincidono con la complessità logica della ragione, con quell’oscurità che include il bagliore del pensiero critico. Quante volte, specie da bambini, abbiamo fissato il cielo, mettendoci a contare le stelle. Erano luci, erano numeri di un calcolo infantile. Ma, in realtà, mentre contavamo, avevamo in noi la pienezza invisibile del cielo, dico la visione assoluta e conoscitiva della sua oscurità. L’oscuramento dell’oggettività è il fondamento del massimo bagliore del nostro pensare. La matematica di Grotendieck e dei suoi allievi potrebbe aiutarci, specie nell’uso del concetto di topoi come spazi generalizzati, quali le categorie equivalenti ad una categoria di fasci su un sito, ossia quell’idea di topoi in quanto ponti da una rappresentazione all’altra, voglio dire in quanto “universi matematici generalizzati”. I topoi, in definitiva, sono un invariante teoretica che misura, modificando lo spazio euclideo, le infinite ma reali possibilità del linguaggio, vale a dire la potenza del suo oscuramento, della sua realtà oggettiva che è depositata e che insieme riemerge dal puro bagliore del fenomeno.

Mi avvio alle conclusioni. Dobbiamo credere nella “complessità logica” come ad uno spazio non più commutativo ma libero del nostro pensare. In questa prospettiva, l’apprendimento si offre quale la rappresentazione privilegiata dell’indelebile, anche nel senso più generale, e detto velocemente, giacché ciò che accade a scuola è sempre indelebile. Nulla di più dell’apprendimento pone la questione dell’essere e del suo valore più radicale. Il senso greco dell’εἶναι, secondo Heidegger, include implicitamente un riferimento al tempo, al νῦν di Aristotele. Il tempo è l’ora; tuttavia, non è semplicemente il presente, bensì è l’attualità; quello che è la misura di ciò che va incontro al mortale, inducendolo ad assumere la decisione di un contegno, il carattere di una contemporaneità. E qui sta il punto. Il tempo dell’essere è ciò che oscura ma non annulla ciò che è accaduto e ciò che accadrà. Questo tempo è la misura dell’aver luogo di un sé stesso qui e ora, in questa condizione di massimo privilegio del tempo. Insomma, contiamo le stelle ma vediamo il cielo. Il tempo dell’essere è ciò che rende flagrante e insieme fragrante, cioè pregnante, ciò che concerne al mortale, ciò a cui il mortale si riferisce. Quel sé è l’idea: potremmo dire, il punto in cui si innesca lo spazio del nostro stesso essere un’immagine del reale. L’idea, dunque, è sempre quella kantiana con la fonte di Cartesio: prima d’essere una categoria, è lo sguardo che provoca il mortale, svegliandolo, facendolo costituire in una fermezza di atto. L’estasi del tempo oscuro è ciò che fonda l’apprendimento, è l’essere; dunque, è l’εἶναι che costituisce la teoria della conoscenza, come dire l’episteme, il continuo ponte dei fasci del topos che permettono a noi umani di pensare tutto ciò che siamo, la nostra stessa spiritualità di mortali, la viva e vivente responsabilità etica.

L’ossessione umano è sempre l’errore: la nostra compulsione è continuamente stabilire la verità. Ma è qui la soglia difficile della conoscenza. La crisi biopolitica della pura trasparenza, l’ammissione che non ci siano alternative, la pretesa che la tecnologica clinica siano l’unico paradigma per trasformare il cuore e l’anima, sono forme di rimozione: la grande malattia spirituale dei nostri tempi. A tutto questo dovremmo saper opporre un rifiuto, in nome dell’oscurità dell’apprendimento, nella forza complessa dell’amore che intende il desiderio non più la tragedia del vuoto, bensì l’umanità della ricerca, quel non temere mai la verità dell’immagine nell’idea. Avremmo mai il coraggio di ripetere che l’errore della nostra intelligenza sia superiore alla machine learning del risultato? Scriveva Nietzsche, in Umano troppo umano, che la conoscenza delle condizioni della nostra civiltà impone, abita, non dimentica l’errore dell’intelligenza: solo “l’errore ha reso l’uomo così profondo, delicato e inventivo…il mondo come rappresentazione (cioè in quanto errore) è ricco di significato, così profondo e meraviglioso, reca in sé tanta felicità e infelicità” (Delle prime e ultime cose). Non dimentichiamolo mai in classe, ogni giorno, con i ragazzi: questa, solo questa è la scuola dei mortali, lo sguardo oscuro della realtà, il pensiero critico che ci fa essere immagini dell’intelligenza, cioè cuore e anima, mai e poi mai prodotti subprime della vita.


Le fotografie sono di Roberto Cavallini.

Facebooktwitterlinkedin