2025-09-01
Marco Staffolani: «Con l’Intelligenza artificiale facciamo l’errore di Averroè»
Il teologo usa l’idea del grande filosofo musulmano sull’«intelletto unico» per spiegare i rischi dei chatbot: «Una “verità” immanente e impersonale può comprimere l’umano».Le dispute medievali spiegano la realtà e il futuro meglio di molta saggistica, anche quando si tratta di Intelligenza artificiale. Almeno, così indica padre Marco Staffolani, sacerdote della congregazione dei Passionisti. Ingegnere elettronico, ha maturato la vocazione conseguendo anche un dottorato in Teologia alla Pontificia Università Lateranense, ateneo in cui è assistente per la cattedra di Teologia fondamentale. Già segretario per la Teologia interconfessionale dello stesso istituto e vicedirettore per l’Ufficio cultura del Vicariato di Roma, è autore di conferenze e articoli, tra cui quella oggetto della presente intervista: «L’Intelligenza artificiale come neo-averroismo. Demitizzazione della macchina al tempo dei LLM». Si tratta di un intervento in occasione del convegno «La riflessione sull’anima: Aristotele, Tommaso, Dante», a cura di Gabriella Di Paola Dollorenzo, i cui atti sono stati pubblicati sulla rivista Studium nel numero 2 di aprile/giugno 2025.Lei si occupa di Large language model (LLM), ovvero sistemi di Ia «addestrati» a produrre testi come quelli che generiamo «dialogando» con i chatbot. Di che natura è il linguaggio dei LLM? «Pseudo-personale. Il termine “pseudo” si riferisce a qualcosa che “imita le funzioni di”. I LLM hanno un tratto “personale” perché in partenza si tratta di parole usate da persone, ma poi ricombinate dalle macchine. Come ho cercato di mostrare nello studio, la macchina risponde alle mie sollecitazioni, comprese quelle che mi derivano dall’uso stesso dell’Ia. Si tratta di un ponte tra l’informatico e l’umano. Come ogni invenzione umana, grattando il fondo si vede che è completamente umana. Si potrebbe dire due volte umana: primo, perché il materiale da cui trae è quello dei nostri “token” di linguaggio; secondo, perché il riadattamento è fatto con un algoritmo programmato da umani».Cos’è questo riadattamento? «Normalmente ci sono due fasi: pre-training e rinforzo. Il primo, opera dell’informatico, genera la sintassi-base del LLM, il secondo gli dà parvenza di significato. Questa integrazione di umano e schema algoritmico è per me il lato più interessante. Vista la diffusione di questo impiego tecnologico, parliamo di una dinamica che è qui per restare, come i pc negli anni ’80. Già adesso si è passati dal linguaggio testuale a quello delle immagini create dall’interazione con l’uomo, fino agli assistenti avatar che Grok ha sviluppato. Addirittura, una forma di interazione fin troppo “personale”, come percezione».Veniamo ad Averroè (1126-1198), il grande filosofo musulmano che fece «’l gran comento» di Aristotele. Il nesso con l’Ia non appare immediato: che c’entra l’averroismo con i LLM, e perché lo suggerisce come chiave di lettura? «Per onestà, devo l’idea centrale alla fecondità intellettuale del professor Giuseppe Lorizio, mio maestro. Provo a spiegarla così: Averroè legge Aristotele e si pone il tema della conoscenza, cioè come mediare tra le nostre idee e ciò che acquisiamo attraverso l’esperienza. Cerca di concentrare tutta la conoscenza in un “intelletto unico”, come lo chiama. Designa questo intelletto come un’entità metafisica separata, cui si può attingere nell’hic et nunc, ma che resta uguale per tutti gli uomini. Le nostre esperienze e conoscenze per lui non sono propriamente nostre, ma “fantasmi” che rimangono in noi finché viviamo. Averroè spiegava la conoscenza personale non come un’attività della propria anima, ma come un’assunzione di forme intelligibili da parte dell’intelletto unico e universale, nel quale si accumulano le conoscenze di tutta l’umanità. Siccome poi l’anima individuale sarebbe legata al corpo, cessa di esistere con la morte, e ciò significherebbe che la conoscenza acquisita viene perduta, ma non perisce la conoscenza accumulata nell’intelletto universale. Il parallelo con l’Ia regge se la pensiamo come accumulo di conoscenza, e vedendo i LLM come ponte tra conoscenza umana e conoscenza accumulata in modo “artificiale”. L’idea è semplice: il linguaggio creato dai software di Intelligenza artificiale attinge a un nuovo intelletto unico informatico, simile all’intelletto unico di Averroè, perché in teoria può contenere conoscenza senza limiti, con la differenza che il LLM è di produzione umana e non divina. Il sogno degli informatici, che forse potrebbe essere quello di tutta l’umanità, ancora confuso e informe, sarebbe quello della cosiddetta “Intelligenza artificiale generale”: una sorta di intelletto unico, però immanentizzato e non metafisico come lo intendeva il filosofo».Proprio sulla questione dell’intelletto unico, San Tommaso entrò in polemica diretta con gli averroisti. Aveva ragione? «Tommaso ha spiegato che spostare il fondamento della conoscenza in questo intelletto unico e dunque separato, di fatto esclude la volontà, perché si perde quell’individualità che conosce le cose. Se la conoscenza proviene dalla partecipazione a un ente “sganciato”, il comportamento della persona e la sua identità non sono coinvolte. Averroè pensava che la comprensione tra gli uomini dipendesse dal fatto che il pensiero non appartiene a nessuno. Tommaso eccepisce: no, ciò che vogliamo deriva anche dal nostro pensiero individuale. Il problema diventa ancora più imbarazzante di fronte alla scelta della salvezza cristiana: Dio si fa uomo per ciascuno di noi, e in ciò è compresa una salvezza proposta alla libertà di ciascuno. Dio parla, agisce, si muove per l’uomo. L’uomo può ignorarlo o può muoversi nella direzione proposta. Ecco, l’intelletto unico ha un problema: non si può imputare al singolo la scelta o il rifiuto. L’insegnamento di Tommaso esalta molto la dimensione “individuata” della persona. Dalla Summa l’anima è definita “forma del corpo”: ogni anima è creata immediatamente con il corpo, e quella che decide e conosce non è solo un’anima personale. Chi decide e agisce è un “corpo soggettivo”, in cui la libertà è in atto, anche fisicamente. Per questo Tommaso rigetta, e in modo molto convincente, l’idea dell’intelletto unico».E questa polemica c’entra con l’Intelligenza artificiale? «Ho provato a spiegare perché questo parallelo possa aiutare a comprendere la necessità di “demitizzare la macchina” e quindi mitigare alcuni rischi, senza demonizzarla. I primissimi minuti di una “conversazione” su Chatgpt, Grok o altri tipi di software restituiscono, come detto, l’impressione di avere a che fare con un ente personale. E come esseri umani, davanti a un altro essere in carne e ossa facciamo attenzione, diamo credito, manifestiamo curiosità. La possibilità che si crei la situazione illusoria di stare di fronte a un altro come me fa abbassare la diffidenza e anche il controllo. Questo può aiutare in una serie sconfinata di conoscenze e di scelte, ma l’ente “informatico” potrebbe generare la tentazione di usarlo come surrogato delle decisioni umane. E qui la singolarità del pensiero e dell’identità corrono rischi non banali».Può fare esempi? «Anzitutto, la parvenza di personalità, come mostrano già tanti casi di cronaca, fa assumere a una macchina la funzione di psicologo. Molti chiedono di valutare una situazione personale: in fondo, è gratis... O di fare il medico, perché la chat ha il grande “vantaggio” apparente di non dare informazioni personali a nessuno, il che ovviamente non è strettamente vero. Ma davanti a uno schermo o parlando allo smartphone non abbiamo di fronte né un medico, né una donna che amiamo. Eppure possono generarsi confidenze ed emozioni analoghe. In gioco è la capacità dell’umano di essere umano, di assumersi responsabilità di fronte agli altri uomini. Se l’incanto non si rompe, cioè in assenza di consapevolezza di un “dialogo” con un dispositivo ricombinante del linguaggio, i pericoli non sono piccoli. Anzi, sono paragonabili, se non ancora più rilevanti perché non hanno espressione pubblica, a quelli, già enormi, di natura legale che si stanno definendo su copyright e sicurezza».Quindi il «neo-avveroismo» è considerare i risultati linguistici prodotti dall’Ia come l’«intelletto unico», cioè una verità integrale cui accedere? «Esattamente. Con un paradosso: proprio la personalizzazione apparente è ciò che apre la via alla concezione distorta dell’intelletto unico. Illusi di un rapporto personale, attingiamo a quella verità di frasi ricombinate convinti siano “la” verità. Ma la verità entra in gioco in un discorso tra persone, e un bot non è un discorso tra persone. I LLM creano linguaggi pseudo-personali che possono venire accolti come personali ancor di più tramite le atmosfere create, che si servono già di suoni, immagini, video, avatar, assistenti...».Si può fermare questo rischio? «Mica tanto: i software sono programmati per generare questo equivoco. I disclaimer previsti per legge non avvertono che l’Ia può toccare sfere private, pur non avendo capacità o discernimento. A livello legislativo qualcosa è stato fatto, ma esiste un tema nodale: la persona troppo spesso non percepisce che non ha un’interazione personale reale, poi però questa interazione ha ricadute enormi sul reale. Non so se potrebbe servirebbe un avviso choc, come sui pacchetti delle sigarette: “Quelli che ti arrivano sono testi umani o no? E se non sono umani, chi li paga?”, frasi di questo tipo, utili a rompere l’incanto. I LLM sono una torta messa davanti a un appetito enorme: l’indigestione è un rischio concreto, e l’uomo non è “costringibile” in questi ambiti digitali senza danni».Per Averroè dietro l’intelletto unico c’era Dio. E dietro l’Ia? «Beh, prosaicamente i programmatori fanno questi prodotti per usarli e far fare ricavi a chi li finanzia, dunque se c’è un dio dietro, è quello del “denaro”. Sintetizzando, abbiamo due macro modelli oggi: quello Usa tende a creare un ambiente economico e tecnologico che generi sempre più novità e servizi sotto l’ambito Ia, pompando il consumo indotto nel ciclo capitalista. Quello europeo tenta una regolazione a protezione del consumatore. Ce n’è un terzo, quello cinese, su cui è molto più difficile avere visibilità. Poi ci saranno, come in tutti i fenomeni, anche organizzazioni che fanno ricerca seria e troveranno utili finalizzazioni di queste Ia. E ringraziamo Dio per questo... ma la dinamica generale può mandare in sofferenza l’umano, e non possiamo permettercelo».
Silvia Salis (Imagoeconomica)
Il vicepresidente americano J.D. Vance durante la visita al Santo Sepolcro di Gerusalemme (Getty Images)
Roberto Cingolani, ad di Leonardo (Getty Images)
Palazzo Justus Lipsius a Bruxelles, sede del Consiglio europeo (Ansa)