Se oggi tutti parlano di Intelligenza artificiale, non sono invece molti i giovani studiosi che se occupano da anni. Tra questi c’è Giulia Bovassi, classe 1991, docente di Bioetica, associate researcher della cattedra Unesco in Bioetica e diritti umani, autrice di decine di pubblicazioni scientifiche nazionali. Si occupa dell’IA e del transumanesimo da anni e ha da poco pubblicato un libro intitolato appunto Attrazione digitale. Il lato oscuro del transumano e dell’intelligenza artificiale (Il Timone).
Professoressa, l’Intelligenza artificiale cambierà le nostre vite o le sta già cambiando?
«L’Intelligenza artificiale è il nostro presente spesso trattato come un futuro ancora lontano. In tal senso, sì, questa tecnologia non è un semplice “strumento”, ma un’infrastruttura e, oserei dire, un sistema. È pervasiva e onnipresente, abita le nostre case fino agli spazi più intimi della nostra mente. Ciò le conferisce il potere di cambiare chi siamo e il modo in cui abitiamo il mondo facendosi mediatore della realtà. Da un lato si rivela un mezzo utile per velocizzare mansioni e ottimizzare processi, dall’altro diviene un filtro determinante che orienta chi siamo, le nostre opinioni, la qualità dell’informazione, rimodella le relazioni, norme sociali e comunità, stabilisce la veridicità o falsità di ciò che ci circonda. In definitiva, agisce sulla nostra libertà decisionale e possibilità di conoscere la verità».
Quali implicazioni dell’IA la spaventano di più?
«Mi preoccupano sia l’azione di rimodellamento sul soggetto, sia una visione funzionalista dell’essere umano. Se guardiamo alla persona come un elaboratore di dati, totalmente conoscibile, e come una macchina imperfetta la cui unica differenza rispetto a quella sintetica consiste nell’essere un’intelligenza incarnata, cioè con un corpo biologico, allora la visione di una super-intelligenza o di una sostituibilità dell’uomo a favore della macchina, diventerà l’obiettivo principale. Da questa prospettiva non è la macchina ad adattarsi all’uomo, ma l’uomo alla macchina. Il problema delle nuove tecnologie non è tecnico, bensì antropologico. Mi spaventa l’idea di una società che, in nome dell’efficienza - nel mio libro parlo di “tirannia del comfort” - sia disposta a sacrificare la ragione orientata al bene».
Giorni fa, ha fatto notizia un’azienda di Marghera che ha licenziato tutti e 37 i suoi dipendenti, sostituiti dall’IA: è un assaggio di ciò che ci aspetta?
«È un segnale d’allarme che molti hanno cercato di minimizzare o, alla peggio, ignorare e oggi, come spesso accade, diventa un problema. Il problema subentra quando la logica dell’ottimizzazione prevarica su quella del valore. Non credo che la sostituzione dell’uomo con l’IA sia un destino ineluttabile né che possa avvenire una sostituzione integrale dell’opera umana, la creatività e la bellezza, ma senza dubbio diverrà la scelta preferibile rispetto al lavoratore con bisogni umani e prestazioni umane sulla base di valutazioni economiciste. Il processo deve essere integrativo, non sostitutivo».
Un numero crescente di persone, giovanissimi ma non solo, utilizza ChatGpt per confidarsi, chiedere consigli professionali, psicologici, perfino medici.
«Questo fenomeno è al centro dell’attenzione, per alcuni già un’emergenza definita “psicosi da IA”. È un’economia dell’attaccamento e un mercato dei comportamenti. In tutto il mondo milioni di persone condividono il loro mondo interiore, il loro mondo psicologico, con i sistemi di IA instaurando un rapporto di fiducia diversa da quella che banalmente costruiamo con una calcolatrice, della quale non controlliamo i risultati, ma un rapporto relazionale».
Com’è possibile?
«In molti dei casi che hanno visto coinvolti utenti adulti, vi è la piena consapevolezza che il chatbot è irreale, sintetico, inesistente, eppure se da un lato viene messo in dubbio che cosa si possa definire oggi “reale” e cosa no; dall’altro, resta preferibile alle relazioni umane in quanto meno problematico e più soddisfacente. Ne deduciamo una profonda solitudine esistenziale e la capacità di questi sistemi di intercettare bisogni e vulnerabilità, in particolare l’infrastruttura psicologica».
Quali i benefici che invece sta portando questa nuova frontiera tecnologica? Esiste un bicchiere mezzo pieno?
«Certo. La tecnologia è pur sempre opera dell’ingegno umano e, se orientata alla promozione del vero bene, porta dei benefici. Penso all’ambito clinico: l’IA fornisce grande supporto nella diagnostica o nella personalizzazione delle terapie o nella ricerca - ad esempio l’ambito delle malattie rare -, rispettando la dignità del malato e promuovendo il bene. Può liberare l’uomo da lavori alienanti e ripetitivi, talvolta rischiosi, consentendo di affinare nuove abilità. Il bicchiere mezzo pieno è possibile se l’IA resta un mezzo e come tale sottoposto all’uomo».
Nel mondo nel 2024 le menzioni dell’IA nei procedimenti legislativi di 75 Paesi sono cresciute del 21,3%, arrivando a quota 1.889: nove volte il dato del 2016. Va bene o è ancora troppo poco?
«La domanda cruciale nella governance dell’IA resta “chi controlla i controllori?”. Regolamentare è necessario, ma da sola la legge non basta se non è ancorata ad un’etica solida. La politica deve domandarsi perché un’IA viene progettata in un determinato modo, con quali finalità, quali bene tutela e quali promuove. Serve sviluppare pensiero critico e partire dalla consapevolezza che l’IA non è neutra, ma riflette una visione dell’uomo e dei suoi diritti fondamentali. La politica deve darsi una giusta priorità di beni e valori».