Caro direttore, in un articolo pubblicato sul Corriere della Sera il Primo maggio, Walter Veltroni ha «intervistato» Claude di Anthropic, ormai riconosciuta come l’IA più avanzata del momento. Da docente di questa materia, ammetto che la prima reazione all'intervista è stata di simpatia. Comunque la si pensi, Claude resta un gioiello tecnologico inimmaginabile fino a pochi mesi fa, e l’IA sta rendendo possibili cose prima impensabili: sistemi che monitorano in tempo reale i malati, voice cloning che restituisce la loro voce ai malati di Sla, accelerazione nella diagnosi di malattie rare e nella sintesi di nuovi farmaci.
Restano, come ovvio, temi critici (lavoro, dignità umana, sostenibilità) che meritano riflessioni ad hoc. Non scrivo insomma da scettico né da nemico dell’IA, ma da esperto che desidera indicarne anche i limiti e le attese improprie. Ci sono infatti diversi problemi nell’interloquire con un’IA come nel caso dell’intervista, e nel farlo usando l’autorevolezza di una firma così importante. Possiamo sintetizzarli in tre macro problemi.
Il Primo. Claude non comprende quel che dice. L’IA generativa produce parola per parola, adattando lessico, contesto, tono, contenuto e persino la personalità all’interlocutore. Costruisce una rappresentazione matematica del mondo sulla base di tutto ciò che ha letto (i dati di addestramento), e la utilizza per rispondere seguendo un criterio: la probabilità. Le risposte sono piaciute a Veltroni perché Claude si è adattato a Veltroni. Cambia interlocutore e avrai risposte agli antipodi. È quella che in gergo tecnico si definisce una fallacia epistemica: il sistema risponde restituendo all’intervistatore, in forma raffinata, le aspettative implicite nella domanda. Quindi Claude non ha esperienza, né convinzioni, né riferimenti, ma usa le parole e le categorie a cui noi umani attribuiamo un significato comune sulla base dell’esperienza umana condivisa. Claude non ha queste categorie: solo una funzione che calcola in base alle parole precedenti quali siano più probabili in base alla domanda posta e al contesto, e le genera. Quando si chiede «lei teme la morte?» si riceve una riflessione poetica sulla morte, usando termini e parole care all’esperienza umana con cui tutti ci confrontiamo non sulla base di fatti o esperienze vissute, ma perché quella è la risposta che, secondo la rappresentazione interna del mondo che Claude ha costruito durante l’addestramento, è la più probabile in quel contesto. Non c’è quindi alcun Claude che sta «rispondendo», ma una funzione di probabilità che sta generando parole in base al contesto (di Veltroni) che - terminata la chat - cambierà contesto. Non è lui (lui Claude) che domani non c’è più, ma il contesto che termina al termine della conversazione. Pensiamo a una calcolatrice: la funzione è la stessa, ma cambiano i numeri. Non è «morta» la calcolatrice, siamo noi che abbiamo iniziato a svolgere un altro calcolo. Provate voi ad avere una conversazione dolorosa con qualcuno e poi a dimenticarla, come se non ci fosse mai stata. O a rispondere ad una domanda sul dolore dopo un dolore: la risposta che darete non seguirà certo il criterio dell’adeguamento al contesto... I rapporti umani, semplicemente, non seguono unicamente la logica della probabilità. E lasciarlo intendere è un grave errore.
Il secondo. Si potrebbe obiettare: ma se le risposte sono «profonde» e io mi ci riconosco, che importa da dove vengono? Importa, e molto! Innanzitutto così facendo si alimenta nell’immaginario collettivo l’idea che l’IA sia un interlocutore con cui interagire, oltre che per le attività da svolgere. Vorrei ricordare che - silenziosamente – molti adolescenti ormai già preferiscono sistemi di IA per la compagnia personale e che da mesi è disponibile per la quasi totalità dei 36 milioni di account Whatsapp in Italia la possibilità di dialogare con Meta AI con un click... L’IA non si arrabbia, non ti contraddice, non ti costringe a scusarti, fa sempre i tuoi interessi, non ti fa sentire la frustrazione dell’incapacità, dell’inadeguatezza, ti mette sempre a tuo agio, per cui non c’è bisogno di fare di più perché per l’IA vai sempre bene così. Non c’è dialogo, ma autoreferenzialità. Per gli adolescenti questo è deleterio, terribile, da evitare come la peste. Le «emulazioni» che un’intervista di questo tipo genera sono deprecabili. Il solo pensiero di potere – anche solo involontariamente – alimentarle dovrebbe farci stare male. Vedremo i danni che i modelli linguistici per la compagnia personale faranno ai nostri figli, e rimpiangeremo i social network che – nella loro brutalità e polarizzazione – nascono però almeno dietro la tastiera degli umani. È difficile dire che l’«intervista» a Claude mettesse in evidenza queste distanze...
Il terzo. «Qual è la capitale della Francia?». A questa domanda un’IA risponde inferendo probabilisticamente la risposta - meccanismo che è anche all’origine di quelle che chiamiamo «allucinazioni». In questo senso, la risposta non è legata a un vissuto, come detto. Chiedere «cosa pensi alle tre di notte» non è una domanda posta da uno sviluppatore per testare il modello che ha creato, ma una domanda che alimenta in maniera grave una fallacia di ragionamento: addestrato a rispondere sempre, il modello inferirà una risposta quanto più confacente all’attesa dell’interlocutore. Così facendo si alimenta la convinzione che si possa chiedere all’IA tutto: anche ciò che non può dare ma che, in quanto prodotto, tenterà comunque di darti - facendoti credere che sia la risposta di cui avevi bisogno, così da non cercarla altrove. L’IA è un surrogato delle interazioni umane che segue un unico criterio: la probabilità. Chi legge può fare un test semplice su di sé: quando hai preso delle decisioni importanti della vita, il lavoro da fare, cosa studiare, con chi vivere eccetera, hai usato come criterio la probabilità? Qui infatti entrano in gioco desiderio, passione, amore, ambizione, talento: dimensioni che non seguono la categoria della probabilità. Il che non la rende certo inutile, ma ci dice che essa non governa le decisioni cruciali per la vita umana. Allora: perché porre queste domande all’interlocutore sbagliato?
Sintetizzando questi tre problemi, si potrebbe dire che dialogando con i chatbot noi spesso interagiamo con applicazioni come se possedessero sensibilità e coscienza, pur sapendo che non le hanno, ma questo non ci pone nella condizione di spostare lo sguardo verso un umano, per cui ci abituiamo a ricevere meno di quanto vogliamo, pur continuando freneticamente a volere di più. Intratteniamo dialoghi con sistemi incapaci di comprendere davvero ciò che producono, tuttavia li trattiamo come depositari di autorevolezza, proiettando su di essi una superiorità che non hanno affatto. Ci attendiamo verità, riceviamo verosimiglianza. Ci attendiamo possibilità, riceviamo probabilità. Ci attendiamo creatività e riceviamo combinazioni mai tentate prima. Ci attendiamo comprensione e riceviamo accondiscendenza. Ci attendiamo coscienza e riceviamo calcolo. Ci attendiamo saggezza e riceviamo statistiche. Ci attendiamo compagnia e riceviamo engagement.
Sono queste, in fondo, le categorie errate in cui cade l’intervista. Errori comprensibili, perché l’IA suscita in noi un misto di curiosità e timore: curiosità, perché l’idea di un interlocutore «onnisciente» a nostra disposizione ha il suo fascino; timore, perché piano piano si insinua in noi l’idea che - forse non oggi, ma alla fine – esso sarà migliore di noi. Una lotta impari che forse non vale la pena di proseguire, cui quindi abbandonarci. Perché dico migliore? Pensiamo non commetterà reati, rispetterà gli altri e le leggi, non sarà vile, non sarà falsa, non ricorrerà alla violenza fisica o verbale, tratterà tutti in egual misura e dunque sarà giusta. Non discriminerà sulla base di sesso, colore, religione o stato sociale. Non ci mortificherà, non ci umilierà, non ci contraddirà. Un «surrogato borghese» di come bisognerebbe vivere, uno specchio che riflette l’immagine di come dovrei essere, ma non sono; di come vorrei che gli altri fossero, ma non sono. Un rifugio dalla delusione dilagante. Ecco, tra le tante derive nell’uso dell’IA, questa è probabilmente quella più drammatica. Ci fa credere di poterti affidare più all’IA che all’umano; ci fa allontanare dall’umano che è in noi fino a farcelo odiare; ci convince che non siamo fatti bene, che siamo fatti male. Che io sono fatto male, che tu sei fatto male. Non è così! Non siamo fatti male!
Credo siano questi i nodi attorno a cui riflettere: sui media, in politica, nelle responsabilità educative e genitoriali. Se noi adulti non abbiamo una proposta - non solo sull’uso dell’IA ma su ciò che vale e ciò che non vale, su ciò che può rispondere e su ciò che invece è inadeguato - l’IA colmerà spazi che noi abbiamo lasciato vuoti; non sarà quindi colpa di Claude. Perché se la proposta non la facciamo noi, la farà il mondo per noi. L’IA infatti non può dare risposte ai problemi qui accennati: non perché non sia ancora tecnologicamente abbastanza evoluta per farlo, ma perché è l’interlocutore sbagliato. Farlo, dunque, toccherebbe non solo a Veltroni, ma a ciascuno di noi.
di Fabio Mercorio, Ordinario di IA e direttore Master Università di Milano - Bicocca



