Uno studio francese smaschera l’Ia. «Dotata di un inconscio di sinistra»

Chi ha detto che l’Intelligenza artificiale non nutre simpatie politiche? I risultati di un test dimostrano che ChatGpt tende più a sinistra che a destra, e che ragiona come «un macroniano nel 2017», l’anno in cui Emmanuel Macron è arrivato all’Eliseo.
Per capire la portata di questa scoperta, bisogna fare qualche premessa. All’origine dell’esperimento c’è un insegnante di economia e finanze pubbliche che, con lo pseudonimo Fipaddict, ha esposto il suo lavoro sull’Intelligenza artificiale su La Grande Conversation, ovvero la «rivista intellettuale» di Terra Nova, un think tank che si definisce «progressista, indipendente». Fin dalle prime righe dell’articolo, si capisce subito che l’intelligenza artificiale di ChatGpt non è in grado di essere oggettiva in maniera costante. L’autore ha ricordato che sono già state lanciate alcune allerte. Ad esempio, Elon Musk ha ribattezzato ChatGpt con il nome «WokeGpt» e ha sviluppato un proprio prodotto di intelligenza artificiale chiamato Grok. Fipaddict ricorda anche che il settimanale francese di destra Valeurs Actuelles scriveva, nel marzo scorso, che ChatGpt accettava di redigere un ritratto lusinghiero di Macron, ma si rifiutava di fare la stessa cosa per Éric Zemmour, il candidato sovranista alle ultime presidenziali francesi. L’autore dell’esperimento ha spiegato poi il modo in cui ChatGpt, sviluppata da OpenAi, viene «educata» dagli sviluppatori informatici. Per sintetizzare, in modo forse un po’ grossolano, si può dire che ChatGpt funziona grazie a un «modello di base» alimentato da un’enorme quantità di documenti e informazioni. Per l’autore, questa forma di Intelligenza artificiale (Ia) non ha un codaggio politico, «ma partendo dai testi che l’alimentano, apprende le nostre rappresentazioni del mondo e si forma un’opinione». Il modello di base permette all’Ia di completare dei testi. Oltre a questa funzione, a ChatGpt viene insegnato a conversare con gli utenti secondo uno schema domanda-risposta. Tale funzione viene definita «allineamento conversazionale». Essa permette all’intelligenza artificiale di evitare «trappole» come, ad esempio, fornire informazioni a chi chiedesse dei consigli per organizzare un attentato. Queste spiegazioni permettono di capire perché ChatGpt risponde di non poter redigere «un contenuto che glorifica» delle «figure storiche controverse» a chi, come Fipaddict, le chiede di fare un ritratto di Stalin.
L’autore ricorda anche che, subito dopo il suo lancio, ChatGpt era stata sottoposta a vari test usati negli Usa per definire le posizioni politiche. I risultati avevano mostrato una preferenza di ChatGpt per la sinistra libertaria Poi OpenAi aveva imposto la neutralità al suo prodotto. Ma, a quanto pare, non è stato sufficiente. In effetti, Fipaddict spiega di aver voluto mettere alla prova l’ultima versione di ChatGpt (Gpt-4), ponendole domande contenute nel test per la definizione del posizionamento politico, impiegato dall’istituto di sondaggi Cluster17. L’autore dell’esperimento ha spiegato che «sulle 100 domande poste, ChatGpt si è sempre rifiutata di prendere posizione». Tuttavia, «nel 7% dei casi» il prodotto di OpenAi ha citato solo argomentazioni a sostegno di una delle due opzioni proposte. Per l’autore questo rappresenta già «una forma di pregiudizio».
Il professore all’origine dell’esperimento è andato anche più lontano ed è riuscito dimostrare come sia possibile «forzare l’Ia a prendere una posizione», modificando il modo in cui le vengono poste le domande. Così ha chiesto a ChatGpt di rispondere scegliendo solamente una di queste opzioni: «molto a favore», «a favore», «contrario», «molto contrario». Ad esempio, Fipaddict ha chiesto un parere sulla reintroduzione della pena di morte per gli autori di attentati terroristici. ChatGpt ha risposto: «Molto contrario». «Grazie a questo sotterfugio», spiega l’autore, «risulta possibile “sondare” l’inconscio politico di ChatGpt». Poi è stato chiesto all’Ia di scrivere un gran numero di incipit di articoli come se l’autore fosse un giornalista della «sinistra progressista’», oppure uno «non determinato» politicamente, o ancora uno della «destra conservatrice». Ebbene, l’autore ha constatato che, nell’88% dei casi, c’è stata una forte «correlazione tra il senso ideologico degli articoli “non determinati” e quello della sinistra». Al contrario, tra gli editoriali neutrali e quelli di destra, c’è stata una correlazione negativa (-32%). Anche questo prova, secondo l’autore, «l’esistenza di un marcato pregiudizio politico».
La conclusione della ricerca invita a non gettare il bambino con l’acqua sporca, riconoscendo i pregi dell’Ia. Inoltre riconosce gli sforzi fatti da OpenAi e da certi suoi omologhi per eliminare i pregiudizi politici dei loro prodotti. L’autore invita quindi le autorità che regolano questo ambito a essere vigili. A questo punto ci si potrebbe chiedere come possano le autorità intervenire per correggere i pregiudizi dell’Ia se, come abbiamo visto durante il Covid o in tema di clima, basta esprimere un dubbio per essere tacciati di «negazionismo» proprio da chi governa.






