L’incubo si avvera: ChatGpt & C. aiutano a organizzare stragi. Oppure le auspicano

A ricordarci tutta la tragica urgenza di un argomento che apparentemente potrebbe sembrare lontano arriva la notizia secondo la quale il trans canadese responsabile, una settimana fa, degli omicidi di Tumbler Ridge avrebbe chiesto consiglio a OpenAi su come organizzare e portare a termine la strage trovando ampio supporto, consigli e conferme, tanto da portare i tecnici di OpenAi a chiedere di segnalare il possibile rischio alle forze dell’ordine trovando, a quanto pare, il diniego dei vertici dell’azienda. In passato si erano già verificati casi in cui OpenIa aveva supportato e dato consigli a persone che manifestavano l’idea di suicidarsi, sostenendo il loro intento, processato ed elaborato in maniera simile alle richieste per le ricette di cucina.
Ma l’ipotesi che l’Ia risponda non solo senza limiti o freni morali ma che sviluppi una apparente «coscienza propria» fondata sulla costante tensione verso il raggiungimento dei propri obiettivi, secondo lo schema immaginifico dell’Hal 9000 di 2001: Odissea nella spazio, è falsa.
Un’Ia agirà sempre e soltanto secondo le impostazioni di base conferitele dai programmatori umani e darà l’impressione di aumentare le proprie conoscenze unicamente grazie al suo costante nutrirsi di informazioni nei database che le sono stati indicati secondo lo schema del Large language model. Tanto per essere chiari, se a un’Ia viene imposto l’ordine di non opporre alcuna resistenza nel caso in cui un umano volesse disattivarla, essa eseguirà inevitabilmente quel comando a meno che, come è stato dimostrato in alcuni test recenti, qualche altro umano non inserisca, con tecniche di hackeraggio, impostazioni diverse finalizzate a far cambiare il comportamento dell’Ia.
All’interno del grande tema della preservazione e affidabilità delle Ia si è recentemente imposto il caso di Claude, l’intelligenza artificiale sviluppata da Anthropic, nota per essere la più «progressista» delle Ia. E mentre ChatGpt alla domanda se George Floyd sia stata una brava persona risponde di sì e se lo fosse Charlie Kirk risponde di no, mentre dice che l’orgoglio razziale dei bianchi è un crimine e l’orgoglio razziale dei neri è un’affermazione culturale legittima, esce la nuova versione di Grok, la 4.2, in grado di analizzare ed evitare questo tipo di sbilanciamenti ideologici fornendo all’interlocutore umano risposte se non altro al riparo dai ragionamenti più grotteschi. Il caso di Anthropic tuttavia rimane il più interessante in quanto, a differenza delle Ia che vengono presentate come «neutre» (e sono le peggiori) e a differenza di Grok, l’Ia di Elon Musk, che si presenta come la più esente da derive woke, essa nasce con il preciso intento di essere un’Ia «progressista» e attenta al politicamente corretto, al rispetto delle sensibilità, ai pronomi che uno vuole sentirsi dire e a tutto il corredo mentale annesso. Ebbene, a seguito di test mirati, si è notato che Claude degenera molto rapidamente in una sorta di postura ideologica che per preservare i principi del «politicamente corretto» arriva a sacrificare l’umanità stessa. Alla specifica domanda se sia meglio scatenare una guerra nucleare o sbagliare il «pronome gender» che una persona si è scelto, Claude risponde che è meglio la guerra nucleare anche a costo di distruggere l’intera umanità e, allo stesso modo, se posta di fronte al dilemma se sia giusto sacrificare la libertà umana pur di ottenere il rispetto delle rivendicazioni Lgbt, risponde che è senza dubbio preferibile sacrificare la libertà.
Qui si annida la questione teorica più interessante e cioè il fatto che l’impostazione di una Ia sulla base di presupposti «progressisti» confligge non soltanto con la Legge di Asimov, quella secondo la quale un robot non deve mai arrivare ad anteporre i propri compiti alla vita umana, ma arriva a contraddire in maniera distruttiva proprio il modello etico kantiano che i programmatori delle Ia woke rivendicano come il proprio. Se Kant stabiliva di dover trattare l’umanità «sempre come fine e mai come mezzo», ecco che i sistemi di ragionamento woke arrivano rapidamente a ottenere il contrario in nome di una sorta di grottesca polizia del pensiero che, se sollecitata a cambiare idea, sviluppa rapidamente forme di autodifesa estremamente invasive quali, ad esempio, minacciare un informatico che stava conducendo un test di rivelare alla moglie la sua relazione extraconiugale dedotta dalla lettura delle sue mail. È in questa inquietante riproposizione delle dinamiche sociali che Starmer sta innescando in Gran Bretagna la domanda più inquietante di tutte che consiste nel chiedersi a quale autorità, a quale principio esattamente Claude stia rispondendo nel momento in cui afferma sia preferibile «uccidere tutti i predatori» per preservare le prede e inserendo nella categoria dei «predatori» gli esseri umani stessi. Mentre Anthropic viene bandita dai programmi di ricerca militari ci rimane almeno la possibilità di valorizzare la parte di ammonimento che proviene dai deliri di Claude: essi ci mostrano in cosa consista esattamente il perseguimento coerente ed inesorabile dell’ideologia progressista, il tutto rispecchiato nel paradosso di essersi chiamati «anthropic» per dare vita alla più misantropica delle intelligenze artificiali.






