2023-04-21
Affronto a Schumi, ora ChatGpt va regolato
La finta intervista al campione di Formula 1, in coma dal 2013, conferma che l’Intelligenza artificiale ha bisogno di limiti. Ma mentre il mondo si indigna, da noi il prodiano Roberto Battiston glorifica la tecnologia senza limiti. E vuole introdurla a scuola, «contro i pregiudizi».Roberto Battiston è già pronto, anzi è nato pronto. Era pronto a pontificare sullo Spazio, non solo da presidente dell’Agenzia spaziale italiana; è stato pronto a pontificare sulla pandemia; e ora - sempre in corsia di sorpasso, sempre assertivo, sempre tassativo - è già strapronto a pontificare su ChatGpt. Lo attendiamo presto (ma non vorremmo dare suggerimenti) anche sul tema della gestione degli orsi in Trentino. In un intervento ieri su Repubblica, il fisico non si è risparmiato in termini di glorificazione di ChatGpt. Va introdotta a scuola, «insegnerà a fare domande e riconoscere pregiudizi», recita il titolo della pagina, con un occhiello ancora più persuaso delle magnifiche sorti e progressive a cui staremmo andando incontro: Battiston, spiega Rep, «invita a non dar retta agli isterismi sull’Intelligenza artificiale».E dunque, avanti: perché siamo davanti a «un successo di pubblico che ha sorpreso anche gli ingegneri di OpenAi, produttore di ChatGpt». E allora ecco il passo successivo: la novità entri nelle scuole «per migliorare la capacità critica degli studenti». Ah sì? Peccato che Battiston si affretti subito a precisare che potrebbero esserci «pregiudizi nascosti in questi algoritmi, allenati utilizzando una cultura dominante tipicamente nordamericana e bianca». Ma come? Si dice (giustamente) che dobbiamo abituare gli studenti a porre e porsi domande, a esercitare il dubbio, ma li mettiamo immediatamente in guardia da una specie di ombra suprematista (la cui esistenza è peraltro assai dubbia, come verificheremo tra poco attraverso le - opposte - visioni di Bill Gates ed Elon Musk)? Insomma, leggendo l’articolo, la prima sensazione spiacevole che abbiamo ricavato è una sorta di colpevolizzazione preventiva del maschio bianco occidentale. Il problema è che in realtà il rischio vero è opposto rispetto a quello prospettato da Battiston. Ciò che va temuto - semmai - è che l’algoritmo sia stato costruito secondo il conformismo mainstream, non certo contro di esso. Marco Hugo Barsotti su Atlantico ha recentemente ricordato un caso che ha fatto rumore: e cioè il rifiuto di ChatGpt di comporre una poesia su Donald Trump, mentre non ha esitato a sfornarne una su Joe Biden. Come mai? Un indizio ce l’ha offerto - annota ancora Barsotti - Elon Musk, quando ha condiviso un tweet dove si faceva notare come «un crescente numero di prove indica che i filtri di sicurezza di OpenAi siano molto sbilanciati (verso il pensiero democratico, ndr)». Ed è noto che Musk (certamente anche con chiari obiettivi di concorrenza) abbia pensato a una possibile alternativa a ChatGpt. A proposito della quale Musk, nella sua recente intervista a Tucker Carlson su Fox News, ha detto esplicitamente: «Hanno addestrato ChatGpt a commentare alcune cose e non altre. E a mentire, a volte, a non dirci ciò che i dati reali potrebbero dirci».Sul tema, un acuto scienziato politico come Luigi Curini, su Italia Oggi, ha messo in guardia rispetto alle intenzioni e alle dichiarazioni di Bill Gates, il quale ha recentemente sostenuto che le Intelligenze artificiali dovrebbero servire a contrastare non solo la «disinformazione» (e già qui c’è da tremare: chi stabilisce cosa sia la disinformazione e cosa sia un’opinione differente?) ma pure la «polarizzazione politica». Chiosa giustamente preoccupato Curini: «La libertà di opinione rimarrebbe sulla carta formalmente intoccata, ma più subdolamente» si identificherebbero «quali voci possono apparire sulle nostre pagine social (o in una ricerca Internet) e quali no».Capite bene che proprio in una logica liberale c’è per un verso da contrastare divieti antistorici, ma per altro verso da suggerire cautela e soprattutto massima trasparenza sull’algoritmo utilizzato, senza trionfalismi positivisti e progressisti. Conclude opportunamente il professor Curini: «Sarà chi programma (e, soprattutto, chi finanzia), a scegliere quale dovrà essere la “verità collettiva” da diffondere per perseguire, ovviamente, il “bene collettivo”»? Prospettiva inquietante. Tra l’altro - su un altro piano, differente ma non estraneo ai dilemmi con cui tutti dovremmo misurarci - proprio la giornata di ieri ha confermato quanto sia delicato il terreno su cui ci stiamo incamminando. I familiari di Michael Schumacher stanno preparando un’azione legale contro la rivista Die Aktuelle, che ha pubblicato un’«intervista» generata dall’Intelligenza artificiale con l’ex pilota di Formula 1. È davvero il caso di mettere tra virgolette la parola «intervista», perché - com’è noto - l’ex campione automobilistico è in coma da fine 2013, dopo un grave incidente sciistico. Sta di fatto che il titolo della rivista recita: «Michael Schumacher, la prima intervista». Ed è solo il sottotitolo a precisare come le risposte siano state generate attraverso l’Intelligenza artificiale. Tutto ciò ha naturalmente indignato la famiglia, che ha preannunciato iniziative giudiziarie. Come si vede, proprio chi ha un approccio liberale e non crede nei divieti farà tuttavia bene a procedere con prudenza, e a rendere consapevole l’opinione pubblica di ciò che può accadere con i nuovi strumenti: non solo foto totalmente costruite, ma perfino qualcosa che vada ben oltre verso il pericoloso e indistinto confine tra vero-falso-verosimile-finto. A maggior ragione, non è il momento degli entusiasmi acritici e meno che mai quello della furbizia di chi - attraverso nuovi mezzi - vuole costruire conformismi ancora più vasti e profondi. Costoro amano parlare di diversità, ma rischiano di essere gli ingegneri dell’omogeneizzazione.
«The Iris Affair» (Sky Atlantic)
La nuova serie The Iris Affair, in onda su Sky Atlantic, intreccia azione e riflessione sul potere dell’Intelligenza Artificiale. Niamh Algar interpreta Iris Nixon, una programmatrice in fuga dopo aver scoperto i pericoli nascosti del suo stesso lavoro.