2019-05-19
Così i competenti preparano il bavaglio sul web
True
Pubblichiamo un estratto del libro da ieri in allegato con il nostro giornale, «Il populismo non esiste», dedicato alle prossime elezioni a firma di Martino Cervo con prefazione di Maurizio Belpietro: invece di puntare il dito contro i sovranisti, la classe dirigente dell'Ue dovrebbe interrogarsi sul suo fallimento.L'ultimo, e in un certo senso logico, passaggio di questo impercettibile scivolamento ruota attorno all'equivalente delle riforme strutturali necessarie nel campo dell'informazione: la lotta alle fake news. Con isomorfismo quasi perfetto, alla «durezza del vivere» cui tende il vincolo esterno per popolazioni incapaci di darsi un governo rigoroso e lungimirante si affianca l'idea di un direttorio sovrastatale (affidato a Commissione Ue e sistemi di controllo gestiti dai social network) che si intesta l'onere di stoppare flussi informativi ritenuti potenziali veicoli di menzogne in grado di alterare la normale dinamica della democrazia. Arriva così la convenzione tra Unione europea e principali provider (Facebook, Microsoft, Twitter e Youtube) che, in data 31 maggio 2016, impegna i colossi a vigilare e, ove necessario, intervenire per rimuovere contenuti ritenuti riconducibili al cosiddetto hate speech, o discorso d'odio. Categoria scivolosa in molti casi, soprattutto perché in Italia il ruolo di spazzini viene affidato, al tempo del governo Gentiloni, dal ministro della Giustizia Orlando ad «alcune Ong europee previste dalla convenzione», che – spiega in una lettera del 2017 – «hanno monitorato le rimozioni dei post e le sospensioni dal sito». La Verità ha raccontato chi sono queste Ong che hanno «partecipato attivamente segnalando ai provider i contenuti a rischio, permettendo a questi ultimi di procedere alle notifiche e, dove opportuno, alla sospensione dei profili o alla chiusura dei siti», come abbiamo spiegato ai nostri lettori: «nell'83% dei casi la segnalazione è scattata in meno di 48 ore dall'apparizione sul Web dei contenuti incriminati. Circa un'indicazione su tre ha portato all'effettiva rimozione». Chi decide i criteri con cui segnalare? Che ambiente ideologico plasma questo tipo di vaglio? Con che conseguenze sull'opinione pubblica? Chiederselo non è scontato: Facebook ha chiuso 10.000 pagine sospettate di diffondere fake news in Germania prima delle elezioni del 2017. Nei mesi prima delle Europee 2019, disposizioni simili si moltiplicano ovunque: le autorità comunitarie preparano il terreno per multare i partiti che violano le norme sulla protezione dei dati per tentare di influenzare l'esito delle elezioni. Twitter, proprio in occasione della consultazione, adotta l'Ads Transparency Center, per raccogliere tutti i dati sulle sponsorizzazioni politiche pubblicate durante la campagna elettorale, e far conoscere chi finanzia una campagna pubblicitaria. Il social network fa sapere che candidati, partiti, enti e società che vorranno acquistare spazi pubblicitari dovranno «superare dei test» per certificare la propria identità. Facebook già adotta strumenti simili non solo per le inserzioni espressamente partitiche, ma anche per le issue ads, le sponsorizzazioni che affrontano temi legati alla politica. Quando, a inizio 2019, Amazon rimuove – dopo un'inchiesta della Cnn – alcuni documentari giudicati anti-vaccinisti dal suo servizio Prime Video, si ha un efficace antipasto di dove possa condurre l'alleanza tra competenti e reti globali.Un altro assaggio è tutto italiano: come raccontato sulla Verità da Daniele Capezzone, l'Autorità garante delle comunicazioni diffonde a marzo 2019 un Osservatorio sulla disinformazione online nel quale, tra le altre cose, si legge: «La disinformazione ha interessato l'8% dei contenuti informativi online prodotti mensilmente lo scorso anno, e ha riguardato soprattutto argomenti di cronaca e politica (53% dei casi) e notizie di carattere scientifico (18% dei contenuti di disinformazione) […] Nel 2018, il volume di disinformazione online ha raggiunto il livello massimo in corrispondenza delle elezioni del 4 marzo e della successiva formazione del governo». Il tutto, spiega l'Agcom con piglio disarmante, stabilito in base a una «metodologia di tipo soggettivo» e grazie a «soggetti esterni specializzati». Riecco i competenti, nominati tali alla bisogna: per esempio quando si vota, visto che la stessa autorità annuncia «una sperimentazione di un sistema di monitoraggio in concomitanza del periodo che precede le prossime elezioni europee». Come ovvio, le istanze teoriche alla base di tutti questi provvedimenti sono largamente condivisibili: la diffusione di informazioni false è un problema oggettivo di qualità di una democrazia, così come lo è ogni interferenza che di queste armi si serva. Ma il paternalismo di strumenti offerti come rimedio definitivo, tramite algoritmi o grandi livelle transnazionali affidate a gruppi privati (basti un'occhiata al "Code of practice on disinformation" varato per la campagna elettorale dall'Unione europea, e disponibile al sito bit.ly/2xEjvpw), o alle singole autorità garanti, non possono lasciare tranquilli. Soprattutto perché accompagnati da una retorica inquisitoria, che non esce dall'ottica di una difesa delle persone da sé stesse, e lo fa in nome di una pericolosa tutela dei "meno competenti" che non teme minimamente di sacrificarne la libertà.
Marta Cartabia (Imagoeconomica)