«The bird is freed» (l’uccellino è stato liberato), aveva scritto il 27 ottobre del 2022 Elon Musk per celebrare l’acquisto di Twitter per 44 miliardi di dollari. Poi, come prima mossa, aveva immediatamente licenziato l’amministratore delegato, Parag Agrawal, e il direttore finanziario, Ned Segal, ma anche il capo dell’ufficio legale e policy, Vijaya Gadde, ovvero colui che aveva di fatto eseguito il «ban» a Donald Trump e il general counsel Sean Edgett. L’antifona era: rivoluzionare la piattaforma e togliere le «censure». Subito era arrivato il commento del commissario europeo per il Mercato interno, Thierry Breton, che aveva ritwittato il proprietario di Tesla e Spacex, con una risposta tagliente: «In Europe, the bird will fly by our rules» (In Europa, l’uccellino volerà secondo le nostre regole). Che fosse solo l’inizio di una lunga battaglia tra Musk e Bruxelles, dunque, era già chiaro (non a caso il 30 novembre Musk aveva anche interrotto la moderazione sui contenuti che riguardavano il Covid). E venerdì sera, attorno alle 22.30, ecco che Breton ha twittato di nuovo con un annuncio: «Twitter abbandona il Codice di condotta volontario della Ue contro la disinformazione. Ma gli obblighi rimangono. Puoi scappare ma non puoi nasconderti. Oltre agli impegni volontari la lotta alla disinformazione sarà un obbligo legale ai sensi del Dsa a partire dal 25 agosto. I nostri team saranno pronti per l’esecuzione». Il riferimento è al Digital services act, le nuove regole sui social network varate dalla Commissione ad aprile 2022 e approvate dal Parlamento europeo a luglio sempre dell’anno scorso che prevedono multe fino al 6% del fatturato annuale di un’azienda. Il codice di condotta sulla disinformazione è un regolamento volontario che prevede l’obbligo per le piattaforme di tracciare la pubblicità politica, interrompere la monetizzazione della disinformazione e fornire un maggiore accesso agli esterni. Twitter è una delle otto piattaforme che rientrano nell’ambito del Dsa. Le altre sono Facebook, Tiktok, Youtube, Instagram, Linkedin, Pinterest e Snapchat. Twitter, tra l’altro, è stato designato come una cosiddetta Very large online platform (Vlop), il che significa che sarà monitorato più rigorosamente da Bruxelles rispetto alle piattaforme più piccole.
Ora Elon Musk si ritira dall’accordo volontario perseguendo il suo l’obiettivo di trasformare il suo social network in una piazza digitale, dove la libertà di parola è prioritaria. E allora Breton fa di nuovo la voce grossa: ricordati chi scrive le regole, puoi scappare ma non puoi nasconderti. Senza però fare ancora chiarezza su chi decide cosa sia disinformazione. O su come, a fronte delle importanti e legittime censure su chi commette illeciti, evitare il rischio di vedersi censurare contenuti di natura politica e intellettuale. Abbiamo già avuto modo di scrivere su queste colonne che a sovrintendere il rispetto delle nuove norme sarà una unità della Commissione Ue finanziata da una fee dello 0,05% del reddito netto globale del servizio. Di fatto, nascerà un «coordinatore dei servizi digitali» che, a sua volta, si avvarrà di enti segnalatori attendibili per ogni singola nazione. Tra le funzioni della struttura Ue che sta prendendo forma c’è quella della censura e del controllo dei contenuti che man mano vengono ritenuti dannosi. Ciò che adesso passa sotto il nome di fake news e viene ostacolato facendo pressioni nei confronti delle aziende della Silicon valley, in futuro potrebbe essere una attività industriale e certosina. Non solo perché le autorità di regolamentazione avranno poteri significativi, compresa la capacità di imporre penalità del fatturato del 6%, ma anche perché potranno far applicare le decisioni sotto l’ombrello dell’emergenza senza dover rendere conto a nessun Parlamento. Basta prendere l’articolo 91 del testo approvato in via definitiva lo scorso 19 ottobre. «In tempi di crisi potrebbe essere necessario adottare con urgenza determinate misure specifiche», si legge nel testo secondo cui il comitato dei servizi digitali avrà il potere di rivolgersi ai titolari delle grandi piattaforme social e dei motori di ricerca per «far adeguare i processi di moderazione dei contenuti e aumentare le risorse destinate alla moderazione dei contenuti, adeguare i sistemi algoritmici e i sistemi pubblicitari pertinenti, adottare misure di sensibilizzazione, promozione di informazioni affidabili e con relative interfacce online». Gli organi preposti potranno dunque chiedere la rimozione di contenuti informativi «non corretti» in occasione di crisi che «potrebbero derivare da conflitti armati o atti di terrorismo, catastrofi naturali quali terremoti e uragani, nonché pandemie e altre gravi minacce per la salute pubblica a carattere transfrontaliero». In pratica, la Commissione potrà decidere che cosa potrà essere scritto e che cosa no. Dove e soprattutto che livello di visibilità potrà avere. Più o meno quello che è emerso su Twitter nella gestione precedente a Musk, solo all’ennesima potenza. Per il fatto che ogni avvenimento potrebbe giustificare lo stato di allarme.




