2019-01-25
        Occhio agli algoritmi, rendono i social delle «bolle» culturali
    
 
Troppo spesso Internet ci pone a confronto solo con le idee che già condividiamo. Ma un modo per beffare il sistema c'è.Ceo di XplaceLe tecnologie di intelligenza artificiale e gli algoritmi oggigiorno governano la rete, e questa è cosa nota. Se da una parte la gran mole di dati prodotti dai nostri movimenti online, viene raccolta ed elaborata per fornirci le informazioni più attinenti alle nostre parole di ricerca piuttosto che ai nostri interessi, c'è un altro lato della medaglia che a mio avviso merita di essere analizzato.Un risvolto pratico legato all'elaborazione automatica dei dati è rappresentato da quelle che Eli Pariser, attivista di internet, ha definito filter bubbles: se il comportamento dell'utente viene costantemente monitorato e registrato, e diventa il criterio per stabilire che cosa mostrargli, l'utente stesso finisce per essere inserito all'interno di una bolla immaginaria, una sorta di universo online parallelo, che filtra la sua visione della realtà. Vi siete mai chiesti perché dopo aver ricercato online un determinato contenuto o profilo, la vostra bacheca è intasata di post che vi fanno esplicito riferimento? Ogni click lascia una traccia e il sistema la segue per impostare il percorso di navigazione: l'utente si illude di decidere consapevolmente cosa vedere e, nella maggior parte dei casi, crede di avere accesso grazie ad internet all'intero scibile, non rendendosi conto di quante informazioni gli vengono nascoste. Questo processo infatti fa sì che l'utente online si imbatta esclusivamente in contenuti che confermano e rafforzano le proprie opinioni: recependo solo notizie in linea col proprio modo di essere e di pensare, egli si ritrova automaticamente negata la possibilità di confrontarsi con altri punti di vista, e finisce quindi per chiudere e alimentare la propria mente solo con argomentazioni che sposano a pieno la sua visione, ricadendo all'infinito nel meccanismo della fantomatica profezia che si auto-avvera.Manca ancora un passaggio: non credete che questo meccanismo possa essere sfruttato da chiunque conosca e sia in grado di controllare gli algoritmi? Mi spiego meglio: se quanto scritto finora è vero, e lo dimostrano diversi studi nonché la nostra esperienza quotidiana in rete, la creazione della bolla di filtri e la conseguente perdita di informazioni eterogenee potrebbe essere usata a proprio vantaggio per manipolare e indirizzare il pensiero dell'individuo. Come? Attraverso la creazione di fake news. Se infatti le persone tendono ad apprezzare maggiormente le pubblicazioni più vicine al proprio modo di pensare e tutti i click vengono registrati, con la bolla di filtri abbiamo detto che esse saranno portate a vedere e ricevere esclusivamente quel tipo di informazioni: basterà allora cavalcare l'onda e diffondere notizie dello stesso genere, nello specifico inventate, per farle facilmente arrivare al bersaglio della comunicazione, fomentare le sue credenze e governare in questo modo il suo processo cognitivo, facendogli cioè credere che l'unico mondo plausibile sia quello da lui fruito. Il risultato? Una bolla di filtri fatta di notizie false!Come poter sovvertire il sistema? Sicuramente far luce sul meccanismo e renderlo «trasparente» aiuterebbe a evitare l'utilizzo scorretto dello stesso. Su questo versante stanno già lavorando i vari social network, basti pensare a Facebook che ha ingaggiato un vero e proprio team per accertare la validità dei fatti citati, e scovare così ogni falsità, limitarne la diffusione e ripulire le bacheche di miliardi di utenti. Interessante è anche l'intervento di aggiornamento della piattaforma per combattere l'engagement baiting e quindi ridurre la visibilità di tutti quei post che ricoprono l'utente, in maniera piuttosto invasiva, di call to action, come l'aprire un link per atterrare su un'altra pagina: dal momento che le notizie fake presentano spesso tale carattere, l'augurio del social è quello di boicottarle e premiare i contenuti più ricercati ed autentici, rendendo così la navigazione dell'utente il più piacevole possibile e meno esposta alla manipolazione da parte di terzi.Concludo dicendo che una parte del lavoro spetta sicuramente anche all'utente: se l'algoritmo è furbo, egli può esserlo di più. Il mio vissuto ha portato a convincermi che la chiave per la crescita personale è la contaminazione: come potremmo confrontarci con il nuovo e/o il diverso se ci interfacciamo esclusivamente con chi o cosa la pensa esattamente come noi? E allora confondiamo gli algoritmi, cercando, anche quando la fruizione non sarà immediata, nuovi spunti, fonti diverse: solo così riusciremo ad accertarci del vero e uscire dalla bolla.
        Giorgia Meloni (Getty Images)
    
        Il primo ministro della Lituania Inga Ruginienè (Ansa)
    
        Sebastien Lai, figlio di Jimmy Lai, incarcerato a Hong Kong nel 2020 (Getty Images)