2019-07-24
Governi in allarme per il software che copia le voci
Gli ad di grandi società «sostituiti» da truffatori per trasferire denaro. L'uso dei fake in politica porterebbe a effetti disastrosi.Credere ai propri occhi e alle proprie orecchie nel prossimo futuro diventerà un'impresa sempre più ardua. Complici le più recenti tecnologie, infatti, non saremo più in grado di comprendere con facilità se il contenuto di un video che stiamo guardando o di un audio del quale siamo all'ascolto sia vero oppure no. Colpa dei deepfake, l'ultima frontiera delle fake news, video e audio «taroccati» grazie all'utilizzo dell'intelligenza artificiale e di fatto impossibili da distinguere dall'originale. Quello dei deepfake sta diventando una vera e propria minaccia nei confronti del mondo della politica, dell'informazione e dell'economia. Dell'argomento si parla da un paio d'anni, ma nei giorni scorsi il magazine statunitense Axios ha lanciato l'allarme denunciandone l'utilizzo fraudolento nel campo degli affari. L'ultima trovata degli scammer (particolare categoria di pirati informatici che porta avanti interessi truffaldini) è infatti quella di riprodurre la voce di figure di spicco aziendali in modo che impartiscano false disposizioni a ignari funzionari. Negli ultimi tempi sono stati almeno tre, riferisce Axios citando fonti della società di cybersicurezza Symantec, i tentativi di truffa ai danni di società private (delle quali però non si conosce il nome). Denominatore comune in tutti i casi, una telefonata dell'amministratore delegato per impartire ingenti trasferimenti di denaro. Anche se non si conoscono altri dettagli, la notizia è che i colpi sono andati a buon fine, fruttando ai malviventi diversi milioni di dollari.Le possibili applicazioni di questa tecnologia mettono i brividi. Le rapine messe in atto da questi criminali dimostrano che, sfruttando complessi algoritmi, è possibile campionare con un livello di perfezione quasi assoluto il timbro del soggetto del quale si desidera replicare la voce. Quale sarebbe la reazione degli investitori, si chiedono gli autori dell'inchiesta del magazine americano, se domani iniziasse a circolare un video o un audio fake di Elon Musk durante il quale il fondatore della Tesla denuncia un grave difetto di fabbricazione delle proprie automobili? È prevedibile pensare che le azioni crollerebbero all'istante, provocando danni incalcolabili al gruppo guidato dell'eclettico imprenditore. Ovviamente si tratta solo di un esempio, basta lasciarsi guidare dalla fantasia per immaginare scenari ancora più inquietanti. Pensiamo al falso messaggio radio di Donald Trump che annuncia un attacco nucleare su Washington da parte dell'Iran, o a un finto video del leader coreano Kim Jong-un che dichiara di voler invadere la Corea del Nord. Nell'era dell'informazione compulsiva, la diffusione virale di simili contenuti rischierebbe di avere effetti catastrofici. E dire che i deepfake hanno visto la luce in un campo totalmente diverso dalla politica. La tecnica si è infatti diffusa inizialmente nel campo del porno, con la creazione di foto prima, e di video sempre più sofisticati poi, nei quali il viso della (o del) protagonista veniva sostituita con quella di un personaggio famoso. Un tipo di manipolazione che è andato ad alimentare una nicchia di mercato particolarmente fiorente (quella appunto delle celebrities) e che ha visto nel tempo mettere in circolazione falsi video impersonati da Maisie Wiliams (una delle protagoniste della serie tv Games of Thrones), della cantautrice Taylor Swift e dall'attrice Gal Gadot. Naturalmente questo tipo di utilizzo, per quanto innocuo sul piano geopolitico, è già di per sé pericoloso e gravemente lesivo dell'immagine delle persone colpite. Poche settimane fa, lo Stato federato della Virginia ha promulgato una legge che estende gli effetti del revenge porn ai video deepfake. La norma contro i ricatti a sfondo sessuale esisteva già, ma i legislatori si sono resi conto più tardi che risultavano esclusi i contenuti manipolati attraverso l'intelligenza artificiale. Basti pensare che esiste un'app facilmente reperibile, la quale sfruttando le reti neurali permette anche ai profani della materia di incollare il viso di chiunque al corpo di una donna nuda.Facile dunque comprendere perché anche i governi di diversi Paesi siano in prima linea per trovare soluzioni contro questo fenomeno. Paradossalmente, uno dei modi per capire se ci si trova in presenza di un deepfake audio è sfruttare tracce audio finte, dandole in pasto ad altri computer, che a loro volta impareranno a individuare quei dettagli (impercettibili all'orecchio umano) che differenziano la voce vera da quella artificiale. Di recente Google ha messo a disposizione dei ricercatori un vasto database composto dai discorsi delle proprie voci sintetiche. Pindrop, un'azienda americana che realizza sistemi di autenticazione vocale, sta realizzando a sua volta dei sistemi per scovare i deepfake audio. Diverse università, da Stanford alla Carnegie Mellon, sono al lavoro per studiare questa tecnologia. Ma il progetto più importante, anche perché rende l'idea della posta in gioco, è di Darpa, l'agenzia governativa americana che si occupa di studiare e sviluppare nuove tecnologie per l'uso militare. Visti i soggetti in campo, c'è da scommettere che una grossa parte delle future guerre digitali si giocherà proprio su questo campo.