2019-07-26
Perfino un antivirus diventa un’arma nell’epoca della guerra tecnologica
Così molti software e app di ultima generazione si trasformano facilmente da strumenti di difesa in devastanti mezzi di attacco. I governi lo hanno capito e prendono le contromisure. Fin dai tempi del caso Phil Zimmermann.Immagino pochissimi abbiano memoria di un celebre caso che risale al 1993, anno in cui un certo Phil Zimmermann venne incriminato con l'accusa di «esportazione di armi senza licenza». La colpa dell'esperto di crittografia americano era quella di avere sviluppato Pgp, un software diventato poi open source, che rendeva disponibile ai privati un sistema di cifratura secondo molti di livello militare. Questo per evitare che occhi indiscreti sbirciassero le comunicazioni via Internet. Tanto bastò perché il governo degli Stati Uniti tentasse di bloccarne la diffusione fuori dal Paese, appellandosi a un regolamento che affermava come i sistemi crittografici di tale robustezza fossero a tutti gli effetti delle munizioni. Dopo tre anni di battaglia legale la causa si risolse con il proscioglimento del ricercatore non senza che alcuni maligni sostenessero come l'assoluzione fosse in realtà il segnale dell'avvenuta violazione della crittografia di Pgp da parte delle agenzie governative. Sono passati più di venti anni dalla conclusione della vicenda, ma quella contesa legale può essere considerata profetica perché oggi esistono un'infinità di strumenti informatici che sono in modo unanime considerati a tutti gli effetti delle armi. In alcuni casi si tratta di software che finiscono per trovarsi in una zona grigia sospesi tra i mezzi di attacco e di difesa, in bilico tra spionaggio e controspionaggio. Per anni si è discusso su come molti prodotti, spesso open source, avessero questa doppia natura, e in effetti un analizzatore di traffico di rete può essere utilizzato sia per valutare il corretto funzionamento di una rete sia per intercettare dati. Allo stesso modo strumenti usati per le rilevazioni delle vulnerabilità e degli errori nei sistemi sono utili per correggerle, ma anche per scoprirle e quindi sfruttarle per un attacco. In altri casi sono di fatto armamenti la cui unica finalità è colpire un sistema avversario. Da tempo i governi hanno iniziato a considerare i malware armi e quindi sono impegnati nella loro produzione. Gli ultimi tre anni hanno visto all'opera parte degli arsenali di alcuni Paesi, per esempio quello degli Stati Uniti che, vittime di un furto di tecnologia, si sono accorti che altri attori utilizzavano alcune delle loro armi come nel caso di WannaCry, il ransomware che nel 2017 mise in ginocchio l'apparato sanitario inglese e migliaia di altri sistemi in tutto il mondo. La conseguenza dell'ingresso degli Stati nell'arena degli scontri informatici ha creato dei paradossi per cui anche gli antivirus sono diventati un potenziale rischio per la sicurezza nazionale. In effetti un software capace di individuare codici potenzialmente nocivi e quindi di trasferirli presso una terza parte per analisi di dettaglio è l'ultima cosa che uno Stato vorrebbe tra i piedi, soprattutto se il terzo destinatario è straniero. A questo proposito basta ricordare come, alla fine del 2017, il presidente Donald Trump abbia messo al bando per decreto l'antivirus della russa Kaspersky da tutte le agenzie federali degli Stati Uniti. Il futuro peraltro si presenta ancora più complesso e forse oscuro. Ci sono alcune tecnologie che da un momento all'altro potrebbero essere considerate armi oppure diventare talmente pervasive da condizionare i destini delle nazioni e a quel punto diventare oggetto di regolamentazioni e restrizioni. Facilmente possiamo prevedere che in un prossimo futuro, complice la pervasività dell'Iot (acronimo dell'inglese Internet of things, l'Internet delle cose), con i suoi oggetti smart e delle tecnologie correlate e ancora di più l'universo degli algoritmi intelligenti e delle cosiddette Intelligenze artificiali «deboli» (estremamente abili in un compito specifico, ma ben lontane da simulare un cervello umano). Sono già stati ampiamente testati gli algoritmi stilometrici capaci di riconoscere se lo stile di scrittura di un mittente è congruo rispetto a tutti i suoi messaggi passati e quindi segnalare al destinatario eventuali anomalie che lo inducano a evitare di essere ingannato, per esempio attraverso mail di phishing. Il rovescio della medaglia si intuisce facilmente: se un algoritmo è capace di riconoscere un falso messaggio, di certo sarà in grado di crearlo con tale perizia da farlo risultare assolutamente credibile. Non diversamente potrebbe essere utilizzata la tecnologia dietro Faceapp, l'applicazione che sta spopolando su social di mezzo mondo mostrandoci come saremo da vecchi. Milioni di persone stanno di fatto «addestrando inconsapevolmente» un'intelligenza artificiale debole a creare volti finti sempre più credibili. Non ci vuole molto a immaginare cosa potrebbe fare un'arma in grado di simulare con assoluta perfezione la faccia di chiunque. In tutto il mondo gli Stati si troveranno alle prese con rilevanti questioni di sicurezza nazionale legate allo spazio cibernetico e le scelte finiranno per influenzare un mercato che viaggia veloce, ma rischia di dovere affrontare una strada più impervia e di certo più pericolosa di quanto ci vogliono fare credere e sia possibile prevedere.
Jose Mourinho (Getty Images)