2023-01-20
Intelligenza artificiale e hacker: ecco tutti i rischi e come difendersi
True
Nel riquadro, Alessandro Curioni
La nuova piattaforma di intelligenza artificiale aperta a tutti, ChatGpt, che permette a chiunque di porre domande ottenendo risposte anche complesse, si è trasformata in uno strumento in mano agli hacker.
La nuova piattaforma di intelligenza artificiale aperta a tutti, ChatGpt, che permette a chiunque di porre domande ottenendo risposte anche complesse, si è trasformata in uno strumento in mano agli hacker. A lanciare l’allarme sono stati gli esperti della società di sicurezza informatica Check point research, che hanno scoperto che è stata utilizzataper creare virus e negozi nel Dark web. Una scoperta tanto più inquietante se si pensa che i software malevoli sono stati realizzati anche da pirati informatici con poca esperienza. Come difendersi dunque? La Verità ne ha parlato con Alessandro Curioni, esperto di sicurezza informatica e autore di romanzi (l’ultimo è Certe morti non fanno rumore) ambientati nel mondo degli hacker.Il caso di ChatGpt dimostra che l’intelligenza artificiale è la nuova frontiera degli hacker. Quali sono i rischi maggiori?«Il primo e più banale è un ulteriore abbassamento delle barriere di accesso. Se un’intelligenza artificiale, come sembrano dimostrare fatti recenti, è in grado di fare approfondite ricerche online su un obiettivo, di creare una email fasulla ma perfettamente credibile, di sviluppare un malware tutto nuovo, allora è facile intuire come chiunque con una spesa sostanzialmente risibile possa immaginare di attaccare un’organizzazione. Una seconda categoria di rischi è connessa alla possibilità di alterare il comportamento degli algoritmi manipolando le basi dati sui quali vengono addestrati. Tecnicamente si chiamano “adversarialattack” e portano l’intelligenza artificiale a interpretare male i dati e quindi a sbagliare anche grossolanamente. Questi sistemi sono tanto potenti quanto fragili. Infine, personalmente è quello che maggiormente temo, esse rappresentano un passo in avanti molto lungo e non vorrei che si rivelasse più lungo della nostra gamba. Mi riferisco al rischio che arrivi un momento in cui non riusciremo più a comprendere la tecnologia e di conseguenza non potremo più controllarla. Considerando che si tratterà di un sistema completamente interconnesso, di straordinaria complessità e, come dicevo prima, fragilità, in quel momento non ci confronteremo con i rischi peggiori: quelli che non siamo in grado di vedere. In definitiva è proprio questo il tema del mio ultimo romanzo».Come possono difendersi singoli cittadini e aziende?«In questo momento, rispetto ai rischi delle Ia non ci sono contromisure puntuali, soprattutto per il singolo cittadino. Si tratta di una tecnologia che già ci circonda e spesso in modo non proprio trasparente. La maggior parte degli assistenti virtuali funzionano sulla base di algoritmi più o meno intelligenti e il più delle volte lo notiamo soltanto quando ci fornisce risposte particolarmente stupide. Nel tempo dovremo acquisire l’atteggiamento del consumatore consapevole che si trova di fronte a un prodotto qualsiasi. Di base si tratta di pretendere tutte quelle informazioni che ci possano consentire una scelta ponderata. Un po’ come accade, o dovrebbe accadere, quando facciamo un investimento finanziario. Certo dovremo superare il più grande degli ostacoli: la nostra pigrizia. Le aziende che intendono utilizzare le intelligenze artificiali, come minimo, devono sempre prevedere la possibilità di un tempestivo intervento umano in tutte quelle attività delegate all’algoritmo. Ma siamo soltanto all’inizio».Quali sono oggi, a parte l’Ai, i nuovi rischi ancora sottovalutati?«Istintivamente direi tutti quelli che attengono alle nuove tecnologie. A parte la facile ironia, direi quelli legati alla grande convergenza e alla pervasività del digitale. Da un lato in rete ci sono più oggetti che persone e l’Internet delle cose (piccole e grandi) è una realtà che conta decine di miliardi di oggetti interconnessi tra loro e con i sistemi informatici tradizionali(con il nostro smartphone possiamo gestire lavatrici, forni, termostati e via dicendo). Dall’altro, ormai sempre più attività dipendono in modo sostanziale da sistemi informatici o cyber. Il risultato finale è che quanto accade al di là di un monitor produce sempre più spesso delle conseguenze al di qua. Un esempio evidente lo abbiamo avuto la scorsa settimana, quando un singolo file corrotto ha bloccato un sistema della Federal aviationadministration e ha costretto a terra 11.000 aerei. Se continuiamo a sottovalutare questi avvertimenti finiranno per accadere disastri paragonabili a delle catastrofi naturali. Qualcuno che si occupa di mestiere di gestire rischi, le assicurazioni, lo ha notato, al punto che Mario Greco, amministratore delegato di Zurich insurance, ha dichiarato che il rischio cyber è “inassicurabile”».Come si può impedire agli hacker di usare l’Ai come un’arma?«Allo stato attuale, credo soltanto limitando l’accesso ai servizi offerti dalle intelligenze artificiali e con questo intendo dire selezionare gli accessi con una valutazione preventiva di chi lo richiede. I filtri e i controlli che dovrebbero individuare e prevenire l’utilizzo improprio degli algoritmi non mi sembra siano ancora aggirabili. In ultima analisi, per andare in giro con una pistola ci vuole il porto d’armi. Qualcuno potrebbe discutere se l’intelligenza artificiale lo sia o meno, ma vi posso garantire che, se usata male, potrebbe fare danni infinitamente più grandi della più letale tra le pistole in commercio».
Il Gran Premio d'Italia di Formula 1 a Monza il 3 settembre 1950 (Getty Images)
Elbano De Nuccio, presidente dei commercialisti (Imagoeconomica)
Pier Silvio Berlusconi (Ansa)