2025-04-02
«La 'Ndrangheta sfrutta l'intelligenza artificiale per il cybercrime»
True
Durante il convegno all'Università della Calabria organizzato dalla Guardia di Finanza è stato sottolineato il rischio dell'utilizzo dell'IA e come le forze dell'ordine possono sfruttarla per contrastare la criminalità organizzata. Per Andrea De Gennaro, Comandante Generale della Guardia di Finanza «l'intervento umano resta fondamentale per validare le decisioni e garantire la giustizia».L'intelligenza artificiale (IA) rappresenta una delle innovazioni più promettenti del nostro tempo, capace di rivoluzionare una vasta gamma di settori, dalla sanità alla pubblica amministrazione, dalla sicurezza alle forze dell'ordine. Tuttavia, se da un lato l'IA offre enormi potenzialità, dall'altro comporta rischi significativi che necessitano di un'attenta gestione e regolamentazione. Solo attraverso una preparazione adeguata, una solida formazione tecnica e una regolamentazione rigorosa sarà possibile utilizzare l'IA in modo responsabile, minimizzando i pericoli legati al suo impiego. Questo è stato il filo conduttore del convegno recentemente organizzato all'Università della Calabria, organizzata all’Unical dalla Guardia di Finanza e dedicato all'intelligenza artificiale e alla cybersicurezza, che ha visto il coinvolgimento di esperti, istituzioni e professionisti del settoreLa discussione ha toccato temi cruciali come l'adozione dell'IA nelle forze dell'ordine, come il contrasto alla criminalità organizzata o anche la gestione dei rischi in ambito pubblico e le problematiche relative alla sicurezza cibernetica.Il Procuratore Generale della procura di Catanzaro Giuseppe Lucantonio, aprendo il convegno, ha sottolineato come l'intelligenza artificiale possa avere due volti. «Da un lato, offre strumenti innovativi per combattere la criminalità, dall'altro, le organizzazioni criminali potrebbero usarla per minare la stabilità economica e sociale». Secondo Lucantonio, l'uso dell'IA da parte delle organizzazioni criminali potrebbe essere una minaccia crescente, poiché la tecnologia consente di operare con maggiore efficacia e invisibilità. La creazione di una rete solida di cybersicurezza è quindi essenziale per proteggere le istituzioni e la società civile.Il Generale Andrea De Gennaro, Comandante Generale della Guardia di Finanza, ha insistito invece sui vincoli legali e normativi sull'impiego dell'IA nelle forze di polizia, evidenziando la «necessità di mantenere un controllo umano nelle decisioni cruciali, per garantire trasparenza e responsabilità». Pur riconoscendo che l'IA può migliorare l'efficienza operativa e ridurre i margini di errore, De Gennaro ha sottolineato «come l'intervento umano sia fondamentale per validare le decisioni e garantire la giustizia».In questa chiave, Giovanni Bombardieri, Procuratore della Repubblica di Torino, ha analizzato l'uso dell'IA da parte delle forze di polizia nella lotta al crimine. Mentre le organizzazioni criminali, come la 'ndrangheta, utilizzano l'IA per attività illecite come il cybercrime, le forze dell'ordine la impiegano per contrastare queste minacce. Bombardieri ha evidenziato come la predizione degli attacchi e l'analisi comportamentale siano strumenti fondamentali per combattere la criminalità organizzata. E come ha ricordato il sottosegretario al ministero dell’Interno Wanda Ferro, «l'uso dell'IA nelle forze di polizia per analizzare grandi volumi di dati provenienti da social media e videosorveglianza migliora la gestione della sicurezza, ma comporta anche pericoli legati agli attacchi cibernetici e all'uso illecito della tecnologia, come i deep fake e gli attacchi ransomware». Proprio su questo aspetto Il professore George Gotlob, ordinario di informatica, ha messo in evidenza i rischi legati alla mancanza di trasparenza dei sistemi di IA, facendo riferimento a un episodio personale in cui un sistema di machine learning aveva determinato in modo opaco il suo limite di credito. Gotlob ha sottolineato che uno dei principali problemi dell'IA è la sua opacità: spesso non è chiaro come vengano prese le decisioni, un aspetto che può portare a ingiustizie o a discriminazioni, come nel caso di errori nei dati che portano a valutazioni errate.L'IA, pur essendo estremamente potente, manca di «senso comune», un aspetto che può generare risultati disastrosi, come nel caso di un errore che associa il profilo di una persona a un inquilino precedente con un passato finanziario problematico. Questo ha messo in evidenza l'importanza di integrare regole etiche e un controllo umano nei sistemi di IA, per evitare ingiustizie e discriminazioni.A tal proposito, il professor Antonio Greco ha sottolineato l'urgenza di formare tecnici e specialisti non solo nella gestione tecnica dei sistemi di IA, ma anche nella consapevolezza etica, affinché siano in grado di affrontare i rischi legati a queste tecnologie. Una formazione adeguata è fondamentale per garantire che i sistemi di IA siano progettati e utilizzati in modo sicuro e responsabile.Roberto Chiuto, Presidente della Regione Calabria, ha parlato dell'applicazione dell'intelligenza artificiale in vari settori ricordando l'uso di modelli predittivi per individuare in tempo reale le aree a rischio incendio, migliorando così la sicurezza e l'efficienza. Inoltre, l'IA sta già giocando un ruolo importante nella gestione dei bandi di gara e nella riduzione della burocrazia, aumentando la trasparenza nei processi decisionali della pubblica amministrazione.Tuttavia, sebbene l'IA offra opportunità concrete di miglioramento, anche in ambito pubblico, i rischi legati alla privacy e alla gestione dei dati non sono da dimenticare.
Sehrii Kuznietsov (Getty Images)