2024-04-26
«Più prudenza sui reati con la Ia»
Pierguido Iezzi (Imagoeconomica)
Per l’esperto di cybersecurity Pierguido Iezzi sarà difficile distinguere tra intenzione criminale e errore umano. «Facciamo in modo che le pmi ne traggano vantaggio». Il governo mette mano al tema dell’intelligenza artificiale, introducendo nuove pene fino a 5 anni di reclusione per la diffusione di contenuti illeciti. «È sicuramente un passo avanti cruciale per il nostro Paese», commenta Pierguido Iezzi, Strategic Business Development Director di Tinexta Cyber. «Questo però non toglie che alcuni punti della normativa, legati a questa tecnologia emergente, suscitano alcuni interrogativi che andranno molto probabilmente sciolti». D’altronde il disegno di legge - come suggerisce Iezzi -ambisce a creare un quadro normativo che armonizzi i principi dell’Ai Act europeo con le esigenze specifiche del contesto italiano. Funziona come un ponte per trasformare concetti generali in azioni concrete applicabili a livello nazionale, orientando così lo sviluppo delle applicazioni di Ia in Italia. In questo contesto, la tecnologia viene considerata un elemento chiave nell’era della sovranità digitale nazionale, spesso influenzata da dinamiche internazionali. «Un passaggio cruciale questo - come spiegato anche dal ministro delle Imprese e del Made in Italy Adolfo Urso - che affronta anche il tema dell’impatto dell’Ia nel mondo delle imprese soprattutto tenendo conto che il nostro Paese fa affidamento su oltre 4 milioni di pmi come ossatura economica. E queste devono essere messe nelle condizioni di trarre massimo vantaggio da questa tecnologia», prosegue Iezzi. Gli investimenti previsti dal disegno di legge appaiono promettenti per il progresso tecnologico del Paese, prosegue Iezzi, «purché siano direzionati efficacemente verso i settori più promettenti per lo sviluppo competitivo». A destare qualche dubbio è semmai proprio la disposizione di pene detentive per chi usa l’intelligenza artificiale. «Questa disposizione solleva questioni complesse legate alla responsabilità legale: come determinare se un uso inappropriato dell’Ia è frutto di una vera intenzione criminale o di un errore umano?»si chiede Iezzi. «Come si attribuisce la responsabilità quando i sistemi di Ia operano in autonomia o sono il risultato di un addestramento con dati provenienti da molteplici fonti? Questo rimanda direttamente al concetto della presunta innocenza dell’Ia. Certamente una sfida nel contesto legale ed etico, poiché attualmente l’Ia non può essere considerata un soggetto giuridico e quindi non può essere responsabile delle sue azioni. Questo complica notevolmente anche il tracciamento delle operazioni e la definizione della difesa per individui o aziende coinvolte. Le regole di presidio umano e i sistemi di log collection diventano quindi essenziali per l’esonero dalle responsabilità».Non solo. Ulteriori possibili problematiche includono la trasparenza e la tracciabilità dei processi decisionali degli algoritmi di apprendimento profondo, spesso percepiti come scatole nere. «La necessità di una sorveglianza continua per prevenire abusi e le sfide poste dalla rapida diffusione delle capacità decisionali dell’Ia possono amplificare i danni in caso di uso illecito. A ciò si aggiungono le complicazioni derivanti dalle diverse regolamentazioni legali e culturali a livello internazionale, che possono ostacolare l’applicazione uniforme delle norme», continua l’esperto.Mentre il disegno di legge fornisce una struttura promettente per la gestione dell’Ia, per lo Strategic Business Director di Tinexta Cyber «è cruciale sviluppare una governance efficace e sostenibile che includa controlli tecnologici e normativi adeguati». Con un quadro di governance robusto e una tecnologia di monitoraggio e presidio, secondo Iezzi, sarà possibile garantire che l’intelligenza artificiale sia utilizzata in modo etico e responsabile, senza soffocare l’innovazione o compromettere la privacy e i diritti civili. «Sebbene l’Ia abbia raggiunto livelli sorprendenti di capacità analitiche e predittive, l’input umano continua ad essere fondamentale per avviare la sua attività e guidarla verso risultati significativi. Questa sinergia tra l’uomo e l’Ia può portare a soluzioni più efficaci e innovative, mantenendo allo stesso tempo il controllo e la responsabilità umani» conclude Iezzi.