2025-09-18
Pene più severe per chi falsifica i video con l’Intelligenza artificiale
Intelligenza artificiale (iStock)
È legge il ddl che istituisce il reato di «illecita diffusione di contenuti generati o manipolati con Ia». Previsti fino a 5 anni di carcere. Critica la Rete per i diritti digitali: «Possibili scenari futuri di iper controllo governativo».Il Garante ha bloccato il riconoscimento facciale allo scalo di Linate, malgrado l’opzione per imbarcarsi velocemente fosse facoltativa. Il sistema era già stato sospeso a Roma.Lo speciale contiene due articoli Con 77 voti favorevoli, 55 contrari e due astenuti, l’Aula del Senato ieri ha approvato in via definitiva il disegno di legge di delega al governo sull’intelligenza artificiale, che è diventato legge. Il testo va a normare «principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli» di Ia e «promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali».La legge capita nel momento in cui la nuova frontiera della truffa online tramite Ia sta colpendo proprio le istituzioni: le identità del premier Giorgia Meloni, del ministro della Difesa Guido Crosetto e del vicepremier Matteo Salvini sono state infatti recentemente trafugate per realizzare video realistici in cui i loro «gemelli digitali», in finte interviste al Tg1 ricostruite attraverso la tecnologia Ia, invitavano a investire in una piattaforma chiamata «Quantum Ai», presentata come sostenuta dal governo, promettendo guadagni fino a 30.000 euro. È per questo che all’interno della legge approvata in via definitiva ieri è prevista l’istituzione di una nuova fattispecie di reato ad hoc, quello di «illecita diffusione di contenuti generati o manipolati con sistemi di Ia», con pene da uno a cinque anni di reclusione «se dal fatto deriva un danno ingiusto», che saranno aumentate di un terzo in caso di utilizzo di sistemi di Ai per sostituzione di persona, truffa, riciclaggio, autoriciclaggio e aggiotaggio. In ambito civile e amministrativo, il ministero della Giustizia riceverà una delega per predisporre strumenti cautelari che consentiranno di bloccare e rimuovere contenuti generati in modo illecito. Sebbene nel nostro ordinamento ci fossero già norme a protezione di questo tipo di reato, non esisteva però la fattispecie della manipolazione tecnologica. Ci sono voluti tre passaggi parlamentari e un più di un anno di tempo per far passare il disegno di legge approvato dal Consiglio dei ministri nell’aprile 2024, che fa dell’Italia il primo paese al mondo a disciplinare in modo organico l’intelligenza artificiale. Il testo consta di 28 articoli (ieri in Aula tutte le proposte di modifica sono state respinte) ed è stato concepito per consentire all’Italia di mettersi al passo con la legislazione europea («Ai Act») per tutelare i cittadini e garantire la competitività delle imprese. L’impegno economico è ingente: 1 miliardo di euro stanziato dal governo tramite il Fondo di sostegno al venture capital gestito da Cdp Venture Capital, destinato a Pmi e grandi imprese attive in Ai, cybersicurezza, tecnologie quantistiche e telecomunicazioni. Nella sanità, l’intelligenza artificiale sarà utilizzata come supporto per diagnosi e cure, mentre per quanto riguarda l’impiego sarà istituito un Osservatorio nazionale che avrà la responsabilità del monitoraggio. Committenti e datori di lavoro avranno l’obbligo di avvisare i dipendenti quando verrà usata l’Ia. Non solo: l’uso dell’Intelligenza artificiale non sarà consentito ai minori di 14 anni, a meno che non ci sia il consenso dei genitori. Infine, per quanto riguarda il diritto d’autore, le opere realizzate tramite Ia saranno protette soltanto se ci sarà un apporto creativo umano; l’uso di contenuti protetti sarà consentito solamente in assenza di copyright o per fini di ricerca scientifica e culturale.Le autorità di riferimento cui è stata affidata la governance sono due: l’AgID (Agenzia per l’Italia Digitale, sottoposta ai poteri di indirizzo e vigilanza del premier e diretta da Mario Nobile) e l’Acn (Agenzia per la cybersicurezza nazionale, diretta da Bruno Frattasi e anch’essa alle dipendenze della presidenza del Consiglio). La prima avrà la competenza di definire gli organi certificati, alla seconda è stato affidato il controllo sul mercato dei prodotti. La scelta del governo di affidare l’enorme tema dell’Intelligenza artificiale e della sua governance a organi di governo, nominati dal governo e che rispondono al governo anziché ad autorità indipendenti (come ad esempio l’Autorità Garante della Privacy, che si occupa del tema da anni), ha fatto storcere il naso alle opposizioni, verosimilmente con il solo obiettivo di mettere in difficoltà l’esecutivo. Secondo la rete per i Diritti Umani Digitali, inoltre, «non sono stati previsti meccanismi di difesa dagli errori dei sistemi di Ia. Cosa aspettarsi dal futuro? Tentativi sempre più pressanti di implementare la sorveglianza biometrica e possibili abusi delle tecnologie Ia per controllare la vita pubblica dei cittadini». È in effetti il metodo che fa riflettere: l'Intelligenza artificiale tocca tutti i settori dell’ordinamento e soprattutto i diritti alle libertà individuali. Lavoro, studio, università, istruzione, salute, fisco, sussidi sociali: tutto sarà deciso attraverso algoritmi dell’Intelligenza artificiale, da chi può accedere a un mutuo a chi può ottenere l’erogazione di un sussidio, fino a chi deve essere sottoposto a indagine fiscale per evasione. Molto bene che oggi sia un esecutivo di stampo liberale ad assumersene la delicata governance; in una prospettiva di Paese, resta tuttavia l’incognita che un futuro esecutivo di diversa tendenza politica, magari meno liberale dell’attuale, si trovi tra le mani questo enorme potere e possa non usarlo correttamente o addirittura lo rivolga contro i cittadini.<div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/pene-severe-falsificazione-video-ia-2674005731.html?rebelltitem=1#rebelltitem1" data-basename="aeroporti-stop-a-verifica-biometrica" data-post-id="2674005731" data-published-at="1758191875" data-use-pagination="False"> Aeroporti, stop a verifica biometrica Limiti alla libertà di scegliere nel rispetto (forse) della privacy. Sembra un assurdo paradosso, eppure si può tradurre così la decisione del Garante della privacy che ha disposto lo stop del FaceBoarding all’aeroporto di Linate, ovvero il sistema di riconoscimento facciale su base volontaria che ha consentito di accedere ai controlli rapidamente e in sicurezza. Per comprendere la stranezza del blocco stabilito dall’Authority bisogna precisare come funziona il sistema di riconoscimento facciale e anche ribadire che si tratta di una modalità utilizzata solo dai passeggeri che lo desiderano.Nonostante l’adesione al sistema fosse, appunto, volontaria, il Garante per la privacy ha inteso bocciare questo sistema «costringendo» la Sea, la società che gestisce lo scalo di Linate e pure quello di Malpensa, a bloccare questa modalità di imbarco messa in pratica per la prima volta in Italia nell’aeroporto di Linate. Per settimane, i passeggeri hanno deciso liberamente e autonomamente di usare il FaceBoarding per evitare file chilometriche e in molti casi anche per non perdere l’aereo. Ma, adesso, per decisione dell’Authority tutto ciò non sarà più possibile. Quello che risulta veramente incomprensibile ai passeggeri è proprio la scelta di bloccare un servizio che era ed è - è necessario ribadirlo - su base volontaria. Tradotto in soldoni: era ogni singolo passeggero a decidere di avere meno privacy pur di non fare file chilometriche e non rischiare di perdere l’aereo. Il Garante ha stabilito, attraverso una «limitazione provvisoria», che non è possibile decidere autonomamente se farsi fotografare per effettuare i controlli velocemente. Si è «costretti» a mettersi in fila. Senza se e senza ma. L’Authority aveva già bloccato il riconoscimento facciale sulla base dei dati biometrici perl’aeroporto romano di Fiumicino.Il FaceBoarding a Linate era stato accolto con entusiasmo, soprattutto dalla giunta Sala. Una difesa della privacy a giorni alterni o a zone alterne. Ma dopo che i passeggeri milanesi si sono abituati al controllo facciale e lo hanno scelto liberamente, ora devono dimenticare questo sistema, presentato come innovativo e unico, per «cedere» alla dura legge della privacy.Adesso il blocco del FaceBoarding è stato disposto per il tempo necessario a consentire «all’Autorità il completamento dell’istruttoria avviata nei confronti della Società» e ha effetto immediato. A partire da oggi nessuna fotografia e tutti in fila. Sea ha preso atto dello stop forzato e imposto dal Garante ma «sta collaborando attivamente con l’Autorità per chiarire tutti gli aspetti relativi al trattamento dei dati e per ottemperare alle richieste pervenute». La società, attraverso una nota, ha voluto precisare che «l’obiettivo primario rimane quello di garantire la sicurezza e la privacy dei passeggeri, in linea con le normative vigenti. Sea auspica che la situazione si risolva quanto prima e di ripristinare il servizio FaceBoarding a beneficio di tutti i passeggeri». La società che gestisce lo scalo, già nell’immediatezza dell’introduzione del servizio, aveva spiegato che il FaceBoarding era finalizzato a «rafforzare la sicurezza negli aeroporti con un sistema che, rispettoso di tutte le norme in materia di privacy». Il servizio era, infatti, disponibile solo per i maggiorenni che lo richiedevano e che liberamente si registravano al servizio.
Luciana Littizzetto (Getty Images)
Hartmut Rosa (Getty Images)
Luca Palamara (Getty Images)