2023-04-15
L’Ue segue l’Italia sull’Ai. E gli Usa si accorgono dei rischi per gli studenti
Dopo la stretta del Garante, Bruxelles crea una task force su ChatGpt. La Casa Bianca avvia audizioni sull’impatto dell’intelligenza artificiale su istruzione e sicurezza.OpenAi, ovvero la società che sviluppa il sistema di intelligenza artificiale ChatGpt, ha tempo fino al prossimo 30 aprile per adempiere alle prescrizioni imposte dal Garante italiano quattro giorni fa. Solo allora, l’autorità sospenderà il provvedimento di limitazione provvisoria del trattamento dei dati degli utenti italiani preso a fine marzo nei confronti della società statunitense e ChatGpt potrà tornare accessibile dall’Italia. Un compromesso, avevamo sottolineato nei giorni scorsi, che serve a responsabilizzare il titolare di un trattamento dati così massivo ma che alla fine fa tutti contenti: il Garante che potrà dire «avevamo ragione», e OpenAi che - di fronte a prescrizioni non difficili da realizzare tecnicamente - avrà la certificazione rispetta le regole. Detto questo, però, la mossa del Garante italiano ha ottenuto un risultato forse più importante: smuovere le acque diventate paludose in attesa del varo del cosiddetto Ai act europeo ancora in cantiere. A seguito della decisione dell’Italia, l’Edpb (il consesso Ue che riunisce i presidenti delle autorità privacy dei Paesi dell’Unione) ha creato una task force europea per promuovere lo scambio di informazioni e allineare la politica di ChatGpt in tutta Europa. La scelta del Garante italiano ha attirato l’attenzione anche della stampa americana e animato il dibattito negli Usa sulla necessità di definire delle norme chiare ai limiti di queste nuove tecnologie senza penalizzare in modo distruttivo l’evoluzione tecnologica ed economica. Uno dei punti centrali della questione è proprio la tutela dei dati personali che sono oggi la materia prima più richiesta nei servizi digitali. L’amministrazione guidata da Joe Biden ha avviato audizioni pubbliche su quali misure di regolamentazione adottare nei confronti di sistemi di intelligenza artificiale, in merito a responsabilità giuridica, sicurezza nazionale e anche sul potenziale impatto sul sistema educativo del Paese. Già all’inizio di aprile, il presidente Biden aveva discusso dei rischi e delle opportunità che l’intelligenza artificiale rappresenta per le persone, la società e la sicurezza nazionale durante un incontro con i consulenti scientifici e tecnologici alla Casa Bianca. L’intenzione è quella di chiedere al Congresso di approvare una legislazione bipartisan sulla privacy mentre negli Stati Uniti OpenAi dovrà intanto affrontare una denuncia rivolta alla Federal trade commission: è stata sporta dalla società di ricerca senza scopo di lucro Center for Ai and digital policy e chiede all’agenzia americana di far sospendere alla società l’implementazione commerciale di modelli linguistici di grandi dimensioni come ChatGpt. L’associazione definisce Gpt-4, l’ultima versione del software, «di parte, ingannevole e con un rischio per la privacy e la sicurezza pubblica». Nel frattempo, anche il colosso Amazon ha annunciato la creazione di una piattaforma di intelligenza artificiale chiamata Bedrock. Mentre Michael Weening, l’ad di Calix - uno dei maggiori fornitori di apparecchiature ottiche del mercato delle telecomunicazioni - ieri su Linkedin ha comunicato che la società sta vietando ChatGpt in tutte le sue operazioni ma che comunque prevede di utilizzare Microsoft copilot (un prodotto basato su modelli di linguaggio Llm in stile ChatGpt) non appena sarà disponibile.Ma torniamo in Europa. Dove le azioni dell’autorità italiana per la protezione dei dati sono state viste da alcuni come un «caso di prova» che potrebbe essere seguito da altri regolatori. Il governo tedesco ha già affermato che «in linea di principio, un’azione del genere è possibile anche in Germania». I garanti della privacy in Francia e Irlanda hanno subito contattato l’omologo italiano mentre il Canada ha fatto di più: ha aperto un’indagine su OpenAi simile a quella avviata dalla nostra Autorità. L’istruttoria dell’Office of the privacy commissioner di Ottawa si concentrerà su come le informazioni personali vengono raccolte, usate e divulgate senza consenso. Negli ultimi giorni si sono, inoltre, mosse l’Autorità federale svizzera sulla protezione dei dati e l’Agencia española de protección de datos (Aepd) che ha fatto partire un’indagine sulle possibili violazioni della privacy senza però chiedere alla società un’ordine di sospensione dell’elaborazione dei dati personali. Il cuore della questione, come per il garante italiano, riguarda la conservazione e il trattamento dei dati personali. Anche in questo caso, se ritenuta colpevole, OpenAi potrebbe affrontare multe significative e dovrà adottare misure correttive per proteggere i dati personali degli utenti.Intanto, ieri in Italia il presidente di Agcom, Giacomo Lasorella, ha sottolineato che le tante applicazioni di intelligenza artificiale, come ChatGpt, devono essere normate a livello europeo, in collaborazione con i regolatori nazionali, e occorre passare da regolamentazioni fissate dall’alto a regolamenti costruiti in modo cooperativo da autorità insieme con attori economici.