Lo ha detto il vicepresidente esecutivo della Commissione europea per la Coesione e le Riforme Raffaele Fitto, a margine della conferenza stampa sul Transport Package, riguardo al piano di rinnovamento dei collegamenti ad alta velocità nell'Unione Europea.
Euro digitale (iStock)
L’Eurogruppo approva il progetto sul quale lavora pure la Bce. L’obiettivo è gestire l’aumento di pagamenti immateriali. I rischi: controlli, stop privacy e meno libertà di spesa. E se salta Internet possiamo usare i soldi?
L’Eurogruppo tenutosi ieri, in trasferta a Copenaghen in omaggio alla Presidenza di turno danese del Consiglio, ha aggiunto un ulteriore tassello sulla strada dell’adozione dell’euro digitale. Un progetto di cui questo organo informale, che riunisce i ministri dell’economia e delle finanze dei Paesi membri dell’eurozona, si sta occupando dal 2022. Da allora, un lavoro a sei mani con la Commissione e la Bce ha portato il processo molto avanti, ma non ancora vicino al termine.
Prima di esaminare lo stato dell’arte del progetto, chiariamo subito di cosa stiamo parlando: si tratta dell’equivalente - in formato digitale - delle banconote e delle monete che siamo abituati a scambiare quotidianamente. Quindi è una moneta pubblica, emessa e gestita dalla Bce, con identiche caratteristiche di tipo legale. Cioè è moneta ufficiale di conto che possiede, essa soltanto, la qualità di mezzo di pagamento, legalmente riconosciuto, con immediata efficacia liberatoria.
Cosa ben diversa dalla moneta cosiddetta «privata o bancaria», che pure siamo abituati a usare. Infatti un bonifico, una transazione con carta di credito, sono anch’essi dematerializzati, utilizzano un’infrastruttura digitale, e sono comunemente accettati come mezzo di pagamento liberatorio. Ma fanno comunque leva su una disponibilità di fondi bancari o sulla liquidità o solvibilità dell’intermediario bancario che gestisce la transazione. Questo tipo di moneta bancaria non è emessa direttamente, ma solo controllata dalla Bce, per mezzo del suo potere regolatorio della liquidità del sistema, della stabilità finanziaria e dei bilanci delle banche e altri intermediari.
È stato lo stesso Eurogruppo nel gennaio 2023 a fissare le linee guida per la fase di preparazione e sperimentazione, specificando che l’euro digitale dovrebbe essere: «complementare e non sostituire il contante; sicuro, resiliente, facile da usare e accessibile». Inoltre, dovrebbe: «garantire un alto livello di privacy, pur rispettando altri obiettivi di politica pubblica, come la prevenzione del finanziamento illecito o del riciclaggio di denaro; includere una funzionalità offline, contribuendo così all'inclusione finanziaria; salvaguardare la stabilità finanziaria dell’area dell’euro; promuovere l’innovazione, senza essere una moneta programmabile; essere interoperabile con altre valute digitali delle banche centrali».
La ratio sottostante parte dalla premessa della crescita significativa delle transazioni senza utilizzo del contante, con la quota dei pagamenti digitali vicina al 40% e raddoppiata dal 2016 al 2022. Visto tale trend, in Bce sostengono che chi emette l’unico mezzo di pagamento avente valore legale, deve emetterlo anche in formato digitale, aumentando così il controllo del sistema finanziario. E qui si apre il vaso di Pandora delle conseguenze.
In primis gli aspetti tecnici. Infatti sarà comunque necessario radicare il proprio portafoglio elettronico presso un intermediario bancario che, non si capisce bene come, sarà disponibile anche off-line. In ogni caso, rispetto all’uso della banconota «fisica», saremo sempre intermediati da una infrastruttura tecnologica e da un altro soggetto, seppure con ruolo diverso dall’attuale banca che detiene il nostro deposito. Il controllo sarà in «re ipsa» con tutte le potenziali implicazioni: dal «rating« sociale ad «altri obiettivi di politica pubblica».
Anche prendendo per buoni tutti i propositi in tema di privacy e di coesistenza col contante «fisico», è di tutta evidenza, che solo per questo fatto, l’euro digitale ci priverà della fondamentale libertà che fino ad oggi è implicita nel banale gesto di porgere una banconota. Per non parlare dei rischi di un blackout o simili inconvenienti non certo impensabili.
Ma ormai il treno è ben lanciato. Infatti, dopo una fase di indagine durata circa 24 mesi, e conclusasi nell’ottobre 2023, il 18 ottobre di quell’anno, il Consiglio direttivo della Bce ha deciso di passare alla fase di preparazione e sperimentazione dell’euro digitale. Questa fase, che potrebbe durare circa tre anni, sarà quella che getterà le basi su cui eseguire il lancio del nuovo strumento. Ovviamente la Bce passerà alla fase esecutiva solo dopo che il Consiglio e il Parlamento avranno adottato il quadro legislativo che fornirà la necessaria legittimazione.
Nonostante da Bruxelles si siano affrettati a precisare che nulla è ancora deciso, resta da capire quale spazio di azione avranno queste due istituzioni europee dopo circa sei anni di lavori preparatori, sia sul versante tecnico che legale, per mettersi di traverso. Sembra la solita tattica della rana bollita: lasciarla cuocere a fuoco lento, fino a cottura ultimata.
Sul progetto è al lavoro da tempo anche la Commissione. Infatti è del giugno 2023 la predisposizione di un pacchetto di proposte legislative complementari che, al momento opportuno, saranno portate all’esame dei co-legislatori Consiglio e Europarlamento.
Nel frattempo tocca all’Eurogruppo - questo ambiguo organismo informale che ultimamente fatica a trovare una ragion d’essere, essendo praticamente un doppione del Consiglio Ecofin senza i ministri dei Paesi che non adottano l’euro – continuare nel processo di definizione delle linee guida che progressivamente la Bce e la Commissione incorporano nel loro lavoro preparatorio.
Ieri c’è stato l’accordo (per quel che può valere, non essendoci un verbale) sul quadro di governance relativo all’emissione dell’euro digitale e sulla definizione di un limite di detenzione. Sono state tracciate le linee guida di un’attività che ora proseguirà tra i ministri nel formato Ecofin che ora lavorerà proprio sul processo di emissione dell’euro digitale. Avanti così, fino a quando ci diranno che sarà troppo tardi per tornare indietro.
Continua a leggereRiduci
Intelligenza artificiale (iStock)
- È legge il ddl che istituisce il reato di «illecita diffusione di contenuti generati o manipolati con Ia». Previsti fino a 5 anni di carcere. Critica la Rete per i diritti digitali: «Possibili scenari futuri di iper controllo governativo».
- Il Garante ha bloccato il riconoscimento facciale allo scalo di Linate, malgrado l’opzione per imbarcarsi velocemente fosse facoltativa. Il sistema era già stato sospeso a Roma.
Lo speciale contiene due articoli
Con 77 voti favorevoli, 55 contrari e due astenuti, l’Aula del Senato ieri ha approvato in via definitiva il disegno di legge di delega al governo sull’intelligenza artificiale, che è diventato legge. Il testo va a normare «principi in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli» di Ia e «promuove un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica, dell’intelligenza artificiale, volto a coglierne le opportunità. Garantisce la vigilanza sui rischi economici e sociali e sull’impatto sui diritti fondamentali».
La legge capita nel momento in cui la nuova frontiera della truffa online tramite Ia sta colpendo proprio le istituzioni: le identità del premier Giorgia Meloni, del ministro della Difesa Guido Crosetto e del vicepremier Matteo Salvini sono state infatti recentemente trafugate per realizzare video realistici in cui i loro «gemelli digitali», in finte interviste al Tg1 ricostruite attraverso la tecnologia Ia, invitavano a investire in una piattaforma chiamata «Quantum Ai», presentata come sostenuta dal governo, promettendo guadagni fino a 30.000 euro. È per questo che all’interno della legge approvata in via definitiva ieri è prevista l’istituzione di una nuova fattispecie di reato ad hoc, quello di «illecita diffusione di contenuti generati o manipolati con sistemi di Ia», con pene da uno a cinque anni di reclusione «se dal fatto deriva un danno ingiusto», che saranno aumentate di un terzo in caso di utilizzo di sistemi di Ai per sostituzione di persona, truffa, riciclaggio, autoriciclaggio e aggiotaggio. In ambito civile e amministrativo, il ministero della Giustizia riceverà una delega per predisporre strumenti cautelari che consentiranno di bloccare e rimuovere contenuti generati in modo illecito. Sebbene nel nostro ordinamento ci fossero già norme a protezione di questo tipo di reato, non esisteva però la fattispecie della manipolazione tecnologica.
Ci sono voluti tre passaggi parlamentari e un più di un anno di tempo per far passare il disegno di legge approvato dal Consiglio dei ministri nell’aprile 2024, che fa dell’Italia il primo paese al mondo a disciplinare in modo organico l’intelligenza artificiale. Il testo consta di 28 articoli (ieri in Aula tutte le proposte di modifica sono state respinte) ed è stato concepito per consentire all’Italia di mettersi al passo con la legislazione europea («Ai Act») per tutelare i cittadini e garantire la competitività delle imprese.
L’impegno economico è ingente: 1 miliardo di euro stanziato dal governo tramite il Fondo di sostegno al venture capital gestito da Cdp Venture Capital, destinato a Pmi e grandi imprese attive in Ai, cybersicurezza, tecnologie quantistiche e telecomunicazioni. Nella sanità, l’intelligenza artificiale sarà utilizzata come supporto per diagnosi e cure, mentre per quanto riguarda l’impiego sarà istituito un Osservatorio nazionale che avrà la responsabilità del monitoraggio. Committenti e datori di lavoro avranno l’obbligo di avvisare i dipendenti quando verrà usata l’Ia. Non solo: l’uso dell’Intelligenza artificiale non sarà consentito ai minori di 14 anni, a meno che non ci sia il consenso dei genitori. Infine, per quanto riguarda il diritto d’autore, le opere realizzate tramite Ia saranno protette soltanto se ci sarà un apporto creativo umano; l’uso di contenuti protetti sarà consentito solamente in assenza di copyright o per fini di ricerca scientifica e culturale.
Le autorità di riferimento cui è stata affidata la governance sono due: l’AgID (Agenzia per l’Italia Digitale, sottoposta ai poteri di indirizzo e vigilanza del premier e diretta da Mario Nobile) e l’Acn (Agenzia per la cybersicurezza nazionale, diretta da Bruno Frattasi e anch’essa alle dipendenze della presidenza del Consiglio). La prima avrà la competenza di definire gli organi certificati, alla seconda è stato affidato il controllo sul mercato dei prodotti.
La scelta del governo di affidare l’enorme tema dell’Intelligenza artificiale e della sua governance a organi di governo, nominati dal governo e che rispondono al governo anziché ad autorità indipendenti (come ad esempio l’Autorità Garante della Privacy, che si occupa del tema da anni), ha fatto storcere il naso alle opposizioni, verosimilmente con il solo obiettivo di mettere in difficoltà l’esecutivo. Secondo la rete per i Diritti Umani Digitali, inoltre, «non sono stati previsti meccanismi di difesa dagli errori dei sistemi di Ia. Cosa aspettarsi dal futuro? Tentativi sempre più pressanti di implementare la sorveglianza biometrica e possibili abusi delle tecnologie Ia per controllare la vita pubblica dei cittadini». È in effetti il metodo che fa riflettere: l'Intelligenza artificiale tocca tutti i settori dell’ordinamento e soprattutto i diritti alle libertà individuali. Lavoro, studio, università, istruzione, salute, fisco, sussidi sociali: tutto sarà deciso attraverso algoritmi dell’Intelligenza artificiale, da chi può accedere a un mutuo a chi può ottenere l’erogazione di un sussidio, fino a chi deve essere sottoposto a indagine fiscale per evasione. Molto bene che oggi sia un esecutivo di stampo liberale ad assumersene la delicata governance; in una prospettiva di Paese, resta tuttavia l’incognita che un futuro esecutivo di diversa tendenza politica, magari meno liberale dell’attuale, si trovi tra le mani questo enorme potere e possa non usarlo correttamente o addirittura lo rivolga contro i cittadini.
Aeroporti, stop a verifica biometrica
Limiti alla libertà di scegliere nel rispetto (forse) della privacy. Sembra un assurdo paradosso, eppure si può tradurre così la decisione del Garante della privacy che ha disposto lo stop del FaceBoarding all’aeroporto di Linate, ovvero il sistema di riconoscimento facciale su base volontaria che ha consentito di accedere ai controlli rapidamente e in sicurezza. Per comprendere la stranezza del blocco stabilito dall’Authority bisogna precisare come funziona il sistema di riconoscimento facciale e anche ribadire che si tratta di una modalità utilizzata solo dai passeggeri che lo desiderano.
Nonostante l’adesione al sistema fosse, appunto, volontaria, il Garante per la privacy ha inteso bocciare questo sistema «costringendo» la Sea, la società che gestisce lo scalo di Linate e pure quello di Malpensa, a bloccare questa modalità di imbarco messa in pratica per la prima volta in Italia nell’aeroporto di Linate. Per settimane, i passeggeri hanno deciso liberamente e autonomamente di usare il FaceBoarding per evitare file chilometriche e in molti casi anche per non perdere l’aereo. Ma, adesso, per decisione dell’Authority tutto ciò non sarà più possibile. Quello che risulta veramente incomprensibile ai passeggeri è proprio la scelta di bloccare un servizio che era ed è - è necessario ribadirlo - su base volontaria. Tradotto in soldoni: era ogni singolo passeggero a decidere di avere meno privacy pur di non fare file chilometriche e non rischiare di perdere l’aereo.
Il Garante ha stabilito, attraverso una «limitazione provvisoria», che non è possibile decidere autonomamente se farsi fotografare per effettuare i controlli velocemente. Si è «costretti» a mettersi in fila. Senza se e senza ma. L’Authority aveva già bloccato il riconoscimento facciale sulla base dei dati biometrici perl’aeroporto romano di Fiumicino.
Il FaceBoarding a Linate era stato accolto con entusiasmo, soprattutto dalla giunta Sala. Una difesa della privacy a giorni alterni o a zone alterne. Ma dopo che i passeggeri milanesi si sono abituati al controllo facciale e lo hanno scelto liberamente, ora devono dimenticare questo sistema, presentato come innovativo e unico, per «cedere» alla dura legge della privacy.
Adesso il blocco del FaceBoarding è stato disposto per il tempo necessario a consentire «all’Autorità il completamento dell’istruttoria avviata nei confronti della Società» e ha effetto immediato. A partire da oggi nessuna fotografia e tutti in fila. Sea ha preso atto dello stop forzato e imposto dal Garante ma «sta collaborando attivamente con l’Autorità per chiarire tutti gli aspetti relativi al trattamento dei dati e per ottemperare alle richieste pervenute». La società, attraverso una nota, ha voluto precisare che «l’obiettivo primario rimane quello di garantire la sicurezza e la privacy dei passeggeri, in linea con le normative vigenti. Sea auspica che la situazione si risolva quanto prima e di ripristinare il servizio FaceBoarding a beneficio di tutti i passeggeri». La società che gestisce lo scalo, già nell’immediatezza dell’introduzione del servizio, aveva spiegato che il FaceBoarding era finalizzato a «rafforzare la sicurezza negli aeroporti con un sistema che, rispettoso di tutte le norme in materia di privacy». Il servizio era, infatti, disponibile solo per i maggiorenni che lo richiedevano e che liberamente si registravano al servizio.
Continua a leggereRiduci
Agostino Ghiglia (Imagoeconomica)
Il membro del Garante Agostino Ghiglia: «La resa di Apple a Starmer sull’accesso ai dati è preoccupante. E intanto Bruxelles ha proposto di controllare ex ante tutti i contenuti inviati tra privati».
Il movente, come sempre, è la «lotta al crimine». Ma la notizia che Apple, su ordine del governo del Regno Unito guidato da Keir Starmer, abbia disattivato la funzione di protezione dei dati degli utenti inglesi, ha destato preoccupazione in tutto il mondo. La decisione, operativa da ieri, ha di fatto portato alla rimozione della funzione opzionale di crittografia end-to-end Advanced Data Protection Adp, forte elemento di protezione delle nostre comunicazioni. Per accontentare il governo inglese, Apple impedisce dunque agli utenti di proteggere dati sensibili come foto, note e backup da accessi non autorizzati, inclusi quelli della stessa azienda o di hacker. O magari anche del governo. «Una decisione preoccupante», commenta Agostino Ghiglia, membro dell’Autorità garante per la Protezione della Privacy, «perché questi dati detenuti da Apple non sono solo quelli dell’Apple Store ma tutti i dati delle applicazioni che scarichiamo tramite Apple Store».
Preoccupante, se non inquietante…
«Se qualcuno mi dice che è possibile controllare tutti i dati e tutto il traffico che c’è nel mio cloud, i miei consumi, i miei ebook, la mia vita… beh forse sì».
Come è possibile che ciò avvenga in un Paese libero come il Regno Unito?
«Questo tipo di azioni sono ufficialmente dettate da ragioni di sicurezza, per prevenire la possibile commissione di reati, per smantellare le reti terroristiche, per contrastare il traffico pedopornografico. La cosa anomala è che la Gran Bretagna, pur essendo uscita dall’Ue, aderisce ancora al Gdpr, il Regolamento europeo per la protezione dei dati, che è il più garantista al mondo, l’unico che ancora protegge i dati personali, a differenza di quanto avviene in Cina o negli Stati Uniti».
Qual è la ratio, allora, di queste fughe in avanti del governo inglese?
«Oggettivamente vanificano gran parte della protezione dei dati personali. Consideri che noi italiani passiamo sei ore al giorno online, ossia metà della nostra vita vigile».
Quali sono le conseguenze?
«Questa intromissione rischia di essere una slavina nei confronti della protezione dei dati personali, qualora si dovesse diffondere. Perché il governo di fatto ci dice che non esistendo più la crittografia, non esiste più la segretezza della comunicazione».
L’obiezione che viene sempre fatta dal comune cittadino normale è che, se non si ha nulla da nascondere, non c’è alcun problema.
«A questa domanda io rispondo sempre con un’altra domanda: siamo proprio sicuri di volere che chiunque sappia quali medicine compriamo, le patologie che abbiamo, quali sono le nostre opinioni personali o le nostre relazioni sociali? Siamo sicuri che tutti debbano conoscere la nostra vita culturale, spirituale, ciò che attiene alla nostra sfera più intima?».
Una vita pur sempre virtuale, però.
«Noi in rete ci entriamo con i nostri dati personali. E siccome diventiamo una persona-dato, dobbiamo aver cura che questa persona-dato sia tutelata così come è tutelata la persona fisica. Nel momento in cui ci trasformiamo in un dato, tutelare il dato vuol dire tutelare la nostra libertà. È la nostra funzione di Autorità garante per la Privacy».
In Europa potrebbe accadere ciò che è successo in Uk o no?
«Può succedere di peggio: c’è, seppur ferma al 15 Aprile 2024 cioè a prima delle elezioni, una proposta dell’allora Commissione Ue che, per semplificare, è chiamata “chat control”».
Che obiettivo ha chat control?
«In teoria, emanare un regolamento per ridurre la diffusione del materiale pedopornografico».
In pratica?
«In realtà con questo strumento s’imporrebbe ai provider della comunicazione (Whatsapp, Signal, Telegram, ecc) d’implementare una tecnologia che consenta di controllare ex ante ogni immagine, video, link che gli utenti condividono nelle chat, prima che venga cifrato e inviato al destinatario. Ad esempio: le chat di Whatsapp sono criptate end-to-end, quindi nessuno può accedervi, ma se invece passasse questa proposta, ci sarebbe un controllo preventivo. Tutto verrebbe conosciuto da una sorta di potenziale Grande Fratello».
Da chi è sostenuta la proposta europea?
«La sosteneva la passata Commissione Ue (guidata allora e anche oggi da Ursula von der Leyen, nda)».
Con intenti di controllo politico?
«Questo non lo posso assolutamente dire. A me però non interessa il motivo bensì la possibilità, perché la possibilità apre a qualsiasi tipo di motivo, giusto o sbagliato che sia».
Il punto di caduta quale sarebbe?
«La fine della riservatezza delle nostre comunicazioni che, ricordo, è prevista dall’articolo 15 della Costituzione italiana. Una volta che c’è la possibilità di farlo, si apre di fatto una breccia e non si torna più indietro».
Come può intervenire la politica?
«Io faccio parte di un’autorità indipendente, quindi non posso dare giudizi politici. Il Parlamento è sovrano, fa quello che vuole, io mi limito a sottolineare che uno strumento così è sicuramente uno strumento di controllo e di sorveglianza di massa, senza più vita privata, senza più riservatezza, mai più padroni della nostra intimità. E ciò viola i nostri diritti fondamentali».
Continua a leggereRiduci
content.jwplatform.com







