
Il sistema andrà a caccia di foto pedopornografiche salvate sul Cloud e denuncerà gli utenti. Ma ci sono pericoli per la sicurezza. Per incastrare un soggetto basterà spedirgli una immagine vietata sul cellulare. E se gli algoritmi sbagliano, chi pagherà i danni?Le foto dei bambini in spiaggia, i nostri selfie, gli screenshot di documenti. Tutto finisce sul Cloud, sulla nuvola. E ora anche nella Mela. Perché Apple ha annunciato che scansionerà tutte le foto caricate dai propri utenti in iCloud e salvate sui dispositivi. L'obiettivo è politicamente corretto: ricercare le immagini pedopornografiche che verranno così segnalate alle autorità competenti utilizzando un metodo basato su codici cifrati che non dovrebbe mettere a rischio la privacy.La mossa di Apple arriva a poche settimane dalla plenaria di Strasburgo dove il Parlamento europeo aveva dato parere favorevole (con 537 sì, 133 no e 20 astenuti) a un regolamento europeo proprio in merito all'«uso di tecnologie per il trattamento di dati personali ai fini della lotta contro gli abusi sessuali sui minori online». Il regolamento battezzato Chatcontrol ha un periodo di applicazione limitato a tre anni (il tempo considerato necessario per l'adozione di un nuovo quadro giuridico a lungo termine) ma è comunque una «deroga temporanea alla direttiva 2002/58/Ce» sulla cosiddetta ePrivacy relativa al trattamento dei dati personali e alla tutela della vita privata nel settore delle comunicazioni che avvengono via messaggistica, utilizzando app come Whatsapp, Telegram o Signal. In sostanza, questa eccezione al divieto di sorveglianza massiva consente ai provider dei servizi di comunicazione di intercettare il traffico di materiale pedopornografico che avviene tramite i propri sistemi, segnalandolo alle autorità. Ora Apple si allinea, anzi si spinge oltre fin sulla Nuvola. Prima che vengano caricate su iCloud, infatti, il sistema della Mela trasformerà le foto di iPhone, iPad, Watch e computer Mac, in un set di simboli che verrà confrontato con un database fornito da alcune associazioni contro la pedopornografia, come il National Center for Missing and Exploited Children, che è in grado di riconoscerle anche se ci sono stati dei piccoli cambiamenti come tagli o applicazione di filtri. Un software aggiuntivo, spiega sempre l'azienda sul proprio sito, farà delle ulteriori verifiche, tali da rendere la probabilità di errore inferiore a una su un trilione.I funzionari delle forze dell'ordine hanno una banca dati che raccoglie le immagini note di abusi sessuali su minori traducendole in «hash», ovvero codici numerici che identificano positivamente l'immagine ma non possono essere utilizzati per ricostruirli. Apple ha implementato quel database utilizzando una tecnologia chiamata «NeuralHash», progettata per catturare anche immagini modificate simili agli originali. Quel database verrà archiviato su iPhone. Quando un utente carica un'immagine sul servizio di archiviazione iCloud di Apple, l'iPhone creerà un hash dell'immagine da caricare e la confronterà con il database. Un'eventuale corrispondenza farà scattare un avviso che farà intervenire degli operatori che verificheranno se effettivamente le foto fanno parte del database precostituito. In questo caso l'account dell'utente verrà disabilitato e scatterà la segnalazione alle autorità. All'assistente personale Siri verrà inoltre insegnato a «intervenire» quando gli utenti cercano argomenti relativi agli abusi sessuali su minori.La nuova funzione sarà disponibile con uno dei prossimi aggiornamenti del software ma solo, almeno per ora, negli Stati Uniti. Ma da Bruxelles sono già partiti gli applausi: «È importante adottare ulteriori misure per combattere gli abusi sessuali sui minori. Discuterò ulteriormente di questo problema durante la mia visita a Washington alla fine di questo mese», ha scritto su Twitter la commissaria europea agli Affari interni, Ylva Johansson, postando un articolo in cui si riporta l'iniziativa del gruppo guidato da Tim Cook.Bisogna però guardare anche all'altra faccia della medaglia. Cosa succederà se e quando un algoritmo farà scattare l'allarme aprendo le porte delle comunicazioni private alle forze di polizia? E se qualcuno tenta di sfruttare il sistema per incastrare persone innocenti, piazzando sul loro iPhone foto di abusi su minori? Non solo. Chi controllerà che il sistema di allarme non apra la porta anche al monitoraggio di altri contenuti? Chi ha accesso alle blacklist private? C'è anche il problema della fallibilità di questi algoritmi e dei possibili attacchi.Le foto archiviate solo sul telefono non vengono controllate, ha assicurato Apple, e la revisione umana prima di segnalare un account alle forze dell'ordine ha lo scopo di garantire che eventuali corrispondenze siano autentiche prima di sospendere un account. Gli utenti che ritengono che il proprio account sia stato sospeso in modo improprio, viene aggiunto, «possono presentare ricorso per ripristinarlo». Sarà, ma come faceva notare ieri su Twitter Matteo Navacci, cofondatore di Privacy network, «la sorveglianza deve essere giustificata da gravi indizi di reato. Viceversa, sorvegliare in massa le persone alla ricerca di indizi di reato è sbagliato e grottesco».
Mattia Furlani (Ansa)
L’azzurro, con 8,39 metri, è il più giovane campione di sempre: cancellato Carl Lewis.
iStock
L’azienda sanitaria To4 valuta in autonomia una domanda di suicidio assistito perché manca una legge regionale. Un’associazione denuncia: «Niente prestazioni, invece, per 3.000 persone non autosufficienti».
Giancarlo Tancredi (Ansa)
Le motivazioni per la revoca di alcuni arresti: «Dalla Procura argomentazioni svilenti». Oggi la delibera per la vendita di San Siro.