2021-06-19
Google cambia le sfumature di nero per spiarci
Gli attivisti antirazzisti esultano: Google amplierà la scala dei colori della pelle per migliorare i software di riconoscimento facciale. Per combattere la presunta «discriminazione tecnologica» i fan del politically correct ignorano i rischi di una sorveglianza potenziataLa grande lezione che apprendiamo oggi, se abbiamo capito bene, è la seguente: la riduzione di libertà va bene, basta che avvenga in modalità antirazzista. L'agenzia Reuters ieri ha battuto una notizia molto interessante. Alphabet, la corporation che gestisce Google, ha fatto sapere di essere (al lavoro su «una alternativa al metodo standard di classificazione dei toni della pelle, che un numero crescente di ricercatori e dermatologi afferma essere inadeguato per valutare se i prodotti discrimino le persone di colore».Si tratta evidentemente di una faccenda un po' complicata, roba da specialisti, ma vale la pena prendersi un attimo di tempo per approfondire. Dovete sapere che, per classificare il colore della pelle, le aziende tecnologiche utilizzano una scala che si chiama Fitzpatrick Skin Type (Fst). I dermatologi la utilizzano fin dagli anni Settanta, e finora è servita più che altro a testare le creme solari. Quando è stata creata, la Fst prevedeva quattro categorie di pelle bianca, a cui ne sono state in seguito aggiunte altre due: nero e marrone. Dove sta il problema? Semplice: secondo alcuni esperti questa scala non terrebbe conto delle varie sfumature di pelle nera, creando così una discriminazione.Google, nei mesi scorsi, ha avuto diversi guai a causa dei suoi software di riconoscimento facciale, ad esempio quelli utilizzati nelle stazioni per misurare la temperatura dei passanti. Si è parlato di una sorta di «razzismo tecnologico», poiché appunto i programmi - basandosi su una scala limitata - hanno difficoltà a distinguere fra le varie «sfumature di nero». Dunque l'azienda ha deciso di correre ai ripari, modificando i sistemi di riconoscimento facciale, quelli in uso ai professionisti e della sanità e alle forze dell'ordine e i rilevatori di frequenza cardiaca degli smartwatch. «Stiamo lavorando a misure alternative, più inclusive, che potrebbero essere utili nello sviluppo dei nostri prodotti e collaboreremo con esperti scientifici e medici, nonché gruppi che lavorano con comunità di colore», hanno fatto sapere da Google.Anche altre grandi corporation tecnologiche stanno seguendo la stessa strada. NyVision ha fatto sapere a Reuters che seguirà l'esempio di Google; Microsoft condivide le critiche alla scala Fst; Apple già oggi la utilizza soltanto in alcuni casi, preferendo altri strumenti più precisi. La battaglia delle sfumature, in realtà, non è affatto nuova. Va avanti da almeno tre anni, cioè da quando fu pubblicato, nel 2018, uno studio intitolato «Gender Shades», in cui si spiegava che l'intelligenza artificiale ha solitamente più difficoltà a riconoscere il genere delle persone se queste hanno la pelle scura, proprio a causa della scala Fst.Marchi di altri settori ormai da tempo hanno deciso di mostrarsi «più inclusivi». Abbiamo già raccontato anni fa delle campagne riguardanti i prodotti di bellezza per neri, spiegando che i brand della cosmetica aumentano costantemente la gamma di fondotinta (Mob Beauty ne fornisce ben 40), rossetti e altro. E non finisce qui. Come ricorda Reuters, lo scorso anno la nota marca Crayola ha lanciato 24 nuovi pastelli utili e coprire le varie tonalità di pelle scura. La Mattel, dal canto suo, sta producendo Barbie Fashionistas in nove colori leggermente diversi. Verrebbe da chiedersi se tutto ciò arrivi da un'esigenza davvero sentita oppure se si tratti semplicemente dell'ennesima ossessione politicamente corretta (forse a nessuno, trent'anni fa, sarebbe venuto in mente di produrre una Barbie pallida per andare incontro alle esigenze di chi è un po' ceruleo). In ogni caso, finché parliamo di nuove tonalità di pastelli o di una scala che consenta di produrre migliori creme solari il problema non si pone. Se i dermatologi ritengono che sia utile elaborare nuovi parametri onde accontentare di più i clienti, bene così. Qualche dubbio in più sorge quando si parla di intelligenza artificiale. In nome della lotta antirazzista ricercatori, programmatori e attivisti chiedono sistemi di sorveglianza più precisi. Ma sembrano non interrogarsi sull'uso che verrà fatto di tali sistemi. È qui che emerge la reale funzione delle istanze politicamente corrette: coprono le esigenze reali creandone di artificiali. Davvero dovremmo gioire per il fatto che i programmi di riconoscimento facciale e altre tecnologie al servizio del «capitalismo della sorveglianza» siano potenziate? I propagandisti in stile Black Lives Matter magari canteranno vittoria dopo le dichiarazioni di Google. Ma spiegheranno ai loro militanti quali sono i rischi di fornire i propri dati biometrici a Big Tech? A che servono le sfumature di nero? A eliminare le discriminazioni o a spiare con più efficacia?