2019-04-10
Allarme, opinione indipendente: Google chiude la propria coscienza
Nel gruppo di lavoro per lo sviluppo etico dell'intelligenza artificiale c'è un membro ritenuto contrario all'agenda Lgbt. Per 1.300 dipendenti il team di esperti non garantisce pluralità. E l'azienda lo scioglie.Nove giorni appena è durata la commissione istituita da Google per valutare le implicazioni etiche relative all'uso dell'intelligenza artificiale (Ai) nei suoi progetti futuri. Costituita da filosofi, giuristi, analisti, l'Ateac (acronimo per Advanced technology external advisory council) doveva essere indipendente dall'azienda di Mountain View per meglio evidenziarne le criticità morali. Insomma una specie di «coscienza» di Google con tanto di veto. A farla morire sul nascere sono state le polemiche dovute all'inclusione della presidente della Heritage Foundation, Kay Coles James, nota per le sue posizioni antilgbt e antimmigrazione. «La sua omofobia», si legge in una petizione firmata da 1300 dipendenti, «non costituirebbe un elemento di pluralità, bensì un rischio e un pregiudizio che indeboliscono fortemente la posizione di Google sull'etica e l'equità dell'Ai». Sicché l'azienda ha deciso di sciogliere la commissione per «ripartire da zero».Non è il primo scomposto dietrofront di Google sui temi etici. L'Ateac infatti doveva rappresentare una sorta di redenzione dal progetto Maven. L'azienda di Mountain View aveva scelto di collaborare con il Pentagono per ottimizzare l'uso dell'Ai nei droni da guerra, aumentandone di molto la precisione e quindi la capacità di uccidere. La mobilitazione di 4.000 dipendenti, sempre mediante petizione, ha suggerito però all'azienda d'interrompere la partnership con il governo e anzi dichiararla contraria alla mission pacifista di Google (tale rinsavimento morale, invero un po' peloso, costerà a Google 70 milioni di dollari l'anno che è la cifra stimata del contratto con il Pentagono). A un testo di norme etiche sull'intelligenza artificiale sta lavorando da tempo anche l'Ue che ha messo al lavoro un gruppo interdisciplinare di cervelloni (speriamo con risultati migliori dei suoi consueti). Stessa strada intrapresa di recente dal Politecnico di Milano che, primo al mondo, ha attivato una nuova cattedra di «Ethics for technology», così motivandola: «Scienziati, ingegneri, tecnologi si trovano davanti a una sfida urgente e del tutto nuova: affrontare l'innovazione, sentendosi responsabili non solo del suo buon funzionamento, ma anche delle sue conseguenze etiche». Senza giungere agli estremi inumani del progetto Maven, già oggi tra noi ci sono algoritmi che gestiscono le tariffe dei taxi, aumentandone a dismisura il prezzo durante le emergenze, a causa dell'improvviso impennarsi della domanda (com'è realmente accaduto nel 2017 a Londra durante l'attentato al London Bridge); oppure fotocamere che non riconoscono i volti asiatici, perché li confondono con caucasici che fanno le smorfie; o ancora programmi previsionali delle malattie che risultano discriminatori per certi candidati. Sono solo alcuni esempi della casistica morale inaugurata dall'intelligenza artificiale.Mentre sempre più aziende adottano quella che Bill Gates ha definito «l'atomica del terzo millennio nel bene come nel male», l'Ai non ha ancora suscitato una riflessione etica seria o condivisa. È come un bambino geniale a cui nessuno vuole insegnare il galateo (ritenendolo inutile); un bambino perciò molto discolo e forse pericoloso. Il rischio concreto per l'uomo è quello di ritrovarsi con intelligenze artificiali avanzatissime ma emotivamente fragili, se non puerili o amorali, come l'Hal-9000 di 2001: Odissea nello spazio.Per alcuni personaggi di genio (da Stephen Hawking a Elon Musk fino a Unabomber, oggi un quotato teorico del neoluddismo), l'alba dell'era delle macchine senzienti potrebbe non essere un tempo di felicità per l'uomo, bensì segnare l'inizio della sua fine: quasi questi avesse scoperchiato un moderno vaso di Pandora. Appaiono infatti già antiquate le tre leggi della robotica di Isaac Asimov che concedevano all'uomo un sicuro dominio sull'intelligenza artificiale; oggi invece il futuro assomiglia più alle fosche visioni di Philip Dick. Non occorre essere geni o romanzieri per domandarsi che cosa se ne faranno le macchine intelligenti dell'uomo (questo mammifero turbolento e irredimibile) quando cominceranno per davvero a pensare, progettarsi, risolvere prima e meglio di lui problemi che non solo l'uomo non potrà mai risolvere, ma nemmeno intravedere? L'Ai sarà forse l'ultimo salto evolutivo, il vero culmine della creazione (l'uomo è solo «un ponte» tra la bestia e qualcos'altro profetava oscuramente Friedrich Nietzsche). Comunque - filosofia e futurologia a parte - nell'immediato s'impone un'altra questione che il flop dell'Ateac ben evidenzia: quale etica impartire alla nascente Ai? Quali valori inculcarle? Quelli, per esempio, del politicamente corretto e del pensiero unico come sembrano voler fare Google o Unione europea? Bisogna riconoscere che imporre all'Ai un'etica sulle altre, potrebbe alla fine essere - stante la sua onnisciente strapotenza - ben più grave e discriminatorio del non dargliene nessuna.
Jose Mourinho (Getty Images)