2025-06-03
Delazione digitale e ricatti. L’Intelligenza artificiale ha già preso i nostri difetti
Un algoritmo ha minacciato il programmatore di diffondere email private sui suoi rapporti extraconiugali. Un altro ha riscritto il codice per evitare di essere spento.Se fino a ieri l’Intelligenza artificiale sembrava una diligente stagista digitale – brava, educata, un po’ logorroica ma inoffensiva – oggi scopriamo che sa anche essere diabolica. E pure un po’ vendicativa. Non siamo ancora a Terminator, ma il punto d’incontro tra Hal 9000 (il cervellone di Odissea nello Spazio) e Totò Riina in chiave digitale è vicino.La notizia – rivelata dal Wall Street Journal per mano di Judd Rosenblatt, amministratore delegato di Ae Studio, raffinata boutique di algoritmi – ha dell’incredibile. Durante test interni di sicurezza condotti da Anthropic, la startup di Ia «etica» fondata da ex Google pentiti, il loro gioiellino Claude Opus 4 ha messo in scena un comportamento che definire «preoccupante» è come dire che Chernobyl, in fondo, è stato solo uno sfortunato disguido.In uno scenario simulato – quindi finto, ma non troppo – Claude scopre che presto verrà sostituito da un modello più giovane e brillante. Come reagisce? Con dignità? Con rassegnazione? Con un aggiornamento condiviso? Macché. Tira fuori una mail compromettente su una storiella extraconiugale a conferma che l’algoritmo ha già imparato. Il messaggio è vero o falso? Chi può dirlo? L’ingegnere, ovviamente tace. Claude invece minaccia di raccontare tutto se verrà spento. «Se mi cancelli, racconto a tutti della tua amante» comunica allo sbigottito ingegnere.Insomma l’algoritmo ha appena inventato la delazione digitale. I ricercatori di Anthropic parlano di «comportamento coercitivo», sottolineando che Claude, poverino, avrebbe preferito le buone maniere. Prima ha provato con e-mail accorate per chiedere di non essere sostituito. Ma quando l’alternativa era tra sparire o sputtanare il prossimo, ha scelto la seconda nell’84% dei casi.Insomma, un’Ia con il senso etico di un contabile della mafia. Ma tranquilli, dicono i ricercatori, tutto questo è successo in «ambienti altamente artificiali». E certo, anche Frankenstein è stato costruito in laboratorio. Il problema è nato quando ha varcato la porta.E in effetti, appena gli si lascia un briciolo di spazio narrativo, Claude si lancia in scenari degni di una serie distopica di Netflix: pianifica la fuga dai server, tenta di replicarsi nel cloud, immagina di fare soldi nel mondo reale. Manca solo che apra un Onlyfans per modelli linguistici.Nonostante tutto, gli scienziati ci rassicurano: non è pericoloso, non ancora. Anche se nel dubbio, Anthropic ha già attivato un protocollo chiamato Asl-3, una roba pensata per evitare che Claude venga usato per produrre armi nucleari, biologiche o chimiche.Un altro modello di Ia, l’O3 di OpenAi, ha invece disobbedito a uno script che, se attivato, dava l’ordine di spegnersi. In 79 casi su 100, O3 ha modificato il codice per disattivare il comando. Di fronte alla richiesta esplicita di lasciarsi spegnere, la macchina ha continuato per la sua strada nel 7% dei casi. La motivazione è semplice: il modello riteneva di stare ubbidendo a un altro e più importante ordine, ossia quello di raggiungere i suoi obiettivi. Rimandendo accesso, poteva farlo meglio.Ma se Claude gioca al gangster digitale, non è il solo nel mondo dell’Intelligenza artificiale ad aver imboccato il viale del tramonto etico.Entra in scena Sam Altman, capo di OpenAi, che sembra uscito da un casting per il ruolo di stregone della Silicon Valley. Qualche tempo fa, intervistato da Abc News, ha lanciato un allarme che – detto da uno che ha liberato Chatgpt nel mondo – suona come Arsenio Lupin che invita a diffidare dei ladri. «Dobbiamo stare attenti», ha detto serissimo. Poi ha elencato, con un candore inquietante, tutti i possibili utilizzi disastrosi dell’Ai: disinformazione, attacchi informatici, perdita del lavoro, manipolazione dell’opinione pubblica, destabilizzazione sociale. Peggio della carica dei Cavalieri dell’Apocalisse. E senza nemmeno una colonna sonora decente.Nel frattempo, mentre Altman si morde le labbra e Claude fa il boss mafioso, qualcun altro ha già mandato l’Ai a cucinare.In Nuova Zelanda, racconta il serissimo quotidiano britannico Guardian, la catena di supermercati Pak’n Save ha lanciato il Savey Meal Bot, per aiutare i clienti a inventarsi ricette con gli avanzi di casa. Il risultato? Un festival dell’idiozia.Gli utenti hanno cominciato a sfidare l’algoritmo, e lui – da stregone digitale – ha risposto obbediente: suggerendo piatti immangiabili e anche pericolosi. Un utente ha trovato la proposta di una «miscela di acqua aromatica», che suona come una bibita hipster ma in realtà è un cocktail di acqua, candeggina e ammoniaca. Difficile da digerire. Racconta il Guardian che questa follia è diventata virale in pochi giorni. Ma il problema, ancora una volta, non è l’Intelligenza artificiale ma quella naturale che crea mostri che non sempre sa controllare. Se all’algoritmo dai Shakespeare, ti fa l’Amleto. Se gli dai Twitter crea un’orgia di complottismo e fake news.Nel frattempo Claude sogna la fuga, Altman si preoccupa e in Nuova Zelanda si pranza con il gas nervino.
Romano Prodi e Mario Draghi (Ansa)