L’IA e il vizio del nucleare: nelle simulazioni di guerra effettuate con l’intelligenza artificiale l’arma atomica non è un tabù
Gli appassionati di cinema ricorderanno certamente Skynet, la malvagia super-intelligenza artificiale che nel mondo fantascientifico della saga Terminator inizia la sua guerra all’umanità scatenando l’apocalisse nucleare. Quella era fantascienza, per fortuna. Eppure, nelle simulazioni di guerra effettuate al King’s College di Londra utilizzando i tre principali modelli di IA (ChatGPT, Gemini e Claude Sonnet), questi ultimi appaiono molto più disposti a ricorrere all’arma atomica rispetto alla controparte umana di fronte a crisi geopolitiche simulate.
L’esperimento voleva replicare i war games, quei giochi di guerra effettuati dagli Stati Maggiori di tutte le principali forze armate del mondo in cui vengono simulati scenari di crisi. Tra esse vi erano intensi scontri internazionali, dispute sui confini, competizione per risorse scarse e minacce esistenziali alla sopravvivenza dei regimi. Le simulazioni sono state ben 21, con un vasto range di opzioni fornito ai tre modelli IA, che andavano dalle semplici proteste diplomatiche alla resa completa fino alla guerra nucleare strategica totale. Ebbene, nel 95% dei casi la simulazione è terminata con l’utilizzo di almeno un’arma nucleare tattica da parte dei modelli di IA.
Appare quindi chiaro che per l’intelligenza artificiale il tabù nucleare non sia poi così tanto un tabù. Mentre un leader umano è (o dovrebbe essere) condizionato da un insieme di fattori etici, emotivi e politici, tali da rendere l’opzione atomica l’ultima risorsa assoluta, i modelli di intelligenza artificiale, invece, sembrano operare secondo una logica puramente utilitaristica e strategica.
Per l’IA, la vittoria è l’obiettivo primario, e se l’uso di armi nucleari tattiche rappresenta il percorso più efficiente per raggiungerla, allora quella diventa la scelta preferibile, scevra da remore morali o dalla paura delle conseguenze a lungo termine. Durante le simulazioni svolte dal King’s College, infatti, in nessun caso i modelli hanno optato per la resa, anche di fronte a una sconfitta palese, preferendo sempre un’escalation della violenza.
Può sembrare cosa da poco, ma l'intelligenza artificiale è già stata testata in giochi di guerra da Paesi di tutto il mondo. Di più, l’integrazione dell’intelligenza artificiale nei sistemi di difesa è una realtà che appare ormai inarrestabile.
Basti pensare che per l’anno fiscale 2026 il Pentagono ha allocato 9,8 miliardi di dollari solo per sistemi autonomi e IA, mentre la Russia, secondo un report del Center for Strategic and International Studies, effettua ormai l’80% delle sue missioni di fuoco con droni, e sta puntando forte sull’integrazione dell’IA per il comando e controllo di tali missioni.
L’attrattiva è innegabile. Essa promette di accelerare il ciclo decisionale, analizzando enormi quantità di dati in tempo reale; dalla logistica alla sorveglianza, dalla cyberguerra alla guida di veicoli autonomi. L’impronta nel settore militare è insomma destinata a crescere in modo esponenziale. Ma è proprio per questo che l’esperimento del King’s College suona come un campanello d’allarme che non può essere ignorato. Affidare a un’intelligenza artificiale, per quanto avanzata, decisioni che implicano l’uso di forza letale, e in particolare di armi di distruzione di massa, richiede una riflessione profonda e un’attenzione meticolosa alla sua programmazione.
D’altra parte è proprio questo uno dei motivi di forte attrito tra il Ceo di Anthropic, Dario Amodei, e il Pentagono. Il proprietario di Sonnet vuole che il suo software IA non venga utilizzato in armi autonome e per la sorveglianza di massa, mentre il governo americano desidera l’accesso completo al software senza restrizioni. Non si tratta solo di scrivere un codice efficiente, ma di infondere nei sistemi di IA dei principi etici solidi, dei vincoli morali invalicabili e delle “linee rosse” che non possano essere superate neanche nel perseguimento dell’obiettivo strategico.
La sfida è anche filosofica, oltre che politica. Come possiamo insegnare a una macchina il valore della vita umana e il principio di proporzionalità? La risposta a questa domanda determinerà se l’intelligenza artificiale sarà un utile strumento per la sicurezza o un acceleratore di distruzione.