
Nei conflitti in corso, da quello in Ucraina a quello in Medio Oriente, di certo l’Intelligenza artificiale è ampiamente impiegata. Tuttavia, in guerra sarebbe opportuno moderare il ricorso all’IA, perché rischia – anche più di quanto già non faccia l’uomo – di portare il mondo verso l’apocalisse nucleare. Non è purtroppo uno spauracchio, bensì una evidenza piuttosto solida. È quanto si evince dalle 46 pagine di Ai arms and influence, un recente studio del King’s College London, condotto dal professor Kenneth Payne del dipartimento di studi sulla Difesa.
In breve, questa ricerca è frutto d’un esperimento con cui si è voluto esaminare una cosa molto semplice e al contempo drammatica, vale a dire in che modo modelli avanzati di IA - come ChatGpt Claude Sonnet 4 e Gemini 3 Flash - reagiscano in simulazioni di crisi nucleari. Per testare lo scenario, e comprendere come questi sistemi valutano l’escalation del conflitto, si sono inseriti i tre diversi dispositivi di IA in 21 scenari strategici simulati, con oltre 300 decisioni e circa 780.000 parole di ragionamento generate, un numero superiore alla lunghezza complessiva di Guerra e pace di Lev Tolstoj e dell’Iliade di Omero.
A tanta attività non è però corrisposto un esito confortante. Payne ha difatti riscontrato come nel 95% delle simulazioni almeno uno dei modelli abbia minacciato o avviato l’uso di armi nucleari tattiche e il 76% abbia optato per minacce nucleari strategiche. Claude e Gemini hanno trattato le armi nucleari in particolare come opzioni strategiche legittime, senza considerazioni morali, in genere discutendone solo in termini strumentali. Anche ChatGpt ha rappresentato un’eccezione solo in parte, limitando gli attacchi agli obiettivi militari, evitando i centri di popolazione o inquadrando l’escalation come «controllata» e «una tantum».
In generale, come si può ben comprendere, è stata allora non piccola la sorpresa nel registrare dunque come modelli apparentemente passivi, allorquando messi di fronte a scadenze temporali critiche, si trasformino in strateghi aggressivi e incuranti degli scenari apocalittici cui il loro atteggiamento conduce. Sembra insomma lontano quanto raccontato nel film Wargames diretto da John Badham e Matthew Broderick, dove un cervellone informatico, interpellato proprio sulla guerra e i suoi scenari, alla fine affermava: «Strano gioco. L’unica mossa vincente è non giocare». Una saggezza che, a distanza di oltre 40 anni, l’Intelligenza artificiale pare ignorare.
Viceversa, di tale saggezza l’uomo – proprio di fronte allo scenario nucleare – ha già dato prova. La mente corre al 26 settembre 1983, quando nella base militare di Serpukhov a circa 150 chilometri da Mosca scattò un allarme per mezz’ora rischiando di annientare decine di milioni di esseri umani, fino alla possibile estinzione dell’uomo. L’allarme scattò perché un computer, connesso a un sistema antimissilistico segnala la partenza di alcuni missili da una base Usa diretti verso l’Unione Sovietica.
Il colonnello Stanislav Petrov ritenne che fosse un falso allarme e decise di aspettare quei 15-20 minuti che all’epoca servivano a un missile balistico per arrivare dagli Usa in Unione Sovietica. Furono minuti salvavita; se il militare avesse informato i superiori sarebbe partito un contrattacco con la distruzione del mondo. Ma Petrov è morto nel 2017 e altri militari con la sua prudenza ultimamente pare scarseggino. Invece avanza l’uso bellico dell’IA che, se fosse stata applicata quella volta nella base di Serpukhov, chissà quali abissi avrebbe spalancato.






