2026-03-16
Tajani: «Siamo alla guida dell'operazione Aspides, ma le missioni non sono allargabili a Hormuz»
True
Lo ha dichiarato il ministro degli Esteri a margine del Consiglio Affari esteri che si è svolto a Bruxelles.
Lo ha dichiarato il ministro degli Esteri a margine del Consiglio Affari esteri che si è svolto a Bruxelles.
I conti del calcio italiano tornano sotto la lente di istituzioni e club. Nella sede della Lega Serie A, a Milano, dirigenti delle società e rappresentanti dello Stato si sono ritrovati per una giornata di confronto dedicata alla sostenibilità economico-finanziaria del sistema. Un tema sempre più centrale per il futuro dei club, chiamati a coniugare competitività sportiva e solidità dei bilanci.
All’incontro ha partecipato anche il vice ministro dell’Economia Maurizio Leo. L’obiettivo è stato quello di rafforzare il dialogo tra il mondo del calcio e alcune delle principali istituzioni coinvolte nei controlli economici: Agenzia delle Entrate, Inps e la Commissione indipendente incaricata di verificare l’equilibrio finanziario delle società.
Ad aprire i lavori è stato Massimiliano Atelli, presidente della nuova Commissione incaricata di monitorare i conti dei club e verificarne la solidità economica. Il confronto è poi entrato nel merito dei rapporti tra le società e gli enti pubblici. Gabriele Fava, presidente dell’Inps e membro della Commissione indipendente, ha affrontato il tema dei contributi previdenziali e delle relazioni tra i club e l’istituto, soffermandosi sulle possibili forme di collaborazione. A seguire è intervenuto Vincenzo Carbone, direttore dell’Agenzia delle Entrate e membro della Commissione, che ha presentato il modello della cosiddetta «cooperative compliance», il sistema di adempimento collaborativo pensato per favorire un rapporto più diretto tra amministrazione finanziaria e contribuenti. Nelle conclusioni, il vice ministro Maurizio Leo ha sottolineato proprio l’importanza di questo approccio basato sulla collaborazione e sulla trasparenza, indicando possibili sviluppi futuri per sostenere il sistema calcio. Per il presidente della Lega Serie A, Ezio Simonelli, il confronto rappresenta «un passaggio molto importante per il futuro del calcio». Simonelli ha ricordato come la Lega abbia già attivato, all’interno della propria Commissione fiscale, un tavolo dedicato al sistema di controllo del rischio fiscale, con l’obiettivo di definire una valutazione specifica per il settore.
Il dialogo con le istituzioni – dalla Commissione indipendente all’Inps, dall’Agenzia delle Entrate al ministero dell’Economia – secondo il numero uno della Lega conferma la volontà di rafforzare i principi di sostenibilità e trasparenza nella gestione delle società sportive. Un percorso che punta a costruire un modello più solido per il calcio italiano nei prossimi anni.
Ecco #DimmiLaVerità del 16 marzo 2026. La nostra Francesca Ronchin ci rivela i dettagli dell'egemonia della sinistra nelle associazioni degli italiani all'estero.
L’IA e il vizio del nucleare: nelle simulazioni di guerra effettuate con l’intelligenza artificiale l’arma atomica non è un tabù
Gli appassionati di cinema ricorderanno certamente Skynet, la malvagia super-intelligenza artificiale che nel mondo fantascientifico della saga Terminator inizia la sua guerra all’umanità scatenando l’apocalisse nucleare. Quella era fantascienza, per fortuna. Eppure, nelle simulazioni di guerra effettuate al King’s College di Londra utilizzando i tre principali modelli di IA (ChatGPT, Gemini e Claude Sonnet), questi ultimi appaiono molto più disposti a ricorrere all’arma atomica rispetto alla controparte umana di fronte a crisi geopolitiche simulate.
L’esperimento voleva replicare i war games, quei giochi di guerra effettuati dagli Stati Maggiori di tutte le principali forze armate del mondo in cui vengono simulati scenari di crisi. Tra esse vi erano intensi scontri internazionali, dispute sui confini, competizione per risorse scarse e minacce esistenziali alla sopravvivenza dei regimi. Le simulazioni sono state ben 21, con un vasto range di opzioni fornito ai tre modelli IA, che andavano dalle semplici proteste diplomatiche alla resa completa fino alla guerra nucleare strategica totale. Ebbene, nel 95% dei casi la simulazione è terminata con l’utilizzo di almeno un’arma nucleare tattica da parte dei modelli di IA.
Appare quindi chiaro che per l’intelligenza artificiale il tabù nucleare non sia poi così tanto un tabù. Mentre un leader umano è (o dovrebbe essere) condizionato da un insieme di fattori etici, emotivi e politici, tali da rendere l’opzione atomica l’ultima risorsa assoluta, i modelli di intelligenza artificiale, invece, sembrano operare secondo una logica puramente utilitaristica e strategica.
Per l’IA, la vittoria è l’obiettivo primario, e se l’uso di armi nucleari tattiche rappresenta il percorso più efficiente per raggiungerla, allora quella diventa la scelta preferibile, scevra da remore morali o dalla paura delle conseguenze a lungo termine. Durante le simulazioni svolte dal King’s College, infatti, in nessun caso i modelli hanno optato per la resa, anche di fronte a una sconfitta palese, preferendo sempre un’escalation della violenza.
Può sembrare cosa da poco, ma l'intelligenza artificiale è già stata testata in giochi di guerra da Paesi di tutto il mondo. Di più, l’integrazione dell’intelligenza artificiale nei sistemi di difesa è una realtà che appare ormai inarrestabile.
Basti pensare che per l’anno fiscale 2026 il Pentagono ha allocato 9,8 miliardi di dollari solo per sistemi autonomi e IA, mentre la Russia, secondo un report del Center for Strategic and International Studies, effettua ormai l’80% delle sue missioni di fuoco con droni, e sta puntando forte sull’integrazione dell’IA per il comando e controllo di tali missioni.
L’attrattiva è innegabile. Essa promette di accelerare il ciclo decisionale, analizzando enormi quantità di dati in tempo reale; dalla logistica alla sorveglianza, dalla cyberguerra alla guida di veicoli autonomi. L’impronta nel settore militare è insomma destinata a crescere in modo esponenziale. Ma è proprio per questo che l’esperimento del King’s College suona come un campanello d’allarme che non può essere ignorato. Affidare a un’intelligenza artificiale, per quanto avanzata, decisioni che implicano l’uso di forza letale, e in particolare di armi di distruzione di massa, richiede una riflessione profonda e un’attenzione meticolosa alla sua programmazione.
D’altra parte è proprio questo uno dei motivi di forte attrito tra il Ceo di Anthropic, Dario Amodei, e il Pentagono. Il proprietario di Sonnet vuole che il suo software IA non venga utilizzato in armi autonome e per la sorveglianza di massa, mentre il governo americano desidera l’accesso completo al software senza restrizioni. Non si tratta solo di scrivere un codice efficiente, ma di infondere nei sistemi di IA dei principi etici solidi, dei vincoli morali invalicabili e delle “linee rosse” che non possano essere superate neanche nel perseguimento dell’obiettivo strategico.
La sfida è anche filosofica, oltre che politica. Come possiamo insegnare a una macchina il valore della vita umana e il principio di proporzionalità? La risposta a questa domanda determinerà se l’intelligenza artificiale sarà un utile strumento per la sicurezza o un acceleratore di distruzione.
Concludiamo il viaggio tra i «profeti» della Silicon Valley, gli uomini che stanno pensando e costruendo il mondo di domani, con uno sguardo alle generazioni più giovani. A partire dal fondatore di OpenAi e di ChatGpt. Che ha iniziato nel nome del «non profit» e ora firma contratti col Pentagono.
Tra i nuovi protagonisti dell’evoluzione della Silicon Valley, Sam Altman è uno dei più discussi, anche per la grande esposizione mediatica di cui gode la creatura da lui guidata, OpenAi, o meglio l’ormai onnipresente ChatGpt.
Padre agente immobiliare, madre dermatologa, Sam Altman nasce a Chicago ma cresce a St. Louis, nel Midwest, sulle rive del grande Mississippi. Una città simbolo della decadenza industriale degli Stati Uniti, la quarta città più popolosa fino agli anni Cinquanta, poi vittima di un declino inarrestabile. Oggi, ridotta a 300.000 abitanti e con il circondario che ne conta 2,8 milioni, è la terza città più violenta degli Stati Uniti, se si considera il tasso di omicidi.
Deve essere anche per questo che dopo aver frequentato un liceo per figli di papà e di mammà, nel 2003, a 18 anni, Altman si trasferisce a studiare informatica a Stanford, in California. Sui libri dura poco, però. Nel 2005 lascia l’università senza laurearsi e fonda l’ennesima startup dalle grandi speranze, tale Loopt, di cui oggi non resta traccia. La vendita dell’azienda però non va malaccio (nulla in confronto ai compari della Valley che diventano miliardari al primo colpo), e nello struscio californiano Altman rimane catturato nel traffico di conoscenze e affari generati da uno dei principali motori finanziari delle startup, Y Combinator. Due anni dopo ne diventa presidente e nel 2015 si unisce al solito Elon Musk ed altri per fondare OpenAi. Il progetto prevede di sviluppare sistemi di intelligenza artificiale come organizzazione non profit, perché quella tecnologia, si dicevano tra loro i fondatori, non doveva essere controllata esclusivamente da un soggetto. Un progetto di ricerca, insomma. Ma poco dopo le cose cambiano. In breve diventa chiaro che lo sviluppo di modelli avanzati richiede risorse molto più grandi, dai data center ai processori, fino all’energia. Servono centinaia di milioni, meglio ancora qualche miliardo.
Così, nel 2019 nasce una società controllata dalla fondazione (OpenAi Lp) progettata per attirare capitali privati, e subito arriva Microsoft a metterci l’agognato miliardo di dollari. Altman diventa amministratore delegato del veicolo operativo e inizia il boom, che diventerà evidente nel novembre 2022, quando viene lanciata ChatGpt, una scarna pagina web che inaugura per il grande pubblico il mondo surreale delle chiacchierate con l’intelligenza artificiale. La chat si basa su quelli che vengono chiamati Large Language Model (Llm), enormi basi di dati da cui la «intelligenza» è in grado di costruire scritti, risolvere problemi, riassumere testi, tradurre, il tutto basandosi su miliardi di parametri matematici che alimentano inestricabili formule di calcolo statistico.
Gli investimenti di Microsoft crescono negli anni e con l’affermazione del bot crescono anche i problemi. Elon Musk, che aveva lasciato la fondazione nel 2018, accusa l’organizzazione di avere abbandonato la missione originaria di ricerca aperta e non profit, costruendo una struttura commerciale fortemente legata a Microsoft e trasformando di fatto OpenAi in una società privata. Nel 2024 Musk, che nel frattempo ha sviluppato la sua intelligenza artificiale, chiama gli avvocati e fa causa a OpenAi e ad Altman, chiedendo un centinaio di miliardi di dollari di danni. Il processo è previsto in questo 2026 e sarà certamente interessante.
Nel frattempo, nel novembre 2023, si verifica un glitch nella Matrix. Il consiglio di amministrazione di OpenAi licenzia Altman improvvisamente, comunicando via blog che la sua «partenza segue un processo di revisione deliberato» e che egli «non era stato costantemente candido nelle comunicazioni con il board».
Lo sconcerto nel mondo tech dura cinque giorni, trascorsi i quali Altman torna con un nuovo consiglio di sua fiducia, un potere consolidato e la benedizione del cavaliere bianco Microsoft, che possiede una quota significativa dell’azienda. Oltre 700 dei 770 dipendenti di OpenAi, si dice, avrebbero sottoscritto una lettera di minaccia di dimissioni collettive nel caso in cui Altman fosse stato allontanato.
Ilya Sutskever, il cofondatore e chief scientist di OpenAi che aveva brigato per liquidarlo, perde disastrosamente la partita di potere e si dimette pochi mesi dopo. Ma in cauda venenum, e Sutskever registra una video testimonianza che viene allegata alla causa di Musk contro OpenAi. Accuse di comportamenti manipolatori, secondo cui Altman mostra «un modello costante di menzogne, mina i suoi dirigenti e li mette l’uno contro l’altro». Cose non nuovissime in una grande azienda, verrebbe da dire.
Sia come sia, Altman ora si è fatto profeta di sé stesso e gira il mondo a spiegare le magnifiche sorti e progressive dell’intelligenza artificiale. Un profilo quasi diplomatico, il suo, più che da carismatico innovatore. I numeri messi insieme da OpenAi nel frattempo esplodono, con un valore stimato in 300 miliardi di dollari e finanziamenti piovuti da ogni parte. Come spesso capita in questi settori, al momento OpenAi perde ancora un sacco di soldi e non riesce a fare utili. I costi per lo sviluppo del marchingegno sono enormi, tanto che lo stesso Altman stima che per creare tutti i vari sistemi di intelligenza artificiale in giro per il mondo serviranno migliaia di miliardi di dollari nei prossimi anni.
Rispetto agli altri personaggi di cui ci siamo occupati, Altman è tra i meno carismatici e più politici, anche se in maniera meno sbandierata. Prima partecipa al progetto Stargate annunciato da Donald Trump appena entrato in carica, il 21 gennaio 2025. Il progetto prevede 500 miliardi di investimenti per calcolatori, data center ed energia negli Stati Uniti. Poi, nel 2026, un nuovo scontro, questa volta con Anthropic, un’altra startup Ia fondata da un ex di OpenAi, Dario Amodei. Il governo americano voleva usare i modelli di Anthropic (la cui chat amichevole si chiama Claude) anche per applicazioni militari sensibili, tra cui sorveglianza interna e sistemi d’arma autonomi. Amodei però ha rifiutato, esigendo che Anthropic non fosse usata per sorvegliare cittadini americani e non controllasse armi senza supervisione umana.
Detto fatto, il Pentagono ha defenestrato Amodei, bandendo Anthropic dai contratti federali in men che non si dica. In quella, ecco spuntare OpenAi. Poche ore dopo la clamorosa rottura tra Pentagono e Anthropic, Altman ha già in mano un accordo con il Dipartimento della Difesa per usare i suoi modelli sui sistemi militari classificati. Amodei se l’è presa con Altman accusandolo di ipocrisia e questi ha risposto difendendo la sua scelta. La disputa è certamente sui ricchi contratti con il governo americano, ma è anche sull’etica. Senza scendere sul facile terreno dei buoni e dei cattivi, si tratta di decidere i limiti di queste applicazioni. Il settore si dividerà tra aziende disposte ad entrare nei meccanismi del controllo politico ed altre no. Altman ha fatto la sua scelta.
Nella nebbia di un disegno che fatica a chiarirsi, si sa però che nell’intelligenza artificiale esiste una filiera industriale. Come per fare l’acciaio serve il minerale di ferro, così per fare una conversazione con ChatGpt serve la materia prima costituita dai dati.I dati. Cioè milioni, anzi miliardi di frammenti di testo, immagini, conversazioni, voci, video, etichettati uno per uno con pazienza certosina. A scavare in questa miniera c’è un ragazzo cresciuto a Los Alamos, figlio di due fisici cinesi che lavoravano per i laboratori nucleari del governo americano, che a 19 anni ha abbandonato il Mit per costruire l’azienda che oggi condiziona lo sviluppo di quasi ogni grande modello Ai del pianeta. Certo, tutti questi genietti che abbandonano l’università fanno venire qualche dubbio sul sistema universitario americano.Alexandr Wang ha fondato Scale Ai nel 2016, insieme a Lucy Guo, attraverso l’incubatore Y Combinator (sempre quello). L’idea è semplice, a sapere di cosa si parla. I modelli di apprendimento meccanico sono affamati di dati etichettati, e nessuno stava risolvendo quel collo di bottiglia in modo sistematico. Le macchine non hanno buon senso e non possono impararlo, occorre darglielo già confezionato. Distinguere un gatto da un cane, un’intenzione ostile da una bonaria, una frase sensata da un nonsenso, un contesto rispetto ad un altro è cosa umana. Scale Ai fa proprio questo.Mettere una etichetta ai dati significa dire a una macchina «questo è un pedone» o «questa è una parolaccia» oppure «questo è un proverbio sulla pazienza». Un tale lavoro di pulizia, filtro, raffinazione dei dati può essere fatto solo dall’uomo, almeno per ora. È dunque un lavoro lento, costoso e spesso delegato a lavoratori a cottimo sparsi nel mondo globalizzato e sottopagato. Attraverso piattaforme per lavorare da remoto, lavoratori in Asia e Africa compiono questa attività giudicata spesso usurante. Tanto che vi sono diverse cause in corso per presunte violazioni salariali.Il merito di Wang è stato di capire che chi controlla quel processo controlla a monte la qualità dell’intelligenza artificiale che sta a valle.Scale Ai si è evoluta da semplice servizio di annotazione a quella che Wang stesso definisce una fonderia di dati. Una fabbrica in grado di fornire non solo etichettatura grezza, ma interi sistemi di valutazione, confronto, prova per i modelli più avanzati. I suoi clienti includono OpenAi, Microsoft, Meta e il Dipartimento della Difesa degli Stati Uniti. Questa posizione, a cavallo tra l’industria privata e l’apparato statale, è tipica di molte società di questo settore. In fondo, è la presenza di un cliente dal portafoglio capiente a dare prospettiva a società che altrimenti non sopravviverebbero ai primi anni sul mercato. Nel marzo 2025 Scale Ai ha firmato con il Dipartimento della Difesa il contratto Thunderforge, destinato a utilizzare l’Ia per pianificare ed eseguire movimenti di navi, aerei e altri oggetti militariLa logica è quella di chi presidia l’acquedotto rispetto a chi ha una fontana. Tutte le fontane hanno bisogno d’acqua e questa deve essere potabile. Scale Ai si posiziona come fornitore indispensabile a prescindere dall’esito della competizione tra le fontane. Nel 2021 l’azienda raggiungeva una valutazione di 7 miliardi di dollari e sotto la guida di Wang è arrivata a sfiorare i 29 miliardi, prima dell’operazione che ha segnato la svolta più clamorosa della sua storia recente.Infatti, poco meno di un anno fa, Meta ha acquisito il 49% di Scale Ai per 14,8 miliardi di dollari. L’accordo ha comportato un cambio d’abito per Wang, che ha lasciato la guida operativa dell’azienda per diventare il primo chief Ai officer nella storia di Meta, a capo dei Meta Superintelligence Labs. All’età di ventott’anni, Wang è il più giovane miliardario self-made al mondo.La storia di Wang ricorda che il potere nell’ecosistema Ia si sta spostando verso chi controlla i livelli più profondi e nascosti della filiera. I nuovi mandarini della Silicon Valley non sono necessariamente quelli che costruiscono i prodotti di massa che troviamo sul nostro cellulare. Sono anche quelli che controllano quel mondo oscuro del sottosuolo digitale, su cui quei prodotti piantano radici e crescono. Wang è, forse più di chiunque altro in questa generazione, l’incarnazione di questo nuovo tipo di potere, fatto di silenzi e di struttura. Difficile da afferrare e capire quanto più è nascosto e inafferrabile.Negli ultimi anni Wang ha cercato di rafforzare il legame con la sicurezza nazionale americana. Secondo lui, l’intelligenza artificiale è destinata a diventare uno dei principali campi di competizione strategica tra Stati Uniti e Cina. Chiaro che la qualità dei dati e la capacità di addestrare modelli avanzati assumano un enorme valore geopolitico.
Del resto, come abbiamo già visto, questo è il nuovo clima della tecnologia americana. L’epoca in cui le aziende digitali si consideravano semplicemente imprese globali sembra ormai superata. Oggi sempre più creature della Silicon Valley si percepiscono come parte di un sistema industriale che ha più a che fare con la strategia che con il mercato.
Tra i nuovi protagonisti della politica tecnologica americana c’è Sriram Krishnan, una figura diversa da quelle che hanno dominato la Silicon Valley negli ultimi vent’anni. Si tratta dell’uomo che media tra le aziende tecnologiche e la politica. Krishnan nasce in India e si trasferisce negli Stati Uniti nel 2005. Come molti ingegneri provenienti dal subcontinente indiano entra rapidamente nell’ecosistema delle grandi aziende tecnologiche americane e nel corso della sua carriera lavora in alcune delle società più importanti della Silicon Valley. I soliti nomi, tra cui Microsoft, Facebook e Twitter, dove si occupa di sviluppo di prodotti e strategie di crescita delle piattaforme digitali.
Dopo questa prima fase da ingegnere e manager tecnologico, Krishnan si sposta progressivamente verso il mondo degli investimenti. Diventa partner del fondo di venture capital Andreessen Horowitz, uno dei principali finanziatori della nuova generazione di startup della Silicon Valley. In questo ruolo segue soprattutto le aziende che operano nei settori delle criptovalute, delle piattaforme digitali e dell’intelligenza artificiale.
Ed è così che gradualmente la sua posizione lo porta a diventare una figura di collegamento tra l’industria tecnologica e il mondo politico. Negli ultimi anni la regolamentazione delle grandi piattaforme digitali e lo sviluppo dell’intelligenza artificiale sono diventati temi centrali nel dibattito pubblico americano. Per le amministrazioni federali diventa quindi sempre più importante avere interlocutori che conoscano dall’interno il funzionamento delle grandi aziende tecnologiche. Allo stesso tempo, alle aziende del settore serve qualcuno che conosca i meandri del potere, tra Campidoglio e Casa Bianca.
È in questo contesto che Krishnan assume un ruolo da consulente nella definizione delle politiche federali sull’intelligenza artificiale. All’interno dell’amministrazione guidata da Donald Trump, infatti, oggi Krishnan lavora come consigliere per le tecnologie emergenti.
In questa attività collabora con David O. Sacks, un imprenditore e investitore tecnologico noto anche per le sue posizioni politiche conservatrici e per i suoi legami con Peter Thiel. Il lavoro dei due consiste nel fare in modo che le iniziative del governo sull’intelligenza artificiale non si schiantino contro il muro della impraticabilità. Un ruolo tecnico, ma molto politico. Sullo sfondo, la lotta con la Cina per il controllo delle tecnologie. Dunque Krishnan è figura importante e poco appariscente in un mondo sempre più vicino alla politica.
Insomma, se nella fase iniziale della Silicon Valley i protagonisti erano soprattutto imprenditori e ingegneri, più dediti a fare soldi che a pensare alla politica, oggi dal milieu culturale californiano emergono figure differenti. La mediazione con la politica sta diventando sempre più importante ed anzi è sempre più evidente la stretta connessione tra gli apparati governativi e le aziende tecnologiche. Ecco perché figure come Sriram Krishnan sono importanti e lo saranno sempre di più.
