Getty Imasges
Nella sede della Lega Serie A dirigenti del calcio e istituzioni si sono confrontati sulla sostenibilità economico-finanziaria delle società. Presenti il vice ministro dell'Economia Maurizio Leo, l’Inps e l’Agenzia delle Entrate. Al centro trasparenza dei bilanci e nuovi strumenti di controllo.
I conti del calcio italiano tornano sotto la lente di istituzioni e club. Nella sede della Lega Serie A, a Milano, dirigenti delle società e rappresentanti dello Stato si sono ritrovati per una giornata di confronto dedicata alla sostenibilità economico-finanziaria del sistema. Un tema sempre più centrale per il futuro dei club, chiamati a coniugare competitività sportiva e solidità dei bilanci.
All’incontro ha partecipato anche il vice ministro dell’Economia Maurizio Leo. L’obiettivo è stato quello di rafforzare il dialogo tra il mondo del calcio e alcune delle principali istituzioni coinvolte nei controlli economici: Agenzia delle Entrate, Inps e la Commissione indipendente incaricata di verificare l’equilibrio finanziario delle società.
Ad aprire i lavori è stato Massimiliano Atelli, presidente della nuova Commissione incaricata di monitorare i conti dei club e verificarne la solidità economica. Il confronto è poi entrato nel merito dei rapporti tra le società e gli enti pubblici. Gabriele Fava, presidente dell’Inps e membro della Commissione indipendente, ha affrontato il tema dei contributi previdenziali e delle relazioni tra i club e l’istituto, soffermandosi sulle possibili forme di collaborazione. A seguire è intervenuto Vincenzo Carbone, direttore dell’Agenzia delle Entrate e membro della Commissione, che ha presentato il modello della cosiddetta «cooperative compliance», il sistema di adempimento collaborativo pensato per favorire un rapporto più diretto tra amministrazione finanziaria e contribuenti. Nelle conclusioni, il vice ministro Maurizio Leo ha sottolineato proprio l’importanza di questo approccio basato sulla collaborazione e sulla trasparenza, indicando possibili sviluppi futuri per sostenere il sistema calcio. Per il presidente della Lega Serie A, Ezio Simonelli, il confronto rappresenta «un passaggio molto importante per il futuro del calcio». Simonelli ha ricordato come la Lega abbia già attivato, all’interno della propria Commissione fiscale, un tavolo dedicato al sistema di controllo del rischio fiscale, con l’obiettivo di definire una valutazione specifica per il settore.
Il dialogo con le istituzioni – dalla Commissione indipendente all’Inps, dall’Agenzia delle Entrate al ministero dell’Economia – secondo il numero uno della Lega conferma la volontà di rafforzare i principi di sostenibilità e trasparenza nella gestione delle società sportive. Un percorso che punta a costruire un modello più solido per il calcio italiano nei prossimi anni.
Continua a leggereRiduci
Ecco #DimmiLaVerità del 16 marzo 2026. La nostra Francesca Ronchin ci rivela i dettagli dell'egemonia della sinistra nelle associazioni degli italiani all'estero.
iStock
Uno studio del King’s College di Londra mette alla prova i principali modelli di intelligenza artificiale in simulazioni di crisi geopolitiche. Nel 95% dei casi l’escalation termina con l’uso di armi nucleari tattiche: per gli algoritmi la vittoria strategica conta più di qualsiasi tabù morale.
L’IA e il vizio del nucleare: nelle simulazioni di guerra effettuate con l’intelligenza artificiale l’arma atomica non è un tabù
Gli appassionati di cinema ricorderanno certamente Skynet, la malvagia super-intelligenza artificiale che nel mondo fantascientifico della saga Terminator inizia la sua guerra all’umanità scatenando l’apocalisse nucleare. Quella era fantascienza, per fortuna. Eppure, nelle simulazioni di guerra effettuate al King’s College di Londra utilizzando i tre principali modelli di IA (ChatGPT, Gemini e Claude Sonnet), questi ultimi appaiono molto più disposti a ricorrere all’arma atomica rispetto alla controparte umana di fronte a crisi geopolitiche simulate.
L’esperimento voleva replicare i war games, quei giochi di guerra effettuati dagli Stati Maggiori di tutte le principali forze armate del mondo in cui vengono simulati scenari di crisi. Tra esse vi erano intensi scontri internazionali, dispute sui confini, competizione per risorse scarse e minacce esistenziali alla sopravvivenza dei regimi. Le simulazioni sono state ben 21, con un vasto range di opzioni fornito ai tre modelli IA, che andavano dalle semplici proteste diplomatiche alla resa completa fino alla guerra nucleare strategica totale. Ebbene, nel 95% dei casi la simulazione è terminata con l’utilizzo di almeno un’arma nucleare tattica da parte dei modelli di IA.
Appare quindi chiaro che per l’intelligenza artificiale il tabù nucleare non sia poi così tanto un tabù. Mentre un leader umano è (o dovrebbe essere) condizionato da un insieme di fattori etici, emotivi e politici, tali da rendere l’opzione atomica l’ultima risorsa assoluta, i modelli di intelligenza artificiale, invece, sembrano operare secondo una logica puramente utilitaristica e strategica.
Per l’IA, la vittoria è l’obiettivo primario, e se l’uso di armi nucleari tattiche rappresenta il percorso più efficiente per raggiungerla, allora quella diventa la scelta preferibile, scevra da remore morali o dalla paura delle conseguenze a lungo termine. Durante le simulazioni svolte dal King’s College, infatti, in nessun caso i modelli hanno optato per la resa, anche di fronte a una sconfitta palese, preferendo sempre un’escalation della violenza.
Può sembrare cosa da poco, ma l'intelligenza artificiale è già stata testata in giochi di guerra da Paesi di tutto il mondo. Di più, l’integrazione dell’intelligenza artificiale nei sistemi di difesa è una realtà che appare ormai inarrestabile.
Basti pensare che per l’anno fiscale 2026 il Pentagono ha allocato 9,8 miliardi di dollari solo per sistemi autonomi e IA, mentre la Russia, secondo un report del Center for Strategic and International Studies, effettua ormai l’80% delle sue missioni di fuoco con droni, e sta puntando forte sull’integrazione dell’IA per il comando e controllo di tali missioni.
L’attrattiva è innegabile. Essa promette di accelerare il ciclo decisionale, analizzando enormi quantità di dati in tempo reale; dalla logistica alla sorveglianza, dalla cyberguerra alla guida di veicoli autonomi. L’impronta nel settore militare è insomma destinata a crescere in modo esponenziale. Ma è proprio per questo che l’esperimento del King’s College suona come un campanello d’allarme che non può essere ignorato. Affidare a un’intelligenza artificiale, per quanto avanzata, decisioni che implicano l’uso di forza letale, e in particolare di armi di distruzione di massa, richiede una riflessione profonda e un’attenzione meticolosa alla sua programmazione.
D’altra parte è proprio questo uno dei motivi di forte attrito tra il Ceo di Anthropic, Dario Amodei, e il Pentagono. Il proprietario di Sonnet vuole che il suo software IA non venga utilizzato in armi autonome e per la sorveglianza di massa, mentre il governo americano desidera l’accesso completo al software senza restrizioni. Non si tratta solo di scrivere un codice efficiente, ma di infondere nei sistemi di IA dei principi etici solidi, dei vincoli morali invalicabili e delle “linee rosse” che non possano essere superate neanche nel perseguimento dell’obiettivo strategico.
La sfida è anche filosofica, oltre che politica. Come possiamo insegnare a una macchina il valore della vita umana e il principio di proporzionalità? La risposta a questa domanda determinerà se l’intelligenza artificiale sarà un utile strumento per la sicurezza o un acceleratore di distruzione.
Continua a leggereRiduci
2026-03-16
Tajani: «Siamo alla guida dell'operazione Aspides, ma le missioni non sono allargabili a Hormuz»
True
Lo ha dichiarato il ministro degli Esteri a margine del Consiglio Affari esteri che si è svolto a Bruxelles.







