2019-01-16
L'Eni può aiutarci in Libia, ma ci vorrà un accordo politico con Russia e Arabia Saudita
www.laverita.info
Ecco #DimmiLaVerità del 15 aprile 2026. Con la nostra Flaminia Camilletti commentiamo lo scontro tra Donald Trump e Giorgia Meloni.
La sinistra italiana ed europea festeggiano un Parlamento ungherese composto al 97% da esponenti di destra, dove l’area progressista è stata cancellata dalle urne. Com’è possibile? C’è una verità più profonda che svela la natura della politica odierna: i progressisti hanno abbandonato ogni connotato laburista per trasformarsi nel custode dell’apparato europeista.
A guardarla, sembrava vera. Ma è stato proprio questo il problema. Perché invece quella radiografia era falsa, generata dall'intelligenza artificiale. Eppure ci sono cascati tutti. Perché se un referto medico così importante può apparire autentica anche agli occhi di un medico esperto, allora il rischio non riguarda più soltanto la diagnosi. Riguarda il denaro, i risarcimenti, i contenziosi, le frodi. Riguarda un pezzo crescente della sicurezza digitale che finora è rimasto ai margini del racconto pubblico: la possibilità che immagini cliniche, file audio, video e comunicazioni manipolate con l’AI entrino nei processi assicurativi e sanitari come prove credibili, abbastanza credibili da far scattare pagamenti, perizie o decisioni sbagliate.
Il punto non è più teorico. Uno studio pubblicato su Radiology ha mostrato che immagini radiografiche sintetiche create dall’AI possono ingannare sia i radiologi sia gli stessi sistemi di intelligenza artificiale. Nel test, 17 specialisti di 12 ospedali in sei Paesi hanno esaminato 264 immagini, metà autentiche e metà artificiali: senza sapere della presenza dei falsi, sono riusciti a riconoscerli correttamente solo nel 41% dei casi; anche dopo essere stati avvertiti, l’accuratezza media si è fermata al 75%. Tradotto: il falso ha già raggiunto un livello di qualità sufficiente a entrare nella zona grigia dove una prova non è più immediatamente distinguibile da una manipolazione.
È in questa zona grigia che la cybercriminalità cambia pelle. Per anni il rischio informatico è stato associato soprattutto a intrusioni, ransomware, phishing, furti di dati. I deepfake aggiungono un livello diverso e più insidioso: non attaccano solo i sistemi, attaccano la fiducia. Non forzano una porta, si presentano come qualcosa che sembra legittimo. Una voce che chiede un bonifico urgente. Un video che conferma un ordine. Un’immagine clinica che rafforza una richiesta di rimborso. Una prova che appare tecnica e quindi, per definizione, affidabile.
Il caso di Hong Kong, dove un dipendente ha autorizzato trasferimenti per oltre 25 milioni di dollari dopo una videoconferenza con dirigenti in realtà ricostruiti artificialmente, è diventato il simbolo di questo salto. Non c’entra la sanità, ma spiega bene il meccanismo: il deepfake non serve più soltanto a ingannare l’opinione pubblica, serve a far funzionare una frode dentro procedure ordinarie. È questo il passaggio decisivo. Il falso non si limita a circolare. Entra nei processi.
Per questo la partnership tra identifAI e AmTrust Assicurazioni merita attenzione ben oltre il recinto delle notizie di settore. La compagnia ha deciso di integrare strumenti di rilevamento deepfake dentro la propria offerta cyber per imprese e organizzazioni sanitarie, con servizi di verifica per immagini, video e audio e con un’estensione specifica contro la frode digitale. È il segnale che il mercato assicurativo comincia a considerare il deepfake non come un rischio reputazionale o mediatico, ma come un rischio operativo, economico e potenzialmente assicurabile.
«L'Intelligenza Artificiale generativa» – commenta Marco Ramilli, founder di IdentifAI - «ha reso indistinguibile il vero dal falso, mettendoci di fronte a una scelta. Non possiamo più credere a tutto ciò che vediamo, ma vivere nel sospetto perpetuo è contro la nostra natura umana. Per non rassegnarci alla 'Società del Dubbio', dobbiamo costruire i nostri anticorpi digitali. Sviluppare e adottare strumenti di AI detection è il passo fondamentale per riprenderci il nostro diritto più grande: quello di fidarci ancora. identifAI nasce proprio per colmare questo gap: addestriamo modelli di visione artificiale avanzati per contrastare l'output generativo, garantendo il diritto fondamentale alla verifica dell’autenticità».
La sanità è il terreno più delicato di tutti. Perché qui l’autenticità di un’immagine non ha solo un valore informativo: può incidere su diagnosi, invalidità, responsabilità professionale, liquidazione di sinistri, cause civili. Se una radiografia falsa può sembrare plausibile, il problema non riguarda solo il medico che la interpreta. Riguarda l’intera filiera: chi produce il file, chi lo conserva, chi lo valuta, chi ci costruisce sopra una decisione clinica o un rimborso. In un contesto del genere, il deepfake non è un semplice falso digitale. È un attacco alla catena della prova.
Ed è qui che il tema diventa pienamente cyber. Perché la sicurezza non coincide più soltanto con la difesa delle reti o dei server. Coincide anche con la capacità di verificare l’autenticità di ciò che circola dentro un’organizzazione. Europol da tempo avverte che audio, video e immagini sintetiche possono essere usati per impersonation, frodi e manipolazione delle evidenze. La novità è che adesso questa minaccia sta trovando un punto di contatto diretto con assicurazioni, strutture sanitarie e processi aziendali reali.
La questione di fondo è semplice e scomoda. Per decenni il digitale è stato raccontato come il regno della tracciabilità. Oggi rischia di diventare anche il regno dell’ambiguità. Vedere non basta più. Ascoltare non basta più. Ricevere un’immagine o un documento non basta più. E quando questo accade nei settori dove una prova può generare un risarcimento o orientare una diagnosi, il problema smette di essere tecnologico in senso stretto. Diventa industriale, giuridico, assicurativo.
È questo che la vicenda identifAI-AmTrust porta alla luce. Non la promessa di una soluzione definitiva, che oggi non esiste, ma la presa d’atto che il confine tra vero e falso è ormai diventato un tema di sicurezza economica. E che la prima infrastruttura da proteggere, ormai, non è solo il sistema. È la fiducia.
C’è un passaggio, in questo libro, che arriva prima ancora delle singole tesi: la sensazione che il terreno della cybersicurezza si sia spostato. Non più soltanto server, reti, password, malware. Non più soltanto il perimetro tecnico da difendere. Il bersaglio vero, suggeriscono Pierguido Iezzi e Gennaro Fusco in Hackerare la mente. Parole, algoritmi e inganni. Come difendere la propria libertà digitale, è diventato l’uomo, o più precisamente la sua attenzione, la sua emotività, la sua capacità di giudizio. È una tesi molto forte, ma proprio qui sta qui uno dei pregi del volume: affronta un tema che si presta facilmente all’allarmismo con un tono invece misurato, accessibile, spesso persino didattico.
Il libro parte da una constatazione che oggi appare sempre meno evitabile: le tecnologie digitali non si limitano a raccogliere dati, organizzare informazioni o automatizzare compiti. Intervengono nel modo in cui percepiamo la realtà, reagiamo agli stimoli, interpretiamo i messaggi, prendiamo decisioni. Per questo la sicurezza, spiegano gli autori, non può più essere pensata solo come difesa di infrastrutture e archivi. Deve includere la difesa della sfera cognitiva, cioè di quello spazio fragile in cui si formano convinzioni, paure, fiducia, urgenza. Il punto, in sostanza, è che la mente umana è diventata una superficie di attacco.
Iezzi, con la sua lunga esperienza nella cybersecurity, e Fusco, che porta nel libro una sensibilità più legata al linguaggio, alla comunicazione e ai processi decisionali, costruiscono un percorso che tiene insieme tecnica e antropologia del digitale. È proprio questa doppia chiave a rendere il saggio interessante. Da una parte c’è la descrizione del contesto: phishing evoluto, chatbot, notifiche, social network, sistemi predittivi, modelli linguistici generativi. Dall’altra c’è la domanda più importante: perché tutto questo funziona? La risposta è nel titolo. Perché prima ancora di hackerare una macchina, oggi si può hackerare un comportamento.
Il cuore del libro è infatti il cognitive hacking, nozione che qui viene resa in modo chiaro anche per un lettore non specialista. Non si tratta della violazione di un dispositivo, ma dell’influenza esercitata su una persona attraverso messaggi progettati per attivare scorciatoie mentali, emozioni, riflessi automatici. Fiducia, paura, fretta, desiderio di appartenenza: sono questi, più delle vulnerabilità software, i varchi da cui passa la manipolazione contemporanea. In questo senso il saggio ha il merito di ricordare una verità spesso rimossa dal discorso pubblico sulla tecnologia: il fattore umano non è un dettaglio residuale del sistema, è il sistema.
Molto efficace è anche l’insistenza sul linguaggio. Le parole, osservano gli autori, non descrivono soltanto il mondo: lo orientano. Nel paesaggio digitale, questa intuizione diventa ancora più decisiva, perché ogni interfaccia, ogni messaggio, ogni notifica è costruita per suggerire una reazione. Un clic, una conferma, una condivisione, un acquisto, una fiducia accordata quasi automaticamente. In questo quadro l’intelligenza artificiale generativa rappresenta un salto di qualità: rende la persuasione più fluida, più precisa, più personalizzata. Le vecchie truffe si riconoscevano spesso dagli errori, dalle goffaggini, dai segnali vistosi della manipolazione. Le nuove, invece, possono essere impeccabili. E proprio per questo più pericolose.
Il merito del volume è non fermarsi alla denuncia. Hackerare la mente prova anche a offrire strumenti di orientamento. Non promette ricette semplici, e fa bene, perché il tema non si presta a soluzioni miracolose. Ma insiste su alcuni antidoti concreti: una nuova igiene comunicativa, la consapevolezza dei bias cognitivi, la capacità di rallentare davanti ai messaggi costruiti per imporre urgenza, l’esigenza di una alfabetizzazione digitale che non sia solo tecnica ma anche psicologica. È forse questa la parte più utile del libro, quella che lo rende più di un saggio di scenario: una guida civile, nel senso più ampio del termine.
Colpisce il fatto che il libro arrivi in un momento in cui il lessico della cybersicurezza appare improvvisamente insufficiente. Non basta più parlare di dati violati, account compromessi, identità rubate. O almeno non basta se non si comprende che l’attacco si è spostato anche sul piano della percezione. Da questo punto di vista la prefazione di Lorenzo Guerini e la postfazione di mons. Renzo Pegoraro ampliano il raggio della riflessione: non siamo soltanto davanti a una questione tecnica o individuale, ma a un problema che tocca la qualità della democrazia, la libertà personale, l’autonomia del giudizio. Quando gli strumenti di influenza diventano industriali, invisibili e adattivi, la difesa della mente non è più una metafora.
Il titolo del libro può sembrare provocatorio, ma alla fine coglie il punto. Perché ciò che un tempo appariva come una distorsione occasionale oggi rischia di diventare la normalità delle nostre interazioni digitali. Ed è qui che il saggio trova la sua ragion d’essere più solida: nel mostrare che la libertà, nell’ecosistema contemporaneo, non dipende soltanto dall’accesso alle informazioni, ma anche dalla capacità di riconoscere quando quelle informazioni sono costruite per portarci altrove.
Mentre nello Stato europeo dove «la democrazia è a rischio» si tengono le elezioni che portano chi è stato al governo per 15 anni (come il Pd, però Orbán le elezioni le aveva vinte) a cedere il governo allo sfidante, Ursula von der Leyen accorre a ribadire il menu della Ue con tanto di riferimento al «superamento dell’unanimità», quello sì un vero e proprio rischio sostanziale per la democrazia.
Fortunatamente, per ora, Peter Magyar sta confermando la linea di Orbán pressoché su tutto - anche perché dire che il gas e la benzina «non servono» è una roba per chi si era preso la «Tesla a rate» -, ed è proprio qui che si apre la riflessione sulla sinistra che esulta quando in Ungheria si è formato il Parlamento più a destra della sua storia. I conservatori si aggiudicano 138 seggi su 199, l’opposizione ai conservatori la fanno i sovranisti di Orbán con 55 seggi, l’estrema destra se ne aggiudica 7 e la sinistra ungherese evapora verso l’1% con zero seggi.
In questo contesto la sinistra italiana, ed europea in generale, si dichiara vincitrice perché il copione resistenziale sulla base del quale escono ancora libri sul fascismo che sembrano scritti nel 1944 impone le feste in piazza per non svelare che tutta la narrazione sul «rischio democratico» era una balla. Non si tratta, dunque, di miopia tattica, ma di ingenua rivelazione strutturale: la sinistra ha definitivamente smesso di essere laburista e si è ridotta al ruolo di preservazione del governo parallelo che in ogni nazione occidentale si occupa di sorvegliare l’agenda globalista. Si sta così assistendo al definitivo smascheramento della politica non più legata a qualsivoglia ruolo di intervento sulla reale composizione sociale di una nazione ma intesa come mera estensione degli apparati. Organizzazioni non governative, fondazioni, think tank, burocrazia Ue, burocrazia statale, apparato culturale, media, Terzo settore: sono questi i presidi gramsciani irrinunciabili, ed è qui che si combatte la vera battaglia politica per il controllo e il dominio della società. Ogni contenuto - «nuovi diritti», uguaglianza, antifascismo, immigrazionismo - è subordinato alla necessità di avere vertici politici che non ostacolino il flusso di risorse che dai fondi pubblici arrivano agli apparati.
Il caso ungherese è particolarmente interessante proprio perché non concede la benché minima possibilità di presentare il risultato come «una vittoria della sinistra», eppure c’è chi balla comunque in piazza. Lo stesso Magyar viene celebrato non perché «di sinistra» - qualcuno dice che «è più a sinistra di Orbán» ma in realtà su alcuni aspetti è più a destra - ma perché è europeista, più convintamente pro-Nato di Orbán e mercatista-liberale. Affermare che Magyar «soddisfa il bisogno di protezione economica e di sicurezza collettiva» significa svelare l’identificazione tra «bene» e Unione europea, tra sinistra e Unione europea e tra apparato tecnocratico e «libertà». In questa sorta di microfisica del potere i contenuti politici scompaiono e la politica non governa più ma si limita a gestire i flussi di sovvenzioni e legittimazione riducendo ogni conflitto politico alla garanzia di finanziamento per quel sistema parallelo che si identifica ormai a tutti gli effetti con la «tenuta democratica del Paese».
In questo modo, tuttavia, il concetto stesso di rappresentanza democratica entra in crisi: se le elezioni sono semplicemente il rito che legittima l’occupazione gramsciana delle istituzioni, allora non esiste più una reale possibilità di compiere scelte alternative. L’aver definito tutto ciò che fuoriesce dall’ambito della sinistra globalista come «fascista» ha portato con sé il frutto avvelenato della fine della democrazia e in questo senso la follia woke ha svolto il ruolo di salutare catalizzatore per coloro che avrebbero anche potuto credere che in fondo l’Emilia, la Toscana e San Francisco sono davvero «il migliore dei mondi possibili» al di fuori dei quali è inutile andare. Le strane esultanze di oggi stanno dunque dimostrando che Viktor Orbán era il «male assoluto» non per le politiche economiche o migratorie in sé, ma perché ha compiuto il peccato mortale di aver limitato l’ingerenza delle Ong e dei fondi Ue condizionali.
La politica si riduce così a fabbrica di «nuovi diritti» - economici, sessuoidentitari, ambientali - strutturati in modo da diventare oggetto di gestione amministrativa da parte di un enorme apparato controllato interamente dalla sinistra; chi consente questo meccanismo è «democratico» a prescindere dai contenuti politici che dichiara di perseguire, chi lo impedisce è «fascista». Ma giacché, come fatto notare tra gli altri da Giorgio Agamben, i «diritti» di per sé non emancipano, allora non possiamo non pensare che essi siano in realtà costruiti per moltiplicare le dipendenze dall’apparato e i «dispositivi di cattura» che lo Stato pone in azione nei confronti dei cittadini. Esultare perché i propri avversari hanno stravinto le elezioni sta mostrando proprio questo, che in realtà la posta in gioco era un’altra, non era la politica intesa in senso novecentesco ma era il semplice lasciapassare senza il quale le élite fanno più fatica ad agire.

