True
2023-01-30
«Se vince l’algoritmo è un grosso rischio per le nostre libertà»
iStock
Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.
Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività».
I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta.
Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione.
Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo.
L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini.
Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina.
Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi.
Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.
Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori»
Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue.
Professore, come legge questo risultato?
«Le persone tendono ad avere più fiducia nelle macchine che nelle persone».
L’intelligenza artificiale non è corruttibile, invece…
«Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine».
E allora, quali problemi potremmo avere con l’Ai?
«Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi».
Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità…
«Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà».
Ma migliorano la vita delle persone…
«Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?».
Cosa c’entra tutto questo con l’Ai?
«Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori».
Come siamo arrivati a questo punto?
«È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai».
L’intelligenza artificiale è dunque ineluttabile?
«Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita».
Dietro Chatgpt un esercito di operai digitali
Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto.
Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma.
Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei.
La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate».
È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai.
Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Continua a leggereRiduci
Dicono che sveltirà la burocrazia, la sanità, la produzione industriale. Ma è fatta per togliere responsabilità. E anche nell’Ue, che la finanzia, aumentano i dubbi.Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori».Dietro Chatgpt un esercito di operai digitali. Serve una schiera di moderatori per filtrare i contenuti. Esperti critici sulle sue capacità: «È sopravvalutato».Lo speciale comprende tre articoli. Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività». I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta. Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione. Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo. L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini. Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina. Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi. Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.<div class="rebellt-item col1" id="rebelltitem2" data-id="2" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=2#rebelltitem2" data-basename="lo-psicoanalista-emilio-mordini-la-dittatura-delle-regole-avanza-quanto-piu-la-societa-si-affida-a-procedure-amministrate-da-calcolatori" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori» Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue. Professore, come legge questo risultato? «Le persone tendono ad avere più fiducia nelle macchine che nelle persone». L’intelligenza artificiale non è corruttibile, invece… «Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine». E allora, quali problemi potremmo avere con l’Ai? «Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi». Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità… «Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà». Ma migliorano la vita delle persone… «Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?». Cosa c’entra tutto questo con l’Ai? «Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori». Come siamo arrivati a questo punto? «È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai». L’intelligenza artificiale è dunque ineluttabile? «Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita». <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=1#rebelltitem1" data-basename="dietro-chatgpt-un-esercito-di-operai-digitali" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Dietro Chatgpt un esercito di operai digitali Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto. Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma. Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei. La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate». È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai. Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Ansa
Cupi riverberi, brividi bipartisan senza senso, rigurgiti di una stagione dialetticamente isterica nelle piazze e pure dentro le istituzioni; tutti ricordano Maurizio Landini che pochi mesi fa da un palco invocava «la rivolta sociale». Sull’aggressione romana, le forze dell’ordine hanno sintetizzato i racconti delle vittime: gli assalitori erano a volto coperto, in possesso di coltelli e di radio per comunicare senza il rischio di essere intercettati. Il presidente di Gioventù nazionale Roma, Francesco Todde, ha parlato di «un commando di più di 20 professionisti dell’odio politico» e ha spiegato: «I nostri ragazzi sono stati aggrediti con violenza mentre affiggevano un manifesto che parla di libertà, con l’obiettivo di ricordare come figli d’Italia tutti i ragazzi caduti in quegli anni di violenza infame, mentre l’odio politico portava al massacro di chi credeva nelle sue idee. Mai il nostro movimento si è contraddistinto per attacchi pianificati e violenti per ragioni politiche; al contrario questo episodio si aggiunge alla lunga lista di aggressioni ai nostri danni. Speriamo che la stampa, che un anno fa fece un gran rumore sul pericolo fascismo in Gioventù nazionale, parli anche di questo».
Difficile. Ancora più difficile che qualcuno si scomodi per la targa distrutta a Milano in memoria dell’agente ucciso dagli ultrà della rivoluzione permanente. Perché a tenere banco sono i proiettili alla Cgil, nella logica molto gauchiste dei «dos pesos y dos misuras» (copyright Paolo Pillitteri). Su quelli, con dinamiche e retroscena tutti da scoprire, si è immediatamente scatenata la grancassa del campo largo. Elly Schlein ha lanciato l’allarme selettivo: «Quanto accaduto a Primavalle è inaccettabile, esplodere colpi d’arma da fuoco contro la sede di un sindacato è un gesto di gravità inaudita. È urgente alzare la guardia, i sindacati sono presidi di democrazia e nessuna intimidazione ne depotenzierà il valore».
Più equilibrato Roberto Gualtieri, che si è ricordato di essere sindaco anche del Tuscolano: «Roma è una città che ripudia ogni forma di violenza politica, sia quando si manifesta contro sedi di partito, sindacati e associazioni, sia quando prende la forma di aggressione di strada come avvenuto nella notte in via Tuscolana ai danni dei militanti di Gioventù nazionale mentre affiggevano manifesti. La libertà di espressione e il confronto civile sono gli unici strumenti attraverso cui si costruisce la convivenza democratica».
Riguardo all’idiosincrasia nei confronti delle commemorazioni altrui, gli anni di piombo rimangono un nervo scoperto per la sinistra, che non ha mai voluto farci i conti tramandando alle galassie studentesche e ai centri sociali la mistica fasulla dei «compagni che sbagliano» e dei ragazzi «che volevano fare la rivoluzione». Dipinti come pulcini teneri e inconsapevoli, in realtà erano assassini, ben consci che le P38 sparavano proiettili veri ad altezza d’uomo. È surreale come, a distanza di mezzo secolo, quella parte politica faccia una fatica pazzesca a sopportare che chi ha avuto dei morti (in campo avverso o fra le forze dell’ordine) possa pretendere di ricordarli.
La commemorazione delle vittime (Franco Bigonzetti, Francesco Ciavatta, Stefano Recchioni) nel 48° anniversario di Acca Larenzia ha dato spunto a Giorgia Meloni per rilanciare un richiamo non certo alla memoria condivisa - dopo 50 anni a sinistra non si riesce neppure a condividere la pietà per i defunti -, ma a una pacificazione nazionale. Era l’obiettivo di Francesco Cossiga, Carlo Azeglio Ciampi e Luciano Violante ma oggi, con il governo di centrodestra in sella, per l’opposizione è più facile evocare toni da guerra civile. Con indignazione lunare a giorni alterni per il pericolo fascismo.
La premier ha sottolineato come «quelli del terrorismo e dell’odio politico sono stati anni bui, in cui troppo sangue innocente è stato versato, da più parti. Ferite che hanno colpito famiglie, comunità, l’intero popolo italiano a prescindere dal colore politico. L’Italia merita una vera e definitiva pacificazione nazionale». Riferendosi alla battaglia politica attuale, Meloni ha aggiunto: «Quando il dissenso diventa aggressione, quando un’idea viene zittita con la forza, la democrazia perde sempre. Abbiamo il dovere di custodire la memoria e di ribadire con chiarezza che la violenza politica, in ogni sua forma, è sempre una sconfitta. Non è mai giustificabile. Non deve mai più tornare».
Continua a leggereRiduci
Ecco #DimmiLaVerità dell'8 gennaio 2026. Il commento del nostro Fabio Amendolara: «Gli immigrati che delinquono vengono espulsi ma restano comunque in Italia. E a volte uccidono».
Jacques Moretti e Jessica Maric (Ansa)
È pericoloso lasciare i coniugi Moretti in libertà, perché potrebbero fuggire. Lo pensano gli avvocati delle famiglie delle vittime che, per provare a mitigare l’enorme dolore, chiedono giustizia. E, in effetti, fuggire non sarebbe una novità, almeno per Jessica Maric, titolare del locale Le Constellation insieme al marito Jacques Moretti, a quanto pare ripresa da due telecamere di sorveglianza in quella notte di orrore mentre si allontanava dal locale che andava a fuoco con la cassa sottobraccio, lasciando dietro di sé le grida di aiuto dei ragazzini a cui aveva spillato 100 euro per il biglietto di ingresso. Un particolare quasi osceno, se fosse confermato. Mentre quello che non ha bisogno di conferme è il fatto che lei, là sotto, a tentare di salvare i giovani intrappolati tra le fiamme, non c’era.
A denunciare la mollezza del sistema giudiziario svizzero a fronte di una tragedia immane, che ha ucciso, bruciandoli vivi, 40 giovanissimi e ne ha feriti gravemente altri 116, ustionandoli così in profondità che molti ancora lottano tra la vita e la morte, sono i legali che assistono le vittime e le famiglie del rogo di capodanno a Le Constellation di Crans-Montana. «È un rischio aver lasciato i gestori del Costellation in libertà. Immaginate cosa succederebbe per le vittime se queste persone lasciassero la Svizzera e non si potesse avere il processo che è dovuto ai genitori e alle famiglie delle vittime», ha dichiarato l’avvocato Sébastien Fanti, alla tv svizzera Rts. I due risultano indagati per omicidio colposo e lesioni colpose ma, alla luce di quello che sta emergendo, «si parla potenzialmente di lesioni personali gravi, intenzionali, con dolo eventuale», aggiunge un altro avvocato delle famiglie, Alain Mancaluso che, insieme al collega Romain Jordan, si dice «scioccato» anche del fatto che che «i legali siano esclusi dalle audizioni» e non possano partecipare alle prime fasi delle indagini.
Eppure, la decisione di non arrestare i due gestori è stata confermata, anche ieri, dalla procuratrice generale del Canton Vallese, Béatrice Pilloud: «In questa fase non ci sono indicazioni di un rischio di fuga, di collusione o recidiva. Ma la situazione viene valutata costantemente», ha ribadito, mentre, per quanto riguarda l’esclusione dei legali, Pilloud si è giustificata sostenendo che serve ad «evitare fughe di notizie dato il carattere mediatico del dossier».
Eppure, che fosse pericoloso accendere candele pirotecniche in quel seminterrato, i gestori non potevano ignorarlo: a dimostrarlo c’è il video che, ormai da giorni è stato diffuso, sul Capodanno 2020 quando uno dei camerieri, davanti a una scena del tutto simile a quella che ha dato via al rogo una settimana fa (cioè qualcuno che, sollevando le candele durate la festa, avvicinava le scintille al soffitto) gridava: «Attenti alla schiuma!». Ma torniamo a Jessica, la quarantenne di origini corse che insieme al marito - noto alla giustizia per truffa, sfruttamento della prostituzione e sequestro di persona - in pochi anni, dal nulla, ha costruito un impero nel settore della ristorazione nella piccola e costosissima Crans-Montana.
A quanto risulta, le telecamere di sorveglianza l’avrebbero immortalata mentre lasciava in tutta fretta il luogo della tragedia stringendo tra le mani la cassa del locale mentre il figlio, capo staff di Le Constellation, sarebbe stato ripreso mentre tentava di sfondare dall’interno i pannelli di plexiglass che chiudevano la veranda. Se le indiscrezioni sulla sua condotta si rivelassero vere, sarebbe un ennesimo elemento che aggiunge orrore alla tragedia. Comunque sia, da quella notte infernale Jessica è uscita illesa, solo con una piccola bruciatura al braccio. E si capisce bene il motivo: non c’è traccia di lei nelle immagini che riprendono gli ultimi istanti di vita di tante vittime imprigionate nel sotterraneo, non ha incitato quei giovani quasi incantati dalle fiamme al soffitto a scappare né la si intravede all’esterno a tentare di far uscire chi era rimasto intrappolato, come invece era suo dovere.
Nei prossimi giorni, l’ambasciatore italiano Gian Lorenzo Cornado si recherà a Sion e incontrerà le autorità del Canton Vallese «per acquisire informazioni sulle indagini», ha spiegato. Intanto dall’ospedale Niguarda dove sono ricoverati 11 pazienti, arrivano notizie contrastanti: «La situazione rimane stabile con lievi accenni di miglioramento per alcuni di loro», ma «rimangono critiche le condizioni di tre persone a causa delle ustioni riportate e di danni importanti a livello polmonare causati dalle inalazioni».
E nel dolore straziante di chi è rimasto, c’è ancora una famiglia che stenta a credere a quanto è accaduto. Sono i genitori di Emanuele Galeppini, 17 anni, che ancora non sanno cosa ha causato la morte del loro figlio, perché il suo corpo non era ustionato come si aspettavano ma perfettamente integro. «Non sono bruciati neppure il telefono cellulare e il portafoglio», ha fatto sapere il legale della famiglia, «vogliono sapere com’è morto. Abbiamo chiesto alla autorità svizzere spiegazioni ma non ci hanno nemmeno risposto».
Musica, lacrime e rabbia durante i quattro funerali dei ragazzi morti nel rogo
Fiori bianchi, note struggenti, tanti abbracci e tante lacrime. Ieri in Italia l’ultimo doloroso saluto alle giovani vittime di Capodanno nel devastante rogo de Le Constellation di Crans-Montana.A Milano, dove il sindaco Beppe Sala aveva proclamato il lutto cittadino, si sono svolti i funerali di Chiara Costanzo e Achille Barosi in due basiliche simbolo della città. La cerimonia funebre di Chiara in Santa Maria delle Grazie, quella di Achille in Sant’Ambrogio. «Oggi non siamo qui a cercare spiegazioni o colpe, ci sarà tempo anche per questo ma non è oggi», ha detto monsignor Alberto Torriani, arcivescovo di Crotone, rivolgendosi a papà Andrea Costanzo, mamma Giovanna, e ai fratelli Camilla, Elena e Luca. «Noi siamo stati abbracciati da tutta Italia, abbiamo tutti sete di verità e che queste cose non succedano mai più», ha detto il padre Andrea che, al termine delle esequie in un breve colloquio con il ministro dell’Istruzione, Giuseppe Valditara, ha affermato: «Il presidente Meloni è stata umana e attenta nei nostri confronti. Siccome non ho mai avuto la possibilità di stringerle la mano, vorrei parlare con lei ed essere rassicurato che non ci siano omissioni. Le indagini vanno effettuate con scrupolo. Serve giustizia. Visto che le nostre istituzioni si sono dimostrate molto serie, sono convinto che il presidente sia con noi. Non sono un tecnico ma vorrei che l’Italia si costituisse parte civile». Un mazzo di rose bianche, un lungo applauso e le note di Perdutamente di Achille Lauro, fuori dalla Basilica di Sant’Ambrogio, per i funerali di Achille Barosi. Il nonno Osvaldo ha voluto ringraziare i poliziotti che avevano formato un cordone a protezione del carro ed ha aggiunto: «L’unica cosa che posso dire è che ci vuole solamente tanta fede e tanto amore ed essere vicini, è l’unica medicina che possiamo avere gratis per non cercare di sprofondare nella disperazione». Nella Capitale, oltre ai parenti e agli amici, per l’ultimo saluto a Riccardo Minghetti nella basilica di San Pietro e Paolo all’Eur c’erano anche i ministri dello Sport e della Salute, Andrea Abodi e Orazio Schillaci, il sindaco di Roma, Roberto Gualtieri e il presidente della Regione Lazio, Francesco Rocca. Sulla bara, accanto alla foto di Riccardo, la corona di fiori firmata «Ma, papà e Matilde», la sorella di 14 anni che quella tragica notte ha scavato tra le macerie alla ricerca del fratello. Dal pulpito la mamma ha ricordato: «Riccardo aveva un cuore grande, tenero e gentile, dietro la sua ironia e l’irrequietezza nascondeva una profonda sensibilità. Ci ha fatto faticare, ma era buono». «La vostra presenza qui oggi è il segno di quanto Riccardo ha fatto nella sua breve vita donandosi con generosità», ha detto in lacrime il papà Massimo. Uscendo dalla chiesa i genitori hanno sottolineato: «Non proviamo rabbia, solo dolore, ma vogliamo che sia fatta giustizia». «Condividere questo dolore con altre persone ti dà la forza», ha aggiunto la mamma, che ha ringraziato il presidente Meloni che è stata vicina anche a livello personale a tutti i genitori».«Il primo gennaio hai perso la vita e io l’ho persa con te, a differenza tua io vivrò con un vuoto incolmabile ma tu no», ha detto, con voce rotta dal pianto, Giuseppe Tamburi, padre di Giovanni durante il funerale a Bologna. La passione per la musica univa Giovanni a don Stefano Greco, amico di famiglia e catechista del sedicenne, che proprio dagli spartiti ha iniziato il suo discorso parlando dell’Incompiuta di Schubert: «È perfetta e struggente perché incompleta. Giovanni è la nostra Incompiuta». A Lugano sono state celebrate le esequie di Sofia Prosperi, l’italosvizzera di 15 anni studentessa dell’International School di Fino Mornasco, nel Comasco. Chiesa gremita di ragazzi con una rosa bianca in mano per la messa celebrata dal vescovo Alain de Raemy. Oggi a Boccadasse, a Genova, si terrà in forma strettamente privata il funerale di Emanuele Galeppini, il giovane campione di golf.
Continua a leggereRiduci
George Soros (Ansa)
Il presidente degli Stati Uniti Donald Trump lo aveva già annunciato a fine agosto, accusando Soros e suo figlio Alex di sostenere proteste violente negli Stati Uniti. «Non permetteremo più a questi lunatici di fare a pezzi l’America, Soros e il suo gruppo di psicopatici hanno causato gravi danni al nostro Paese. Fate attenzione, vi stiamo osservando!», aveva avvisato Trump. A fine settembre 2025, il presidente Usa ha firmato un memorandum presidenziale che esortava le agenzie federali a «identificare e smantellare» le reti finanziarie presumibilmente a sostegno della violenza politica. Oggi, la lotta al «filantropo» che sostiene attivamente molti gruppi di protesta ha fatto un salto di qualità: secondo quanto annunciato da Jeanine Pirro, procuratore degli Stati Uniti nel distretto di Columbia, la Osf potrebbe essere equiparata a un’organizzazione terroristica ai sensi del Rico Act (Racketeer Influenced and Corrupt Organizations Act) e i conti correnti collegati a Soros potrebbero essere congelati, innescando un feroce dibattito sui finanziamenti alle attività politiche, la libertà di parola e la sicurezza nazionale.
Trump ha citato esplicitamente George Soros e Reid Hoffman (co-fondatore di LinkedIn e PayPal, attivista democratico e assiduo frequentatore delle riunioni del Gruppo Bildeberg) come «potenziali sostenitori finanziari dei disordini che hanno preso di mira l’applicazione federale delle politiche migratorie americane (“Ice operations”)». L’accusa principale di Trump è che le reti di potere che fanno capo a ricchi donatori allineati ai democratici stiano indirettamente finanziando gruppi «antifa» e soggetti coinvolti a vario titolo in scontri, danni alla proprietà privata e attacchi mirati alle operazioni contro l’immigrazione clandestina. L’obiettivo del governo non sarebbero, dunque, soltanto i cittadini che commettono crimini, ma anche l’infrastruttura a monte: donatori, organizzazioni, sponsor fiscali e qualsiasi entità che si presume stia foraggiando la violenza politica organizzata.
L’ipotesi di Trump, in effetti, non è così peregrina: da anni in America e in Europa piccoli gruppi di anonimi attivisti del clima (in Italia, Ultima Generazione, che blocca autostrade e imbratta opere d’arte e monumenti), sono in realtà strutturati all’interno di una rete internazionale (la A22), coordinata e sovvenzionata da una «holding» globale, il Cef (Climate Emergency Fund, organizzazione non-profit con sede nell’esclusiva Beverly Hills), che finanzia gli attivisti protagonisti di azioni di protesta radicale ed è a sua volta sostenuta da donatori privati, il 90% dei quali sono miliardari come Soros o Bill Gates. E se è questo il sistema che ruota intorno al Cef per il clima, lo stesso schema delle «matrioske» è stato adottato anche da altre organizzazioni che, sulla carta, oggi difendono «i diritti civili» o «la disinformazione e le fake news» (la cupola dei cosiddetti fact-checker che fa capo al Poynter Institute, ad esempio, orienta l’opinione pubblica e i legislatori in maniera spesso confacente ai propri interessi ed è finanziata anche da Soros), domani chissà.
Secondo gli oppositori di Trump, trattare gli «Antifa» come un gruppo terroristico convenzionale solleva ostacoli costituzionali che toccano la libertà di espressione tutelata dal Primo emendamento e l’attività di protesta. Ma il presidente tira dritto e intende coinvolgere tutto il governo: Dipartimento di Giustizia, Dhs (Dipartimento di sicurezza interna), Fbi, Tesoro e Irs (Internal Revenue Service), l’agenzia federale responsabile della riscossione delle tasse negli Stati Uniti. Sì, perché spesso dietro questi piccoli gruppi ci sono macchine da soldi, che ufficialmente raccolgono donazioni dai privati cittadini, ma per poche migliaia di dollari: il grosso dei finanziamenti proviene dai cosiddetti «filantropi» ed è disciplinato ai sensi della Section 501(c) che esenta dalle tasse le presunte «charitable contributions», ovvero le donazioni fatte dai miliardari progressisti a organizzazioni non profit qualificate. Per le azioni di disobbedienza civile contro le politiche climatiche, ad esempio, si sono mobilitati Trevor Neilson, ex strettissimo collaboratore di Bill Gates, ma anche Aileen Getty, figlia di John Paul Getty II dell’omonima compagnia petrolifera, e Rory Kennedy, figlia di Bob Kennedy: tutti, inesorabilmente, schierati con il Partito democratico americano.
In Italia, le azioni annunciate contro Soros sarebbero un brutto colpo per Bonino, Magi & Co., che sono legittimamente riusciti - chiedendo e ricevendo i contributi direttamente sui conti dei mandatari elettorali - a schivare il divieto ai partiti politici, stabilito dalla legge italiana, di ricevere finanziamenti da «persone giuridiche aventi sede in uno Stato estero non assoggettate a obblighi fiscali in Italia» e di accettare donazioni superiori ai 100.000 euro.
Continua a leggereRiduci