True
2023-01-30
«Se vince l’algoritmo è un grosso rischio per le nostre libertà»
iStock
Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.
Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività».
I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta.
Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione.
Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo.
L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini.
Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina.
Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi.
Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.
Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori»
Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue.
Professore, come legge questo risultato?
«Le persone tendono ad avere più fiducia nelle macchine che nelle persone».
L’intelligenza artificiale non è corruttibile, invece…
«Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine».
E allora, quali problemi potremmo avere con l’Ai?
«Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi».
Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità…
«Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà».
Ma migliorano la vita delle persone…
«Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?».
Cosa c’entra tutto questo con l’Ai?
«Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori».
Come siamo arrivati a questo punto?
«È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai».
L’intelligenza artificiale è dunque ineluttabile?
«Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita».
Dietro Chatgpt un esercito di operai digitali
Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto.
Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma.
Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei.
La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate».
È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai.
Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Continua a leggereRiduci
Dicono che sveltirà la burocrazia, la sanità, la produzione industriale. Ma è fatta per togliere responsabilità. E anche nell’Ue, che la finanzia, aumentano i dubbi.Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori».Dietro Chatgpt un esercito di operai digitali. Serve una schiera di moderatori per filtrare i contenuti. Esperti critici sulle sue capacità: «È sopravvalutato».Lo speciale comprende tre articoli. Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività». I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta. Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione. Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo. L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini. Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina. Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi. Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.<div class="rebellt-item col1" id="rebelltitem2" data-id="2" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=2#rebelltitem2" data-basename="lo-psicoanalista-emilio-mordini-la-dittatura-delle-regole-avanza-quanto-piu-la-societa-si-affida-a-procedure-amministrate-da-calcolatori" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori» Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue. Professore, come legge questo risultato? «Le persone tendono ad avere più fiducia nelle macchine che nelle persone». L’intelligenza artificiale non è corruttibile, invece… «Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine». E allora, quali problemi potremmo avere con l’Ai? «Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi». Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità… «Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà». Ma migliorano la vita delle persone… «Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?». Cosa c’entra tutto questo con l’Ai? «Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori». Come siamo arrivati a questo punto? «È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai». L’intelligenza artificiale è dunque ineluttabile? «Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita». <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=1#rebelltitem1" data-basename="dietro-chatgpt-un-esercito-di-operai-digitali" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Dietro Chatgpt un esercito di operai digitali Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto. Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma. Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei. La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate». È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai. Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Michele Emiliano (Ansa)
Dal rapporto burrascoso con il governatore della Puglia e suo ex pupillo, Antonio Decaro, a un ritorno in toga, Emiliano va a ruota libera in un’intervista rilasciata a Telenorba. Dopo 23 anni di aspettativa politica è in attesa della decisione della Terza commissione del Csm per ottenere il via libera a un’altra aspettativa per diventare consulente giuridico della Regione Puglia, domanda già bocciata tre volte.
Ieri doveva arrivare la decisione che non è arrivata. La discussione sul contratto proposto da Decaro al suo predecessore (con uno stipendio di circa 130.000 euro all’anno) ha fatto emergere diverse obiezioni, tra cui quella secondo cui «un consigliere non è la stessa cosa di un operativo: il via libera creerebbe un precedente per il quale tutti gli enti territoriali potrebbero chiedere un magistrato in aspettativa per affidargli compiti dirigenziali.
«Il presidente Decaro mi ha chiesto di dargli una mano come consulente», spiega Emiliano, «io gli ho detto: “Sono disposto a darti consulenze pure telefoniche gratuitamente”, però evidentemente voleva darmi il segno della sua vicinanza. Io avevo detto che era una costruzione un po’ ardita, ma lui ha voluto andare avanti. Dopodiché il Pd ha chiesto alla commissione sugli incidenti del lavoro di inserirmi come consulente. Ma se io dovessi scegliere, non vedrei l’ora di rimettermi la toga, di andare a fare il pubblico ministero in una Procura».
La legge attuale impedisce ai magistrati che hanno fatto politica di rientrare negli uffici giudiziari, ma a lui questa legge non si applica essendo andato in aspettativa prima. «Temo solo che la Procura dove rischio di andare sarebbe un po’ perseguitata dai giornalisti», aggiunge. Ecco la scusa. «Sto cercando di evitare di rientrare in servizio proprio per evitare questo. Dopodiché, se mi costringono a rientrare, sarò felicissimo perché chi nasce magistrato muore magistrato».
Ma non esita a dire anche che «se il Pd decidesse di candidarmi» alle Politiche 2027 «sarei felice», perché «la politica obiettivamente è la bacchetta magica che se funziona, cambia tutto, come al contrario se non funziona fa un disastro». A Emiliano ha cambiato davvero tutto.
Quindi? «Non è che uno per sopravvivere deve fare politica per forza», insiste. «Mi rendo conto però che se qualcuno mi chiedesse di fare il deputato farebbe una cosa intelligente perché ho una certa esperienza. Se non me lo chiedesse perché sono troppo ingombrante a me la vita non me la cambiano». E ne ha anche per il sindaco di Genova, Silvia Salis, che scarica per ingraziarsi il segretario Pd, Elly Schlein: «Non credo abbia le carte in regola per essere candidata premier del centrosinistra. È appena diventata sindaco, non ha nessuna storia politica e non ha nessuna connessione con tutto il mondo progressista. È una figura interessante per il futuro, non per il presente».
Emiliano manda poi una serie di messaggi a Decaro, delfino che si è smarcato dal suo mentore. «Antonio è reo confesso: lo dice chiaramente a tutti che soffre la mia presenza, ma questo lo capisco». Tuttavia, gli tende la mano: «Io, comunque, qualunque cosa dovesse fare Antonio, sono dalla sua parte e lo sosterrò in tutte le maniere perché ovviamente, come diceva mia madre, l’ho fatto io, non è che lo posso distruggere».
Nel corso dell’intervista, Emiliano ha anche presentato il suo romanzo noir, L’Alba di San Nicola, raccontandone la genesi: «Se non mi avessero messo a riposo forzato, probabilmente non l’avrei finito. È stato un momento per riorganizzare la propria vita».
Anche se per il momento la vita di Emiliano assomiglia di più a un giallo.
Continua a leggereRiduci
Nicola Magrini (Ansa)
L’affermazione è stata fatta nel contesto delle misure prese durante la seconda ondata, da settembre a dicembre 2020. Innanzitutto, l’ex dg ha voluto precisare che nei primi protocolli di trattamento domiciliare Aifa le indicazioni «non erano di vigile attesa ma di watchful waiting, monitoraggio attento e presente, non da remoto, dell’evoluzione clinica del paziente».
Peccato che la circolare dell’allora ministro della Salute, Roberto Speranza, firmata il 30 novembre 2020 dall’ex direttore generale della Prevenzione sanitaria Giovanni Rezza e uscita dopo 8 mesi con le linee guida sulla gestione domiciliare dei pazienti con infezione da Sars-Cov-2, riportasse proprio «vigile attesa» e «trattamenti sintomatici (ad esempio paracetamolo)». L’accoppiata tachipirina e vigile attesa che lasciava senza cure centinaia di migliaia di persone atterrite dal virus, quando rimanevano contagiate e sapevano di non poter andare al Pronto soccorso. Quanto al «monitoraggio non da remoto», sappiamo che la maggior parte dei medici si rifiutava di visitare i propri assistiti, lasciandoli spesso anche senza risposte telefoniche. Magrini, che è specializzato in farmacologia clinica, ha poi spiegato ai parlamentari della commissione che gli studi clinici randomizzati (Rct) sono lo strumento più affidabile anche durante la pandemia per valutare efficacia e sicurezza dei farmaci. «Undici trattamenti non hanno dimostrato nessuna efficacia su mortalità, durata ricovero e ventilazione e qualche potenziale danno. Li cito rapidamente, l’idrossiclorochina, il lopinavir […] il plasma dei convalescenti che in Italia ha avuto faticose polemiche, l’aspirina…».
Non si è trattato solo dell’ennesimo insulto al professor Giuseppe De Donno, l’ex primario di pneumologia dell’ospedale Carlo Poma di Mantova che per primo aveva iniziato la cura del Covid con le trasfusioni di plasma iperimmune (e che si tolse la vita nel luglio del 2021), ma anche della negazione dell’efficacia dell’infusione di sangue di contagiati dal coronavirus, opportunamente trattato, in altri pazienti, riconosciuta da studi autorevoli.
Come quello dell’ottobre 2023, uscito su The New England Journal of Medicine (Nejm) e che dimostrava una mortalità ridotta nei pazienti affetti da sindrome da distress respiratorio acuto (Ards), indotta da Covid-19, ai quali era stato somministrato plasma raccolto da donatori convalescenti, entro 5 giorni dall’inizio della ventilazione meccanica invasiva. Non solo, tra l’inizio di aprile 2020 e la fine di agosto 2020, quasi 100.000 pazienti ricoverati in circa 2.200 ospedali statunitensi con infezioni da Sars-CoV-2 furono trattati con plasma convalescente nell’ambito di un programma autorizzato dalla Fda.
In Italia, invece, lo studio clinico randomizzato e controllato chiamato Tsunami, promosso da Istituto superiore della sanità e Aifa «non evidenziò benefici» e la cura venne bocciata. Forse perché costava poco. Ancora oggi, Magrini insiste nel definire il plasma iperimmune inefficace, magari con qualche potenziale danno. E vogliamo parlare dell’aspirina? Solo guardando agli studi dell’Istituto di ricerche farmacologiche Mario Negri pubblicati nel 2021, 2022 e 2023, era documentata l’importanza di farmaci antinfiammatori non steroidei quali l’aspirina. Nel gennaio di quest’anno, un nuovo lavoro pubblicato su Frontiers in Immunology, prendeva in esame i meccanismi molecolari dell’effetto dell’aspirina sulla struttura della proteina Spike, riducendo la capacità del virus di legarsi alle cellule dell’ospite e limitando il danno polmonare. E per fortuna che l’ex dg di Aifa ha affermato: «Le linee guida terapeutiche progrediscono con il progredire delle evidenze, che nel caso del Covid sono progredite di mese in mese, in alcuni momenti anche di settimana in settimana». Nessun mea culpa per quello che la nostra agenzia regolatoria impedì che venisse attuato, escludendo trattamenti importanti?
Magrini ha spiegato in commissione che aveva ragione l’articolo apparso il 14 aprile su Nejm dal titolo «Valutazione dei farmaci durante la pandemia di Covid-19», nel quale «Jerry Avorn affermava che avremo problemi, come disegni di studi clinici inadeguati e sicurezza in studi randomizzati prima della immissione sul mercato o loro autorizzazione». Nel testo si affermava che «l’ampliamento dell’accesso a terapie sperimentali non ancora completamente valutate potrebbe avere diverse conseguenze indesiderate» e Magrini ha fatto l’esempio di Trump. «Diceva che aveva l’intuito che funzionasse l’idrossiclorochina, la preoccupazione della scienza era di un input politico […] occorre proteggere le persone da farmaci inefficaci o poco sicuri». L’ex dg non ha dubbi: «La salute dei singoli pazienti, sia della popolazione si preserverà restando fedeli ai principi di valutazione delle attività regolatorie». Il giudizio su Aifa, guardando all’epoca pandemica, invece per molti italiani non è affatto positivo.
Continua a leggereRiduci
Secondo Il Tg 1 Andrea Sempio sarebbe stato intercettato in macchina mentre parlava da solo. Dopo aver visto i suoi video insieme a Stasi avrebbe telefonato a Chiara per farle delle avances, ma lei lo avrebbe duramente respinto. Marco Poggi, però, difende l'amico: mai visto con lui i video di Chiara
Ansa
Trattasi dell’evento in programma sabato a Bologna, piazza Galvani, organizzato dal comitato Remigrazione e riconquista e regolarmente autorizzato dalle autorità. Cosa di cui, però, alla sinistra emiliana sembra non importare nulla. Maurizio Gaigher, consigliere comunale del Pd, dice in consiglio comunale che bisognerebbe «impedire» la manifestazione. A suo dire, essa «non costituisce un fatto isolato ma fa riferimento a una precisa operazione politica, che prova a spostare i confini del dibattito pubblico legittimando parole e concetti che fino a poco tempo fa sarebbero stati considerati inaccettabili. [...] Non stiamo discutendo solo di ordine pubblico o della gestione di un semplice e banale corteo: stiamo discutendo di quale idea di società vogliamo legittimare e qui la politica non può nascondersi».
Gaigher rivolge dunque «un appello a tutte le forze politiche, senza eccezioni anche quelle come la Lega e Fdi, che oggi troppo spesso scelgono il silenzio e l’ambiguità: unitevi all’appello delle forze democratiche della città, chiediamo insieme che questo corteo non si svolga, perché i suoi contenuti non sono neutri e rischiano di produrre conseguenze molto concrete sul piano della convivenza civile. Non è una questione ideologica, è una questione di responsabilità istituzionale».
Come al solito è tutto straordinario: in nome della libertà e della democrazia pretendono di vietare un presidio. Meraviglioso, a tale riguardo, il ragionamento di un’altra esponente del Pd, Mery De Martino. Costei, evidentemente ignara di che cosa sia la remigrazione, la definisce una «teoria razzista e disumana. La buona notizia è che questa roba può fare un po’ di rumore ma a Bologna non passa davvero». Poi la sincera democratica aggiunge: il 9 maggio «non diventi il palcoscenico di una mera provocazione mentre la città sarà impegnata nelle iniziative istituzionali per la festa dell’Europa, organizzata dal Comune e dal Tavolo Europa voluto dalla cittadinanza». Capito? Bisogna oscurare la manifestazione contro l’immigrazione di massa per non togliere visibilità alla festa dell’Europa prevista per lo stesso giorno.
Decisamente più minaccioso è il tono utilizzato da Giacomo Tarsitano della Lista Lepore che fa capo al sindaco di Bologna. «Iniziative come quella annunciata da un piccolo numero di estremisti, certamente fascisti», dice, «non possono essere ben accette in questa città, perché sono offensive non solo verso le comunità di origine straniera ma anche verso i valori che la stessa città ha, conserva e tenta di promuovere nelle esperienze quotidiane». Quali sarebbero questi valori? La censura e la prevaricazione? Altri consiglieri parlano dei manifestanti per la remigrazione come di fascisti che devono tornare nelle fogne, minacce che in altri tempi si sarebbero tradotte in azioni violente. Ma a quanto pare a sinistra tutto è concesso: sono leciti insulti, intimidazioni e forzature immotivate.
Il problema è che le frasi dei progressisti intolleranti, purtroppo, sembrano ottenere effetti. La stampa di sinistra bolognese infatti scrive che la manifestazione potrebbe in effetti essere spostata, cioè tolta da una piazza centrale e confinata altrove. Se così fosse, sarebbe estremamente grave. Forse il centro di Bologna deve essere accessibile solo ai progressisti? Negli ultimi giorni abbiamo raccontato quali siano le strategie della provocazione messe in atto dai movimenti antagonisti della sinistra radicale nelle più svariate occasioni: a costoro tuttavia non viene impedito di marciare. Perché allora chi esprime una visione diversa dovrebbe essere ostacolato?
«Abbiamo deciso di organizzare questa iniziativa di piazza per pubblicizzare la proposta di legge sulla remigrazione, con cui abbiamo fatto anche una raccolta di firme che sarà portata in Parlamento nei prossimi giorni», dice Stefano Colato del comitato remigrazione. «Abbiamo presentato regolare avviso in data 24 aprile per avere appunto una piazza centrale di Bologna, precisamente Piazza Galvani. Poi però abbiamo letto sulla cronaca locale di Repubblica che la nostra piazza sarebbe stata spostata, che ci sarebbe stata assegnata un’altra piazza perché quella è troppo centrale. Ovviamente siamo rimasti un po’ stupiti dalle modalità di comunicazione della questura di Bologna che non ha neanche fatto una telefonata o una Pec per comunicarci che la manifestazione sarebbe stata spostata. Leggere cose riguardanti la nostra iniziativa sulla Repubblica ci lascia basiti, come se decidesse quel giornale chi a Bologna ha diritto di parlare».
Secondo Colato, «anche le motivazioni di questo presunto spostamento ci sono sembrate risibili: la questura avrebbe avanzato un allarme riguardante la situazione internazionale, ma il nostro comitato si occupa esclusivamente di una raccolta di firme per una legge che riguarda la politica interna, non ci azzecca niente con la politica internazionale. E poi, tra parentesi, noi non dovremmo neanche avere paura di tensioni con i pro Pal o simili, dato che la nostra associazione di Bologna, che fa parte del comitato Remigrazione, ha sempre espresso solidarietà al popolo palestinese. Un’altra perplessità», continua Colato, «è sicuramente relativa al fatto che le altre iniziative che abbiamo organizzato a Bologna sono sempre state sottoposte a restrizioni dopo qualche annuncio di contestazioni. Ebbene, questa volta non c’è ombra di contestazione da parte di antagonisti o simili: ci vogliono vietare il centro cittadino in virtù di un allarme che non c’è?».
Di comunicazioni ufficiali, in ogni caso, non ne sono arrivate. Per questo motivo il comitato Remigrazione afferma che i suoi «simpatizzanti sono mobilitati sulla stessa piazza e allo stesso orario, le 16 di sabato, poi vedremo in questi giorni se saremo contattati».
Spostamento o meno, a emergere con chiarezza è la proverbiale intolleranza progressista. A conferma che in Italia il problema vero, ancora più dell’immigrazione, è la sinistra.
Continua a leggereRiduci