True
2023-01-30
«Se vince l’algoritmo è un grosso rischio per le nostre libertà»
iStock
Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.
Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività».
I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta.
Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione.
Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo.
L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini.
Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina.
Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi.
Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.
Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori»
Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue.
Professore, come legge questo risultato?
«Le persone tendono ad avere più fiducia nelle macchine che nelle persone».
L’intelligenza artificiale non è corruttibile, invece…
«Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine».
E allora, quali problemi potremmo avere con l’Ai?
«Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi».
Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità…
«Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà».
Ma migliorano la vita delle persone…
«Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?».
Cosa c’entra tutto questo con l’Ai?
«Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori».
Come siamo arrivati a questo punto?
«È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai».
L’intelligenza artificiale è dunque ineluttabile?
«Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita».
Dietro Chatgpt un esercito di operai digitali
Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto.
Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma.
Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei.
La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate».
È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai.
Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Continua a leggereRiduci
Dicono che sveltirà la burocrazia, la sanità, la produzione industriale. Ma è fatta per togliere responsabilità. E anche nell’Ue, che la finanzia, aumentano i dubbi.Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori».Dietro Chatgpt un esercito di operai digitali. Serve una schiera di moderatori per filtrare i contenuti. Esperti critici sulle sue capacità: «È sopravvalutato».Lo speciale comprende tre articoli. Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività». I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta. Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione. Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo. L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini. Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina. Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi. Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.<div class="rebellt-item col1" id="rebelltitem2" data-id="2" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=2#rebelltitem2" data-basename="lo-psicoanalista-emilio-mordini-la-dittatura-delle-regole-avanza-quanto-piu-la-societa-si-affida-a-procedure-amministrate-da-calcolatori" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori» Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue. Professore, come legge questo risultato? «Le persone tendono ad avere più fiducia nelle macchine che nelle persone». L’intelligenza artificiale non è corruttibile, invece… «Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine». E allora, quali problemi potremmo avere con l’Ai? «Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi». Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità… «Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà». Ma migliorano la vita delle persone… «Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?». Cosa c’entra tutto questo con l’Ai? «Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori». Come siamo arrivati a questo punto? «È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai». L’intelligenza artificiale è dunque ineluttabile? «Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita». <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=1#rebelltitem1" data-basename="dietro-chatgpt-un-esercito-di-operai-digitali" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Dietro Chatgpt un esercito di operai digitali Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto. Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma. Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei. La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate». È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai. Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Il presidente della Lega di Serie A Ezio Simonelli (Ansa)
E a farne le spese, tanto per cambiare, sono i tifosi di calcio, già frastornati dagli insuccessi della Nazionale e, al momento in cui questo giornale va in stampa, ancora senza informazioni su quando si disputerà il derby Roma-Lazio, dopo 48 ore di rimpiattino tra Lega Serie A, Prefettura di Roma e Federtennis, attore incolpevole ma chiamato in causa obtorto collo. Ma il problema non riguarda solo il derby. A Roma-Lazio si deve per forza abbinare il pacchetto di sfide Pisa-Napoli, Juventus-Fiorentina Genoa-Milan e Como-Parma nel medesimo orario. Sono match che coinvolgono compagini impegnate nel conquistarsi un posto in Champions League e il regolamento specifica come negli ultimi due turni di stagione sia obbligatorio che le squadre impegnate a conseguire gli stessi obiettivi scendano in campo agli stessi orari. Solo che nessuno aveva considerato la concomitanza della finale degli Internazionali di tennis. Per evitare incidenti analoghi alla guerriglia urbana tra tifosi dell’aprile 2025, in cui rimasero contusi 14 agenti, il Viminale aveva vietato alle due formazioni di affrontarsi in orario serale, impedendo una collocazione della partita alle 20.45 di domenica.
La Lega di Serie A aveva proposto di disputare le sfide alle 12.30, vale a dire nel cosiddetto orario di «lunch match», incontrando però il diniego della Prefettura e della questura di Roma: «Siamo attrezzati per gestire qualsiasi cosa, anche eventi difficili in concomitanza, ma sarebbe più sensato non far giocare un derby nello stesso giorno degli Internazionali di tennis, oggi diventati un evento mondiale di pari importanza», era stata la motivazione, seguita da una nota che ufficializzava lo slittamento del derby a lunedì alle 20.45, in orario sì serale, ma il giorno dopo rispetto all’evento tennistico. Decisione però rifiutata dalla Lega di Serie A. Piccolo particolare: la sovrapposizione potenziale dei due eventi, quello di pallone e quello di tennis, era nota già da tempo, ma nessuno si è preoccupato di prendere le logiche contromisure. La pezza che salvasse capra, cavoli e palinsesti televisivi (non bisogna dimenticare il ruolo decisivo degli editori tv che detengono i diritti sulle partite di calcio) trovata dalla Lega era spostare la lancetta degli orologi di mezz’ora avanti e di mezz’ora indietro: derby domenica alle 12 insieme con le altre quattro partite abbinate, finale del Foro Italico alle 17, per consentire lo svolgimento autonomo delle due manifestazioni e un controllo adeguato dell’ordine pubblico. «Abbiamo sbagliato, ma chiediamo di venirci incontro», ha dichiarato il presidente di Lega Ezio Simonelli, «Forse non è stato tenuto conto del fatto che il rinvio del derby coinvolgesse altre quattro città e 300.000 tifosi. Alla luce di questo, dando noi disponibilità ad anticipare di mezz’ora, mi auguro che la stessa disponibilità la dia la Federtennis nel posticipare». Continuando: «Prendiamo atto della decisione del Prefetto di far giocare il derby e le altre quattro partite lunedì sera, ma non la condividiamo. Abbiamo fatto una proposta formale al Viminale per trovare una soluzione. Se non dovessimo trovarla, presenteremo ricorso al Tar».
Il ricorso al Tar peraltro sta diventando sport nazionale al pari del pallone. Al caos organizzativo si è poi aggiunta la finaIe di Coppa Italia tra Lazio e Inter di ieri, che ha reso impervie le comunicazioni tra i protagonisti della vicenda, non consentendo ancora una soluzione. La faccenda è spinosa: giocare le partite di lunedì sera comporterebbe uno stravolgimento impraticabile per molti tifosi che non riuscirebbero a sostenere un viaggio in trasferta in un giorno feriale. La petizione di alcuni gruppi ultras che circola da marzo per un calcio «più giusto e popolare» è anche una reazione a pasticci del genere: «Vogliamo dire basta al calcio con orari spezzatino, subordinato a decisioni dell’ultimo minuto», sostengono i tifosi. Il numero uno del Coni Giovanni Malagò ha stigmatizzato la vicenda con una stilettata ovattata: «Non ho alcuna carica o ruolo per parlare dell’argomento. Mi auguro che possano trovare una soluzione in grado di accontentare tutti. Non è certo una bella cosa questa diatriba». Bella non lo è, e al momento una soluzione ufficiale non c’è ancora. Ma la diatriba aiuta a comprendere sia il significato autentico dell’espressione «decidere in zona Cesarini», sia il motivo per cui il calcio italiano è prigioniero di sé stesso, forse troppo occupato a pensare ai ricorsi al Tar e poco ai ricorsi (e ai corsi) della sua travagliata storia recente.
Continua a leggereRiduci
content.jwplatform.com
Trump vola da Xi mentre la guerra in Iran pesa su economia e politica USA tra rincari, debiti, tensioni con la Cina e sfida elettorale.
Guido Guidesi (Ansa)
I numeri che accompagnano questa ambizione sono solidi. Con oltre il 23% del Pil nazionale e più di un quarto dell'export italiano, la Lombardia è già il principale motore economico del Paese. Dal 2021 al 2025 ha attratto 448 progetti su 1.158 complessivi in Italia, mantenendo una quota costante tra il 35% e il 45% del totale nazionale, con una crescita di 85-90 investimenti diretti esteri all’anno - il 35% in più rispetto al quinquennio precedente (lo dice il Financial Times). Dati ancora più significativi se confrontati con lo scenario globale: tra il 2023 e il 2024 i flussi internazionali di investimenti sono calati dell’11% e quelli europei del 5%, mentre la Lombardia ha segnato un +6%.
Nel periodo 2020-2025, grazie al progetto “Invest in Lombardy” – sviluppato in collaborazione con Milano & Partners – la Regione ha supportato oltre 1.400 aziende estere interessate a insediarsi sul territorio. Solo nel 2025, 34 di queste hanno già avviato o annunciato progetti concreti, con un impatto stimato di 2,8 miliardi di indotto e 6.200 nuovi posti di lavoro. Attualmente sono 428 i progetti in gestione attiva, concentrati nei settori a più alto valore aggiunto: manifattura avanzata (semiconduttori, Industria 4.0), Scienze della Vita (biotecnologie, farmaceutico), Clean Tech e IT/ICT.
«I numeri confermano il nostro primato italiano rispetto all’attrazione investimenti esteri: valiamo il 40% degli investimenti esteri che arrivano in Italia. Ma non possiamo però fermarci al primato nazionale, possiamo e dobbiamo migliorarci», ha dichiarato l’assessore allo Sviluppo economico Guido Guidesi, presentando la nuova strategia regionale.
«Questo è l’obiettivo della nuova strategia di attrazione degli investimenti in cui si evidenzia un ruolo più da protagonista e attivo di Regione Lombardia al fine di cogliere opportunità di nuovi investimenti presentandoci con ecosistemi completi: dalla ricerca, ai fornitori, alle competenze. Proviamo a giocarci la partita dell’attrazione in un campionato più difficile e maggiormente competitivo; alziamo il livello, proviamo a migliorarci; vogliamo essere meta internazionale e hub europeo», ha aggiunto Guidesi, sottolineando che con la nuova direttiva «andremo anche a cercarci gli investitori rispetto alle esigenze che abbiamo dal punto di vista della partecipazione ai nostri ecosistemi».
Tre le direttrici del piano di Guidesi. La prima è la qualità degli investimenti: la Regione punta sui settori ad alto valore aggiunto: ICT, scienze della vita, elettronica, aerospazio, chimica e agroalimentare avanzato. La seconda è la valorizzazione degli ecosistemi territoriali e in questo quadro si inseriscono le Zone di Innovazione e Sviluppo (ZIS), la Zona Logistica Semplificata di Cremona e Mantova, e l'iniziativa “Talenti – Trasferimento delle conoscenze”, che favorisce l’ingresso di dottori di ricerca e professionisti altamente qualificati nelle pmi lombarde. La terza direttrice è la semplificazione e la velocità dei processi, attraverso il rafforzamento del modello one-stop-shop per rendere più rapidi e prevedibili i percorsi di insediamento.
Per Giovanni Rossi, direttore generale di Promos Italia, «l'approccio internazionale è rafforzato da attività promozionali e roadshow nei principali mercati esteri, con “value proposition” focalizzate su settori ad alto valore aggiunto. La “business intelligence” permette di intercettare investitori qualificati e accompagnarli efficacemente nel percorso di insediamento. L'aftercare è considerato strategico per valorizzare le imprese già insediate e favorirne la crescita”, ha concluso Rossi.
Centrale nella strategia è il potenziamento di «Invest in Lombardy» come punto unico di accesso per gli investitori internazionali, capace di accompagnare le imprese lungo l'intero ciclo dell'investimento: dalla valutazione iniziale all'insediamento, fino ai servizi di aftercare.
Un riconoscimento al valore dell’ecosistema lombardo arriva dalle testimonianze delle imprese internazionali già presenti sul territorio. «Regione Lombardia ha accompagnato il nostro percorso di insediamento, supportandoci nel dialogo con il territorio e nello sviluppo delle competenze necessarie. La Lombardia si distingue per un ecosistema industriale solido e collaborativo, favorevole allo sviluppo di nuovi investimenti», ha evidenziato Carina Solsona Garriga, Coo di Affinity Petcare.
«Abbiamo scelto la Lombardia per la sua posizione strategica, la qualità delle infrastrutture e un ecosistema industriale unico a livello europeo, che consente di ottimizzare efficienza, sostenibilità e sviluppo produttivo», ha aggiunto Federico Castelli, amministratore delegato di Rockwool Italia.
«La Lombardia è più attrattiva di molte regioni europee grazie a una filiera industriale avanzata, competenze di altissimo livello e un forte orientamento all’export. Qui troviamo un luogo dove produrre, innovare e costruire valore nel lungo periodo», ha concluso Paolo Bertuzzi, Ceo & Managing Director di Turboden.
Continua a leggereRiduci