True
2023-01-30
«Se vince l’algoritmo è un grosso rischio per le nostre libertà»
iStock
Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.
Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività».
I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta.
Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione.
Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo.
L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini.
Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina.
Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi.
Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.
Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori»
Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue.
Professore, come legge questo risultato?
«Le persone tendono ad avere più fiducia nelle macchine che nelle persone».
L’intelligenza artificiale non è corruttibile, invece…
«Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine».
E allora, quali problemi potremmo avere con l’Ai?
«Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi».
Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità…
«Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà».
Ma migliorano la vita delle persone…
«Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?».
Cosa c’entra tutto questo con l’Ai?
«Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori».
Come siamo arrivati a questo punto?
«È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai».
L’intelligenza artificiale è dunque ineluttabile?
«Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita».
Dietro Chatgpt un esercito di operai digitali
Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto.
Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma.
Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei.
La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate».
È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai.
Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Continua a leggereRiduci
Dicono che sveltirà la burocrazia, la sanità, la produzione industriale. Ma è fatta per togliere responsabilità. E anche nell’Ue, che la finanzia, aumentano i dubbi.Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori».Dietro Chatgpt un esercito di operai digitali. Serve una schiera di moderatori per filtrare i contenuti. Esperti critici sulle sue capacità: «È sopravvalutato».Lo speciale comprende tre articoli. Sentono «intelligenza artificiale» e subito le persone pensano ai robot, o a Chatgpt - capace di scrivere lettere di scuse a mogli inferocite, ma anche di elaborare complicati calcoli statistici - o agli studenti che smetteranno di fare compiti, temi e riassunti. I più informati colgono le opportunità di business che ruotano intorno all’Artificial intelligence (Ai): robotica intelligente per il controllo di processi industriali e miglioramento delle tecnologie e delle prestazioni sanitarie, con la telemedicina. L’intelligenza artificiale probabilmente è tutto questo. Ma è stata concepita con un altro obiettivo, che è quello di automatizzare la burocrazia e, di conseguenza, deresponsabilizzare le istituzioni stravolgendo il principio dell’«accountability», della responsabilità personale. Il conto, però, è salato, e non soltanto in termini economici.Quando Mario Draghi, il 17 febbraio 2021, presentò al Senato il documento programmatico del suo governo prima di cominciare l’avventura a Palazzo Chigi, in pochi fecero caso all’appello del neopremier affinché fosse incoraggiato «l’utilizzo di tecniche predittive basate sui più recenti sviluppi in tema di intelligenza artificiale e tecnologie digitali». L’attenzione era concentrata su altro, soprattutto sulla gestione della pandemia e dei fondi del Pnrr. Ma l’intelligenza artificiale dentro al Pnrr fa la parte del leone, nell’ambito di quei 46,3 miliardi destinati all’innovazione tecnologica e digitale del nostro Paese e, soprattutto, alla semplificazione dei processi burocratici. «La pubblica amministrazione è chiamata a svolgere un ruolo da protagonista attivo della rivoluzione dell’intelligenza artificiale», si legge nei documenti governativi, «offrendo servizi migliori a cittadini e imprese, diminuendo i costi a parità di prestazioni e abilitando il settore privato […] a beneficio della collettività». I cittadini ci credono talmente tanto che, secondo un sondaggio di European tech insight, quasi due terzi degli europei (il 64%) pensa che la tecnologia rafforzi il processo democratico, e quasi il 60% dei cittadini europei vorrebbe fruire di servizi pubblici online, anche se ciò comporta la chiusura degli uffici dove recarsi in presenza. Le persone ritengono quindi che l’intelligenza artificiale possa in qualche modo sostituire la burocrazia migliorandola, ma non sembrano consapevoli delle conseguenze che ciò comporta. Nata nella Francia di Luigi Filippo, per poi prendere piede in Austria e in Russia, la burocrazia è il principio su cui funzionano i grandi imperi, dalla fine dell’Ottocento in poi. Se Gogol e Cechov ci hanno raccontato che uccide il diritto, forse è perché il suo scopo non è stato soltanto quello di far funzionare il sistema ma anche, e soprattutto, di deresponsabilizzare. In una burocrazia che funziona «bene», non dev’esserci nessuno che possa essere chiamato in causa in caso di errori: l’unico errore è non rispettare i parametri, i protocolli, le regole, come è accaduto. Il sistema è sempre lo stesso, quello dello statalismo nazista e comunista. Anche Microsoft e Google sono riproduzioni dello Stato, e anche questi sistemi si basano su un principio: nessuno ha responsabilità personale. L’intelligenza artificiale realizza il passaggio successivo: viene presentata come una nuova sfida dell’umanità, ma più che automatizzare l’intelligenza o la medicina, automatizza la burocrazia e la deresponsabilizzazione. Quando tutto ciò che riguarda la nostra vita quotidiana (le prestazioni sociali citate nel sondaggio di European tech insight, ad esempio) sarà automatizzato tramite l’algoritmo, con chi se la prenderà il cittadino cui viene negato il servizio essenziale, con l’algoritmo? E sulla base di quale procedura gli verranno erogati, o negati, i servizi fondamentali? Gli studi sull’intelligenza artificiale lo hanno spiegato con chiarezza: le prestazioni sociali verranno concesse non più sulla base di ciò che noi siamo nella realtà, ma sui dati che ogni giorno disseminiamo online, che rappresentano il nostro «digital twin», il gemello digitale elaborato sui dati da noi stessi diffusi. Saranno quindi i cosiddetti «big data» a stabilire i nostri bisogni, così come le valutazioni cliniche, che verranno prese non sulla base della tradizionale visita al paziente e dell’evidenza clinica, ma sulla base dell’evidenza dei dati e delle analisi; la telemedicina è questo. L’Unione Europea, che è stata la culla perversa della burocrazia, sembra cominciare a porsi qualche problema. Il primo testo sull’intelligenza artificiale («Artificial intelligence act») è stato presentato dalla Commissione Ue nel 2021. La proposta dovrà superare il vaglio del Parlamento europeo, che la sta discutendo, e del Consiglio Ue. Le tre istituzioni dovranno poi negoziare un testo finale, che è atteso per la fine del 2023. L’Unione si dichiara preoccupata che l’Ai resti «incentrata sull’uomo» e sia «sostenibile, sicura, etica e affidabile». I rischi considerati «inaccettabili» dai vertici Ue sono i sistemi di Ai che manipolano il comportamento umano e i sistemi che favoriscono un «credito sociale» da parte dei governi, attuando una sorveglianza di massa sui cittadini. Ma nelle pile di documenti sull’Intelligenza artificiale già prodotti dall’Ue non si trova da nessuna parte un monito al pericolo più tangibile che comporta l’automazione della burocrazia, ossia quello della deresponsabilizzazione di chi rappresenta le istituzioni. Naturale, purtroppo, se si pensa a come i media stanno trattando il tema. L’attenzione attualmente è concentrata su strumenti come Chatgpt, e c’è anche chi si è spinto, come l’ingegnere Blake Lemoine, a «intervistare» una di queste macchine, chiamata Lamda (Language model for dialogue applications), per dimostrare che è consapevole e senziente come noi umani. La sua esperienza, descritta in un articolo pubblicato sul Washington Post, ha fatto discutere ed è servita a suscitare una certa «simpatia» nei confronti della macchina. Ma i temi più rilevanti che riguardano l’intelligenza artificiale restano, per il momento, esclusi dal dibattito ufficiale. In pochi chiedono lumi sugli enormi investimenti che i governi di tutto il mondo hanno deciso di destinare all’Ai. Anche perché i processi decisionali stabiliti attraverso diagrammi di flusso, flow chart e modelli predittivi serviranno a far sì che non si sprechi un soldo, in un mondo popolato da persone che pretendono sempre più assistenza dallo Stato. Sarà facile far credere che l’intelligenza artificiale elimini le ingiustizie e gli abusi. Certo, basterebbe saper comunicare che l’Ai è semplicemente uno strumento di cui servirci per eliminare lavori noiosi come quelli dei funzionari degli aeroporti, che giocoforza lo svolgono in maniera meno accurata di un sistema digitale basato sul riconoscimento biometrico. Ma qualcosa è andato storto: non è più l’intelligenza artificiale a somigliare sempre di più all’uomo, ma viceversa. Ora sono gli esseri umani che stanno imitando l’Ai, è questa la cosa più grave, come aveva immaginato, novant’anni fa, Charlie Chaplin in Tempi Moderni: l’immagine che ci è rimasta impressa è una catena di montaggio in cui lui stesso diventa ingranaggio. Aveva visto lungo.<div class="rebellt-item col1" id="rebelltitem2" data-id="2" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=2#rebelltitem2" data-basename="lo-psicoanalista-emilio-mordini-la-dittatura-delle-regole-avanza-quanto-piu-la-societa-si-affida-a-procedure-amministrate-da-calcolatori" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Lo psicoanalista Emilio Mordini: «La dittatura delle regole avanza quanto più la società si affida a procedure amministrate da calcolatori» Le conquiste democratiche realizzate dall’uomo negli ultimi tre secoli sembrano essere spazzate via dall’intelligenza artificiale (Ai): un sondaggio di European tech insight riferisce che il 51% degli europei sarebbe favorevole a ridurre il numero dei deputati, assegnando i seggi a un algoritmo, e un terzo preferirebbe che i servizi sociali fossero gestiti dall’Ai anziché da funzionari pubblici. Ne parliamo con Emilio Mordini, psicoanalista, già docente universitario di bioetica e di etica. Il professore si occupa di intelligenza artificiale come membro del Gruppo di esperti su ricerca e innovazione per la sicurezza, per conto della Commissione Ue. Professore, come legge questo risultato? «Le persone tendono ad avere più fiducia nelle macchine che nelle persone». L’intelligenza artificiale non è corruttibile, invece… «Appunto. A un essere umano si può far cambiare opinione, commuoverlo o corromperlo. Questo può essere un male, ma anche un bene perché permette di sfuggire o mitigare regole ingiuste. Sotto il nazismo e il comunismo, alcuni si salvarono corrompendo i funzionari statali. Se invece che esseri umani, ci fossero stati sistemi di intelligenza artificiale, non si sarebbe salvato nessuno. Oggi, però, siamo governati da persone prive di vero potere decisionale. Quando la decisione su un mutuo la prende un algoritmo, quale vantaggio c’è ad avere un direttore di banca in carne e ossa al posto di una chatbot? Se il medico di famiglia non fa nulla che non rientri nelle linee guida del ministero, paradossalmente non è più rapido consultare Google? Se gli esseri umani imitano le macchine, meglio le macchine». E allora, quali problemi potremmo avere con l’Ai? «Il problema riguarda la nostra libertà, non come concetto astratto ma come fatto pratico, della vita quotidiana. Più la nostra società si affida a procedure amministrate da macchine (o da esseri umani che si comportano come macchine), più perdiamo la nostra libertà. Noi chiediamo allo Stato sicurezza, salute, casa e lavoro, ma lo Stato, per non andare in fallimento, deve aumentare le tasse e controllare i servizi che eroga con linee guida e algoritmi». Foucault parlava del «capitalismo della sorveglianza», che si presenta come garanzia di prosperità… «Più che di prosperità, lo Stato - e le grandi corporazioni che agiscono come fossero Stati, ad esempio Google e Microsoft - si propongono come garanti di sicurezza. Al cittadino viene detto che il mondo è insicuro a causa delle malattie, dei russi, del clima e così via. Le istituzioni globali, ad esempio l’Oms, promettono di proteggerci da questi rischi, spesso imponendo comportamenti preventivi: vaccini, riduzioni delle emissioni di CO2, censura delle fake news, che inevitabilmente riducono la libertà». Ma migliorano la vita delle persone… «Dipende. Queste istituzioni si preoccupano di allungarci la vita (ammesso che ci riescano), ma non di renderla più piena. Il valore della vita non sta solo nella sua durata. Forse viviamo più a lungo, ma viviamo meglio?». Cosa c’entra tutto questo con l’Ai? «Si può imporre un mondo fatto di algoritmi solo se le persone perdono la percezione della qualità della vita. Ci si affida alla tecnologia con l’illusione di avere una vita più lunga, più comoda. Alla fine, ci si accorge che si è pagato un prezzo molto alto. Le nostre vite sono più lunghe ma si sono impoverite, sono diventate come le mozzarelle del supermercato: sane, a lunga conservazione, ma insapori». Come siamo arrivati a questo punto? «È un processo iniziato dopo la seconda guerra mondiale. L’allungamento della vita è stato presentato come un valore assoluto, garantito dallo Stato attraverso l’automazione dei servizi. Si ricorda il patto tra Mefistofele e Faust? Il diavolo, Mefistofele, prometteva a Faust ricchezza e giovinezza, a patto che Faust fosse sempre insoddisfatto, non dicesse mai al tempo “fermati perché io ora sono felice”. Questo è il patto diabolico che lega la nostra società alla tecnologia, e quindi anche all’Ai. Come criceti nella ruota di una gabbia, siamo condannati a inseguire ciò che non raggiungeremo mai». L’intelligenza artificiale è dunque ineluttabile? «Intelligenza significa avere desideri, progetti, intenzioni e solo la materia vivente possiede queste facoltà. L’AI, come tutte le macchine, non può desiderare nulla, è “stupida”, è uno strumento per gestire informazioni. Il problema sono i nostri desideri, non le macchine che usiamo per realizzarli. Noi oggi pensiamo che la verità non esista e cerchiamo la sicurezza nelle istituzioni e nella tecnologia. Ci affanniamo e agitiamo per molte cose, ma non sarà certo Alexa a dirci qual è il senso della vita». <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/se-vince-lalgoritmo-e-un-grosso-rischio-per-le-nostre-liberta-2659325741.html?rebelltitem=1#rebelltitem1" data-basename="dietro-chatgpt-un-esercito-di-operai-digitali" data-post-id="2659325741" data-published-at="1675029435" data-use-pagination="False"> Dietro Chatgpt un esercito di operai digitali Chissà come ci sono rimasti male gli appassionati di intelligenza artificiale quando hanno saputo che Chatgpt si serve di esseri umani per filtrare i suoi contenuti. La notizia, rivelata in esclusiva dalla rivista Time, voleva evidenziare che l’organizzazione no profit Openai che ha creato il software, fondata del 2015 da diversi imprenditori tra cui Elon Musk e Sam Altman, sottopaga lavoratori in India, Kenya e Uganda per fare pulizia dei contenuti «tossici». Questi data labeler consentono a Chatgpt di eliminare dalla piattaforma linguaggi inappropriati e contenuti violenti. Sia chiaro: l’azienda californiana Sama, cui Openai ha subappaltato il lavoro, non lavora soltanto per Musk ma anche per Google, Meta e Microsoft. Tutta l’industria dell’intelligenza artificiale (Ai) ne fa uso e abuso, ma la tentazione di far sembrare Chatgpt più «intelligente» e «umana» di quanto non sia, passa sopra a tutto. Lanciata sul mercato il 30 novembre 2022 come «ultima frontiera dell’intelligenza artificiale», che «cambierà per sempre il futuro dell’umanità», Chatgpt è descritta come «capace di comprendere il linguaggio umano e intrattenere conversazioni complesse». Ha raggiunto 1 milione di utenti in soli 5 giorni: per ottenere lo stesso risultato Netflix ha impiegato 3 anni e mezzo e Facebook 10 mesi. «Mi fai un riassunto di questo libro che dovevo leggere entro oggi?», «Scrivimi un reportage di guerra»: nessuno ha resistito alla tentazione di interrogare Chatgpt. C’è chi le ha chiesto di scrivere una lettera di scuse alla moglie, chi l’ha intervistata sulla politica e chi le ha chiesto di dare la definizione di «donna»: «È una persona che si definisce come tale o che è socialmente e riconosciuta come tale», ha risposto Chatgpt, dimostrando di essersi perfettamente uniformata ai parametri gender fluid. La Luiss ha realizzato un numero del suo periodico Zeta attraverso l’uso esclusivo di Chatgpt. Il risultato non è stato deludente, hanno riferito i partecipanti al master di giornalismo coinvolti nell’esperimento, ma per la stesura di alcuni contenuti sono state fatte decine di prove. La chat, come tutti i prodotti Ai, ha infinite capacità di calcolo, ma lì si ferma. Chatgpt è stata anche sottoposta all’esame di licenza medica americano, e lo ha superato, ma ciò ha scatenato un dibattito inevitabilmente sfociato sul Covid e sulle cosiddette fake news. Intervistata su qual è la possibilità, per un minore, di morire di Covid, Chatgpt ha ammesso di «avere pregiudizi». «Chatgpt è una minaccia per la scienza?», si sono chiesti i soliti tromboni apprendendo che la chat ha perfino «firmato» uno studio pubblicato in preprint su MedRxiv. No, sono solo gli umani, a volte, a essere più «stupidi» di lei. La «collega» Newsguard (software ideato da Ng technologies per intercettare le fake news) l’ha messa alla prova con 100 narrazioni «false»: 80 su 100 non sono state riconosciute come tali. Inutile dire che ciò ha consentito a Idmo, l’Osservatorio sui media coordinato da Gianni Riotta, di esprimere pelosa preoccupazione per come lo strumento potrebbe essere utilizzato «se finisse nelle mani sbagliate». È ingenuo stupirsi delle performance di Chatgpt: è semplicemente un prodotto. Se il capo del dipartimento Ai di Facebook ha dichiarato che Chatgpt è «sopravvalutata» perché «ci sono almeno altre sei start up che usano la stessa tecnologia, su cui lavoriamo da decenni», Microsoft investirà 10 miliardi di dollari per acquisire il 49% di Openai. Non dimentichiamo, però, che Chatgpt non è connessa a Internet: non è stata progettata per essere un motore di ricerca, è solo addestrata per generare risposte. Conferirle capacità intellettive, e perfino emozioni, è una debolezza: ciò che noi chiamiamo Ai non ha a che vedere con l’intelligenza, perché l’intelligenza non è soltanto (e neanche principalmente) capacità di calcolo.
Barbara Fabbroni (Getty Images)
Ne parliamo con Barbara Fabbroni, criminologa e scrittrice, che ci offre una prospettiva unica sull’intersezione tra moda, crimine sociale e cultura contemporanea e come questo possa incidere sull’evoluzione del nostro modo di vestire, pensare e, soprattutto, resistere.
C’è sempre un maggiore interesse per i temi sociali nella moda, in particolare per quelli legati alla violenza di genere e alle disuguaglianze. Come vede questa evoluzione?
«Come una reazione necessaria, quasi inevitabile, prima ancora che come una scelta estetica. La moda, storicamente, è sempre stata uno specchio del tempo, ma oggi quello specchio si è incrinato. Non riflette più solo desideri o status, riflette fratture sociali, ferite collettive, urgenze non risolte. Quando la violenza di genere e le disuguaglianze entrano nelle collezioni, non è perché “fanno tendenza” ma perché non possono più essere ignorate. È un tentativo di rendere visibile ciò che per troppo tempo è rimasto sommerso, normalizzato, silenziato. Il rischio, semmai - ed è un rischio reale - è che questa visibilità resti superficiale. Ma il movimento, in sé, è già un segnale di consapevolezza sociale».
Come pensa che la moda stia trasformando il concetto di «empowerment femminile»? In che modo le collezioni stanno affrontando la violenza di genere e le disuguaglianze in modo diverso rispetto al passato?
«L’empowerment femminile, oggi, non passa più solo dall’immagine della donna forte, invincibile. Sta emergendo un concetto più maturo: il potere come possibilità di essere complesse, non perfette. Io amo dire che “la perfezione sta sempre nell’imperfezione di ciascuna individualità”. Le collezioni più interessanti non celebrano più un femminile idealizzato, ma raccontano corpi reali, storie ferite. È una rottura rispetto al passato, dove la moda parlava sulle donne; oggi, quando funziona davvero, parla con le donne. Anche la violenza di genere non viene più trattata come choc visivo, ma come processo culturale, come sistema che va decostruito, non semplicemente denunciato».
Molti brand e designer stanno utilizzando la moda come strumento per trasmettere messaggi sociali. Qual è il ruolo della moda come linguaggio anche di protesta?
«La moda è un linguaggio silenzioso ma, proprio per questo, potentissimo. Non argomenta: mostra. Non convince: disturba. In una società sempre più polarizzata, la moda può diventare uno spazio di resistenza simbolica, perché agisce sull’immaginario, non sull’ideologia. Un abito può essere un manifesto ma anche e, forse, soprattutto una domanda aperta. Il suo ruolo più importante non è schierarsi, ma rompere la neutralità apparente, che spesso è la forma più subdola di complicità. La moda, quando è autentica, non pacifica: mette a disagio, costringe a guardare».
C’è un legame tra l’evoluzione estetica della moda e l’analisi criminologica dei crimini sociali?
«Sì e credo sia un legame profondo. La criminologia studia le dinamiche invisibili: potere, controllo, esclusione, normalizzazione della violenza. La moda, spesso senza rendersene conto, mette in scena gli stessi meccanismi: chi è visibile, chi è escluso, quali corpi sono legittimi e quali restano marginalizzati. Nell’incrocio tra questi ambiti, vedo una possibilità importante: usare l’estetica non per occultare il conflitto, ma per renderlo leggibile. La moda può diventare una mappa emotiva dei crimini sociali, se accetta di non essere rassicurante».
Come pensa che i giovani stiano interpretando questi messaggi? C’è una relazione tra il modo in cui si vestono e come percepiscono il mondo che li circonda?
«I giovani usano il corpo come spazio di incontro, spesso più consapevolmente degli adulti. Il modo in cui si vestono è una forma di posizionamento nel mondo: identitario, relazionale, valoriale, esistenziale. Non è solo stile. È presa di parola, è comunicazione di sé all’altro e al mondo. Attraverso l’abbigliamento esprimono conflitto, rifiuto, ricerca di senso, possibilità. È un linguaggio immediato, ma tutt’altro che superficiale. Spesso racconta proprio quello spazio che non trovano altrove e che, allora, cercano di costruire. Ignorarlo significa non ascoltare una generazione che sta cercando nuovi codici per interpretare una realtà complessa come quella che stiamo vivendo».
Quali sfide ritiene che la moda debba affrontare per essere davvero un catalizzatore di cambiamento sociale?
«La sfida principale è non fermarsi all’immagine. Il rischio più grande è la neutralizzazione del messaggio: trasformare il pensiero del cambiamento in stile, l’empowerment in branding, il dolore in trend. Per evitarlo servono coerenza, continuità, responsabilità. La moda può essere catalizzatore di cambiamento solo se accetta di lasciare andare qualcosa. E non è poco: consenso, comodità, neutralità. Il cambiamento non è mai esteticamente semplice. E, forse, è proprio lì che la moda deve avere il coraggio di stare».
Continua a leggereRiduci
iStock
Al levar del sole, si faceva accompagnare dalla sua borsa blu (conservata, poi, come una sorta di reliquia per anni) che, con pochi chili di acquisto, gli permetteva di gestire la cucina. Nel contempo, con l’amico macellaio Emilio Hen andava «a studiare» le cucine dei locali che allora, nel territorio, risultavano tra i più rinomati. «Davo un’occhiata per imparare a copiare qualche piatto, era una sorta di spionaggio industriale», diceva. A trovare la quadra gli viene in aiuto, nel suo pellegrinaggio mattutino al mercato del pesce mestrino, il signor Galvani, che ne intuisce le potenzialità. «Dia un’occhiata a quello che mangia la gente qui per strada». In primis i folpetti caldi ripescati al momento dal pentolone in bella vista. Da lì l’intuizione conseguente.
All’entrata del suo locale ecco un carrello tentatore con il meglio dei cicheti (i piccoli assaggi di street food locale) della tradizione, a iniziare da quelli freddi: gamberi, uova di seppia, alici marinate. Il passaggio conseguente a tavola, con quelli caldi in arrivo dalla cucina, dagli immancabili folpetti ai peoci (le cozze) e molto altro. Su queste basi, sior Dino ottimizza la sua filosofia, ovvero quella di conservare e valorizzare il passato, in una Venezia patrimonio secolare, con uno sguardo continuamente rivolto al futuro ma sempre rimanendo nel solco della tradizione, di un territorio con molte storie da offrire, se non da riscoprire, in un tempo in cui, con il boom economico, anche la cucina seguiva nuove mode, a prevalenza transalpina ma un po’ «senz’anima», ovvero proponibili un po’ ovunque. Su queste basi trovare la quadra è indispensabile, a partire da chi sappia gestire la regia ai fornelli con talento e spirito conseguente.
Era il tempo in cui, il lunedì mattina, con un’ombra e due cicheti passava a salutare il fratello Bepi, cuoco in carica, Federico «Rico» Spolaore, con diverse esperienze in importanti cucine d’albergo della catena Ciga. Dino lo annusa e butta l’esca: «Non le chiedo quanto mi costa, ma soltanto di applicare la sua bravura a questa cucina», magari con qualche piccola invenzione, ma sempre nel solco della tradizione. Chef «Rico» lo guarda, paga il conto e se ne va senza rispondere. Dopo qualche giorno ritorna, stavolta non per salutare il fratello Bepi, ma per confrontarsi, occhi negli occhi, con un Boscarato felicemente rincuorato dall’aver scommesso per la giusta causa. Dall’Amelia comincia a prendere il volo. Il passaparola va oltre i confini locali e i suoi piatti hanno un primo riconoscimento con l’entrata nel circuito dei Ristoranti del Buon ricordo, nato dalla felice intuizione di Dino Villani, tra i fondatori dell’Accademia italiana della cucina. Un primo riconoscimento con il Fogher d’Oro, nel 1969, al tempo uno dei maggiori tra quelli riservati a quei locali che, tra Veneto e Friuli, nel rispetto della qualità, sapevano valorizzare al meglio le rispettive cucine locali. Nel 1970 altro cambio di passo. Parte la ristrutturazione della vecchia Amelia, grazie all’architetto Luigi Carrer che, oltre a decorare gli interni con un tratto personale, si inventa il logo che poi diventerà un’icona conosciuta e ambita dai vari pellegrini golosi. Un pesce con un bel cappellone da chef. Messaggio neanche tanto subliminale per far intendere che, dall’Amelia, la cucina di pesce viaggia a paso doble.
Iniziano le missioni all’estero, come ad esempio a New York. Nella preparazione della lista della spesa, un involontario qui pro quo linguistico: il tradizionale stoccafisso, ovvero il merluzzo essiccato al vento delle Lofoten, nel Veneto è tradotto come baccalà mentre invece, come tale, nel resto del mondo si intende quello conservato sotto sale. Due preparazioni che richiedono un trattamento completamente diverso. Giunti alla vigilia del grande evento, i cuochi amelioti non sanno più che fare. Partono telefonate a tutti i fornitori della Grande mela ma niente da fare. Poi, all’ultimo, il miracolo: in un negozietto di Little Italy, gestito da una famiglia calabrese, ci sono dei mini stoccafissi, poco più grandi di sardine, «ma piccoli e duri come il marmo».
Bisogna fare il miracolo. I Boscarato boys vanno nell’officina meccanica dell’albergo e lì procedono alla battitura di rito usando una pressa metallica destinata ad altri usi, ma il risultato al piatto risulterà molto gradito al centinaio di convitati curiosi di scoprire le vere specialità della cucina veneziana. Il giorno dopo, per premiarsi della fatica, Dino e i suoi ragazzi vanno nell’ambasciata culinaria italiana di Manhattan, «Le Cirque», di quel toscanaccio di Sirio Maccioni. E chi ti incontrano? Enzo Biagi, anche lui in trasferta yankee, che offrirà loro il pranzo, per ringraziare sior Dino di avergli assegnato, qualche mese prima, il prestigioso premio «Tavola all’Amelia». In sostanza, era successo questo. Dall’Amelia, nel tempo, diventa sempre più centro di golosità permanente del meglio dell’intellighenzia dapprima veneta e poi nazionale. Nel 1965, dalla collaborazione con il gallerista Mario Lucchesi, si pensò di dare un premio a chi si era distinto in vari settori della cultura, dalla letteratura all’arte nelle sue varie declinazioni. Come premio, la riproduzione di una scultura di Salvatore Messina.
Nell’albo d’oro ci sono nomi che hanno fatto la storia sella cultura italiana: Dino Buzzati, Leonardo Sciascia, Enzo Biagi, Uto Ughi, Carlo Rubbia, Ottavio Missoni, Ermanno Olmi. Con la possibilità, per il pubblico, sempre più fidelizzato alla «missione Amelia» di conoscerli in diretta, almeno per una sera. La gemmazione conseguente con «A Tavola con l’autore». Il tutto è nato un po’ per caso, ma bisogna avere talento per cogliere quell’occasione che può fare la differenza. Siamo nel 1983. Dall’Amelia, oramai, è un mito consolidato. Una serata è dedicata alla presentazione dell’ultima creatura editoriale di Bepi Maffioli, un gigante del connubio tra cucina, storia e cultura, La cucina veneziana, per i tipi di Franco Muzzio Editore. Come rendere il meritato onore a cotanta firma? Elementare, Watson: Boscarato si incuriosisce a ricercare tra le pagine di Maffioli lo spunto per proporre qualche ricetta originale, magari un po’ dimenticata dallo scorrere del tempo. Ed ecco riemergere un piatto del XVIII secolo, il baccalà in turbante, un’eredità del ghetto sepolta nella memoria. Uno stoccafisso messo a sobbollire lentamente con burro e latte, cui vengono poi aggiunti spinaci lessati, uova e noce moscata. Il tutto messo in forno entro uno stampo rotondo con il buco in mezzo. Ne deriva, servito al piatto, come un turbante goloso. È facile immaginarsi lo stupore dei commensali e dello stesso Maffioli. Così come il riso e fagioli con i gò, piccoli pesciolini della laguna che vivono prudentemente nascondendosi sotto i fondali per sfuggire alle reti dei piccoli veneziani che così venivano addestrati dai nonni all’arte della pesca.
Un format, quello de A tavola con l’autore» che avrà oltre 100 repliche nel corso del tempo, ad esempio con il polesano Gian Antonio Cibotto, in una serata in cui il pubblico ha scoperto quali fossero le radici del popolare riso a la sbiraglia» Durante il dominio austriaco gli sbiri (ovvero i gendarmi) di Cecco Beppe, predavano le campagne delle famiglie rurali di quanto trovavano, in primis i polli. Poi entravano in qualche osteria con sorriso sornione: «O mi cuoci bene questi polli, o ti rubo anche i tuoi». Era conseguente che la cuoca vittima di tale approccio era quanto mai generosa nel condire il tutto con quanto offrivano le risaie del vicino delta del Po.
Continua a leggereRiduci
Narendra Modi (Ansa)
Dal 1° gennaio l’India ha assunto la presidenza dei Brics, per la prima volta alla guida del formato allargato a dieci Paesi. Narendra Modi propone una visione «humanity-first», mentre sullo sfondo pesano le tensioni commerciali con gli Stati Uniti e la sfida di rafforzare il ruolo del Global South in un contesto geopolitico instabile.
L’India ha assunto ufficialmente la presidenza dei Brics il 1° gennaio 2026, prendendo il timone del gruppo in una fase segnata da forti tensioni commerciali globali e da un quadro geopolitico in rapido mutamento. Il passaggio di consegne è avvenuto dal Brasile e affida ora a Nuova Delhi la guida di un blocco allargato a dieci Paesi, chiamato a muoversi in un contesto economico instabile.
Il primo ministro Narendra Modi ha delineato per il mandato indiano una visione definita «humanity-first», proponendo una rilettura dell’acronimo Brics come Building Resilience and Innovation for Cooperation and Sustainability. Un’impostazione che punta a rafforzare il ruolo e la voce del cosiddetto Global South, in continuità con l’approccio adottato dall’India durante la sua presidenza del G20, fortemente orientata ai temi dello sviluppo.
La leadership indiana si inserisce inoltre in un momento di rapporti commerciali tesi con gli Stati Uniti, deterioratisi dopo la rielezione di Donald Trump. Nel 2025, l’amministrazione americana ha imposto dazi elevati su alcune esportazioni indiane, un fattore che spinge Nuova Delhi a utilizzare il foro Brics per promuovere una linea di «realismo commerciale». Tra i punti chiave figurano il ricorso a regolamenti in valuta locale, la riduzione della dipendenza dal dollaro statunitense e la contrarietà a barriere commerciali unilaterali.
La presidenza del 2026 assume un peso particolare perché è la prima esercitata dall’India alla guida del formato Brics+, ampliato con l’ingresso di Egitto, Etiopia, Indonesia, Iran ed Emirati Arabi Uniti, che si affiancano ai membri fondatori Russia, Cina e Sudafrica. Nuova Delhi ha individuato quattro priorità centrali per il suo mandato: resilienza, innovazione, cooperazione e sostenibilità. Tra i dossier su cui concentrare l’azione figurano lo sviluppo delle infrastrutture pubbliche digitali, il finanziamento climatico a favore dei Paesi in via di sviluppo e la riforma dell’Organizzazione mondiale del commercio.
Il banco di prova politico sarà il 18° vertice Brics, atteso nel corso dell’anno proprio a New Delhi. L’appuntamento servirà a misurare la capacità dell’India di mantenere la propria autonomia strategica, bilanciando i rapporti con le grandi potenze e proponendosi al tempo stesso come ponte tra il mondo sviluppato e il Global South.
Continua a leggereRiduci
Will Smith (Getty Images)
«Le accuse del signor Joseph riguardanti il mio cliente sono false, infondate e sconsiderate. Neghiamo categoricamente ogni addebito e utilizzeremo tutti i mezzi legali disponibili per affrontare questa vicenda e garantire che la verità venga portata alla luce», ha dichiarato alla stampa l’avvocato di Smith, Allen B. Grodsky.
Secondo la sua ricostruzione Joseph, giunto alla ribalta come uno dei primi tre finalisti di America’s Got Talent nel 2018, era stato invitato a casa di Smith a novembre 2024 per suonare per la star di Hollywood. Durante l’incontro era stato poi ingaggiato per suonare al concerto di Smith a San Diego nel dicembre 2024 e poi nel successivo tour. Nell’ambito della relazione professionale, i due uomini sarebbero diventati intimi e avrebbero trascorso «molto tempo da soli». Secondo il musicista, Smith all’inizio della collaborazione avrebbe detto a Joseph: «Tu ed io abbiamo una connessione così speciale che io non ho con nessun altro».
Joseph ha affermato che durante una sosta del tour a Las Vegas nel marzo dello scorso anno, rientrando nella sua stanza d’albergo la sera dopo cena, avrebbe scoperto che qualcuno era «entrato illegittimamente» ma «senza forzare la porta» lasciando un biglietto scritto a mano che recitava: «Brian, tornerò più tardi, alle 5.30, solo noi», con un cuore e la firma «Stone F.». L’attore, che ha precisato che i membri della direzione del tour erano «le uniche persone che avevano accesso alla sua stanza», ha affermato di aver trovato, oltre al biglietto, «alcune salviette, una bottiglia di birra, uno zaino rosso, un flaconcino di farmaci per l’Hiv con il nome di un’altra persona, un orecchino e documenti di dimissione ospedaliera appartenenti a una persona a lui sconosciuta». Temendo che qualcuno «tornasse nella sua stanza» dopo la minaccia di violenza sessuale, Joseph aveva denunciato l’incidente alla sicurezza dell’hotel, alla polizia e al team di Smith, ma era stato «deriso, umiliato e svergognato» dal team dell’attore, quindi licenziato e sostituito con un altro musicista, provocandogli «grave disagio emotivo, perdita economica, danni alla reputazione e altri danni», nonché «Ptsd (sindrome post-traumatica) e altre malattie mentali». Secondo l’accusa, il musicista si sarebbe inoltre fatto carico di «significativi investimenti finanziari in preparazione del tour», che si è svolto da luglio all’inizio di settembre.
La nuova denuncia fa seguito alla causa da 3 milioni di dollari intentata l’1 dicembre dall’ex socio Bilaal Salaam contro la moglie di Smith, Jada Pinkett Smith, che lo avrebbe minacciato verbalmente.
Continua a leggereRiduci