2023-12-29
«Attacco robot»: Tesla sotto accusa. L’Ia stravolge la sicurezza sul lavoro
Fa rumore la notizia secondo cui, due anni fa, un ingegnere di Musk è stato ferito da una macchina in un mega impianto in Texas. La replica: «Era un braccio meccanico, i miei androidi non c’entrano». Il ministero della Salute ha diffuso delle linee guida sull’uso delle nuove tecnologie in ambito diagnostico. Il responso? Se dietro non c’è l’uomo possono fare danni. Lo speciale contiene due articoli.Le nuove tecnologie sempre più sofisticate nelle fabbriche automobilistiche stanno cambiando non solo le modalità produttive ma anche il tipo di incidenti. È quanto è accaduto nella Gigafactory Tesla vicino a Austin, in Texas, un enorme stabilimento dove l’azienda di Elon Musk punta a costruire un’auto elettrica da meno di 25.000 dollari. L’incidente, riportato dal Daily Mail che ha avuto accesso ai documenti e dall’agenzia di stampa tecnologica The Information, si è verificato due anni fa e ha coinvolto un ingegnere «attaccato» da un robot. Questo lo ha colpito alla schiena e al braccio sinistro, ferendolo alla mano. Immediatamente i siti hanno parlato di rivolta delle macchine sull’uomo, una sorta di nemesi storica; piuttosto, in modo meno fantascientifico, è l’evoluzione degli incidenti sul lavoro per come li abbiamo conosciuti fino ad ora. Non c’è dubbio comunque che il fatto apre diversi interrogativi su come potrebbe essere in futuro la realtà nelle fabbriche, con la robotizzazione spinta della produzione industriale e la completa automatizzazione delle catene di montaggio.L’agenzia The Information, raccogliendo alcune testimonianze, ha fatto un racconto dettagliato non privo di particolari quasi cinematografici sulle modalità dell’incidente. L’ingegnere, stava programmando un software per il controllo dei robot che tagliano parti di automobili da lastre di alluminio. Aveva iniziato a lavorare su tre robot ma non si era accorto che solo due erano stati spenti. Il terzo ha continuato a muoversi e «l’ha immobilizzato contro una superficie, spingendo i suoi «artigli» nel corpo e facendo uscire sangue dalla sua schiena e dal suo braccio», ha scritto l’agenzia. I dipendenti che hanno assistito alla scena hanno raccontato di essere intervenuti a schiacciare il pulsante di blocco di emergenza, per allentare la «presa» del robot. Dopo che il meccanismo è stato spento, l’uomo, ferito, è caduto «per un paio di metri lungo uno scivolo progettato per raccogliere rottami di alluminio, lasciando dietro di sé una scia di sangue». The Information ha precisato che l’incidente è venuto alla luce attraverso un record di infortuni depositato alle autorità di regolamentazione. Secondo la testata specializzata, nel 2022, quasi un lavoratore su 21 nella fabbrica Tesla in Texas, è rimasto ferito sul posto di lavoro, rispetto a un tasso medio del settore automobilistico statunitense di un lavoratore su oltre 30. Un avvocato interpellato dal Daily Mail ha detto che il numero di incidenti avvenuti nelle Gigafactory sarebbe superiore a quanto indicato dall’azienda e a questa conclusione è arrivato dopo diversi colloqui avuti direttamente con i lavoratori.Non è la prima volta che succedono incidenti che vedono coinvolti processi automatizzati anche se con modalità diverse. L’8 novembre scorso, in Corea del Sud, un operaio è stato schiacciato da un braccio robotico e nel 1981, un dipendente della Kawasaki Heavy Industries, Kenji Urada è morto per aver ostacolato il percorso di un robot malfunzionante.La replica di Elon Musk alla notizia diffusa dai media, non si è fatta attendere. Su X ha definito gli articoli come un’aggressione. «È davvero vergognoso che tirino fuori un incidente di due anni fa, dovuto a un semplice braccio robotico industriale Kuka, presente in tutte le fabbriche e insinuino che ora sia dovuto a Optimus». Secondo Tesla, inoltre, l’incidente non ha provocato giorni di assenza dal lavoro da parte del dipendente. Musk ha fatto riferimento a Optimus, il robot umanoide progettato da Tesla, presentato nel 2021, che, nella sua nuova versione più avanzata, è sempre più simile a un umano, si muove più rapidamente e maneggia oggetti fragili come un uovo con grande dimestichezza, anche grazie ai sensori sulle articolazioni che rendono i movimenti più precisi. Musk è convinto che gli automi possano in futuro sostituire gli essere umani in una vasta gamma di applicazioni. Un’idea che finora ha lasciato perplessi analisti e investitori.Inoltre anche se la notizia della fabbrica in Texas è vecchia di due anni ed è stata ridimensionata da Musk, resta il fatto che l’incidente si va ad aggiungere all’elenco di brutte notizie legate alle auto elettriche, tra incidenti e problemi alla guida. Le docce fredde per il miliardario non finiscono qui. Secondo un’indiscrezione di Bloomberg, il colosso cinese Byd avrebbe superato Tesla nelle vendite del quarto e ultimo trimestre del 2023. La previsione parla di oltre 400.000 vetture elettriche, da ottobre a dicembre. Byd, che è anche tra i primi tre costruttori di batterie a livello mondiale ed è addirittura fornitore di Tesla, diventerebbe così il primo produttore al mondo di auto elettriche. La rincorsa è iniziata nel 2020 e nel terzo trimestre del 2023 ha visto le due case separate solo di 3.456 auto: 431.603 esemplari consegnati dalla casa di Elon Musk contro 435.059. La casa cinese vende molto in patria, che è il più grande mercato al mondo, e ancora poco all’estero ma la sua politica commerciale è particolarmente aggressiva e per il 2024 vuole giocarsi la partita fino in fondo. <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/tesla-sotto-accusa-2666830997.html?rebelltitem=1#rebelltitem1" data-basename="lalgoritmo-non-e-ancora-un-dottore" data-post-id="2666830997" data-published-at="1703866485" data-use-pagination="False"> L’algoritmo non è (ancora) un dottore Un computer, un algoritmo al posto del medico di famiglia. È questo il futuro dell’intelligenza artificiale applicata alla sanità? Il potenziale delle nuove tecnologie applicate alla medicina è enorme ma non è privo di rischi. Un documento pubblicato dal ministero della Salute, «Linee guida sull’uso dei sistemi di intelligenza artificiale in ambito diagnostico», contiene alcune considerazioni sul tema. Uno dei rischi maggiori è legato all’uso di sistemi di intelligenza artificiale non sufficientemente testati e provvisti di prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi, prospettici (meglio se randomizzati), multicentrici, con un adeguato campione che sia effettivamente rappresentativo della popolazione presa in esame. Nelle Linee guida sono evidenziate anche le problematiche da possibili violazioni della privacy degli utenti e da discriminazioni, di razza o di genere, introdotte dalla programmazione degli algoritmi, dall’assenza di informazioni circa la sicurezza, dalla mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi e non ultimo il tema della scarsa preparazione del personale sanitario al corretto utilizzo delle nuove tecnologie; senza dimenticare le aspettative illusorie e fuorvianti per i pazienti derivanti da un utilizzo errato di tali sistemi digitali. Il documento ministeriale ricorda le criticità che si sono verificate nell’utilizzo delle tecniche di Ia per la diagnosi e la prognosi del Covid: «sono un monito a procedere in modo molto rigoroso prima di adottare questi sistemi nella pratica clinica». Per evitare distorsioni di valutazione, i sistemi di intelligenza artificiale vanno istruiti. Non sono mancati casi di algoritmi che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione utilizzato. C’è pure il fenomeno della black box, cioè la propensione dell’Ai a fornire risposte «difficili». Un discorso a parte merita il ChatGpt e come spiega l’Istituto di ricerche farmacologiche, Mario Negri, va affrontato con molta cautela. A differenza dei classici strumenti di intelligenza artificiale in grado di interpretare storie cliniche dei pazienti e dati raccolti secondo regole ben precise, ChatGpt, usando modelli linguistici di grandi dimensioni, aiuta a scrivere testi semplici e comprensibili. Quando si pongono delle domande a ChatGpt il sistema trova, attraverso il software, le parole più affini a quelle che le precedono. L’Istituto, nel suo sito, sottolinea che è un sistema capace di scrivere testi molto chiari ma non necessariamente affidabili. Il problema è che l’algoritmo attinge da tutto ciò che è su internet, comprese molte fake news. Un esempio? Se si chiede di fornire le informazioni più aggiornate secondo la letteratura scientifica su una particolare patologia o su un particolare farmaco, «la macchina», non avendo il concetto di letteratura scientifica più recente, ma capendo la sintassi, va a combinare nozioni che non sempre sono corrette. Per evitare errori, va ristretto il campo da cui prendere le informazioni, inserendo solo quelle affidabili, altrimenti ci sono gli stessi rischi di una ricerca su Google. La cautela è d’obbligo. Ciò non toglie che l’intelligenza artificiale, abbia un ruolo importante nello sviluppo della medicina come supporto per i medici nella diagnostica. Ma appunto, dietro deve esserci sempre l’uomo.
Jose Mourinho (Getty Images)