True
2023-12-29
«Attacco robot»: Tesla sotto accusa. L’Ia stravolge la sicurezza sul lavoro
Ansa
Le nuove tecnologie sempre più sofisticate nelle fabbriche automobilistiche stanno cambiando non solo le modalità produttive ma anche il tipo di incidenti. È quanto è accaduto nella Gigafactory Tesla vicino a Austin, in Texas, un enorme stabilimento dove l’azienda di Elon Musk punta a costruire un’auto elettrica da meno di 25.000 dollari. L’incidente, riportato dal Daily Mail che ha avuto accesso ai documenti e dall’agenzia di stampa tecnologica The Information, si è verificato due anni fa e ha coinvolto un ingegnere «attaccato» da un robot. Questo lo ha colpito alla schiena e al braccio sinistro, ferendolo alla mano. Immediatamente i siti hanno parlato di rivolta delle macchine sull’uomo, una sorta di nemesi storica; piuttosto, in modo meno fantascientifico, è l’evoluzione degli incidenti sul lavoro per come li abbiamo conosciuti fino ad ora. Non c’è dubbio comunque che il fatto apre diversi interrogativi su come potrebbe essere in futuro la realtà nelle fabbriche, con la robotizzazione spinta della produzione industriale e la completa automatizzazione delle catene di montaggio.
L’agenzia The Information, raccogliendo alcune testimonianze, ha fatto un racconto dettagliato non privo di particolari quasi cinematografici sulle modalità dell’incidente. L’ingegnere, stava programmando un software per il controllo dei robot che tagliano parti di automobili da lastre di alluminio. Aveva iniziato a lavorare su tre robot ma non si era accorto che solo due erano stati spenti. Il terzo ha continuato a muoversi e «l’ha immobilizzato contro una superficie, spingendo i suoi «artigli» nel corpo e facendo uscire sangue dalla sua schiena e dal suo braccio», ha scritto l’agenzia. I dipendenti che hanno assistito alla scena hanno raccontato di essere intervenuti a schiacciare il pulsante di blocco di emergenza, per allentare la «presa» del robot. Dopo che il meccanismo è stato spento, l’uomo, ferito, è caduto «per un paio di metri lungo uno scivolo progettato per raccogliere rottami di alluminio, lasciando dietro di sé una scia di sangue». The Information ha precisato che l’incidente è venuto alla luce attraverso un record di infortuni depositato alle autorità di regolamentazione. Secondo la testata specializzata, nel 2022, quasi un lavoratore su 21 nella fabbrica Tesla in Texas, è rimasto ferito sul posto di lavoro, rispetto a un tasso medio del settore automobilistico statunitense di un lavoratore su oltre 30. Un avvocato interpellato dal Daily Mail ha detto che il numero di incidenti avvenuti nelle Gigafactory sarebbe superiore a quanto indicato dall’azienda e a questa conclusione è arrivato dopo diversi colloqui avuti direttamente con i lavoratori.
Non è la prima volta che succedono incidenti che vedono coinvolti processi automatizzati anche se con modalità diverse. L’8 novembre scorso, in Corea del Sud, un operaio è stato schiacciato da un braccio robotico e nel 1981, un dipendente della Kawasaki Heavy Industries, Kenji Urada è morto per aver ostacolato il percorso di un robot malfunzionante.
La replica di Elon Musk alla notizia diffusa dai media, non si è fatta attendere. Su X ha definito gli articoli come un’aggressione. «È davvero vergognoso che tirino fuori un incidente di due anni fa, dovuto a un semplice braccio robotico industriale Kuka, presente in tutte le fabbriche e insinuino che ora sia dovuto a Optimus». Secondo Tesla, inoltre, l’incidente non ha provocato giorni di assenza dal lavoro da parte del dipendente.
Musk ha fatto riferimento a Optimus, il robot umanoide progettato da Tesla, presentato nel 2021, che, nella sua nuova versione più avanzata, è sempre più simile a un umano, si muove più rapidamente e maneggia oggetti fragili come un uovo con grande dimestichezza, anche grazie ai sensori sulle articolazioni che rendono i movimenti più precisi. Musk è convinto che gli automi possano in futuro sostituire gli essere umani in una vasta gamma di applicazioni. Un’idea che finora ha lasciato perplessi analisti e investitori.
Inoltre anche se la notizia della fabbrica in Texas è vecchia di due anni ed è stata ridimensionata da Musk, resta il fatto che l’incidente si va ad aggiungere all’elenco di brutte notizie legate alle auto elettriche, tra incidenti e problemi alla guida.
Le docce fredde per il miliardario non finiscono qui. Secondo un’indiscrezione di Bloomberg, il colosso cinese Byd avrebbe superato Tesla nelle vendite del quarto e ultimo trimestre del 2023. La previsione parla di oltre 400.000 vetture elettriche, da ottobre a dicembre. Byd, che è anche tra i primi tre costruttori di batterie a livello mondiale ed è addirittura fornitore di Tesla, diventerebbe così il primo produttore al mondo di auto elettriche. La rincorsa è iniziata nel 2020 e nel terzo trimestre del 2023 ha visto le due case separate solo di 3.456 auto: 431.603 esemplari consegnati dalla casa di Elon Musk contro 435.059. La casa cinese vende molto in patria, che è il più grande mercato al mondo, e ancora poco all’estero ma la sua politica commerciale è particolarmente aggressiva e per il 2024 vuole giocarsi la partita fino in fondo.
L’algoritmo non è (ancora) un dottore
Un computer, un algoritmo al posto del medico di famiglia. È questo il futuro dell’intelligenza artificiale applicata alla sanità? Il potenziale delle nuove tecnologie applicate alla medicina è enorme ma non è privo di rischi. Un documento pubblicato dal ministero della Salute, «Linee guida sull’uso dei sistemi di intelligenza artificiale in ambito diagnostico», contiene alcune considerazioni sul tema. Uno dei rischi maggiori è legato all’uso di sistemi di intelligenza artificiale non sufficientemente testati e provvisti di prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi, prospettici (meglio se randomizzati), multicentrici, con un adeguato campione che sia effettivamente rappresentativo della popolazione presa in esame. Nelle Linee guida sono evidenziate anche le problematiche da possibili violazioni della privacy degli utenti e da discriminazioni, di razza o di genere, introdotte dalla programmazione degli algoritmi, dall’assenza di informazioni circa la sicurezza, dalla mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi e non ultimo il tema della scarsa preparazione del personale sanitario al corretto utilizzo delle nuove tecnologie; senza dimenticare le aspettative illusorie e fuorvianti per i pazienti derivanti da un utilizzo errato di tali sistemi digitali. Il documento ministeriale ricorda le criticità che si sono verificate nell’utilizzo delle tecniche di Ia per la diagnosi e la prognosi del Covid: «sono un monito a procedere in modo molto rigoroso prima di adottare questi sistemi nella pratica clinica». Per evitare distorsioni di valutazione, i sistemi di intelligenza artificiale vanno istruiti. Non sono mancati casi di algoritmi che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione utilizzato. C’è pure il fenomeno della black box, cioè la propensione dell’Ai a fornire risposte «difficili». Un discorso a parte merita il ChatGpt e come spiega l’Istituto di ricerche farmacologiche, Mario Negri, va affrontato con molta cautela. A differenza dei classici strumenti di intelligenza artificiale in grado di interpretare storie cliniche dei pazienti e dati raccolti secondo regole ben precise, ChatGpt, usando modelli linguistici di grandi dimensioni, aiuta a scrivere testi semplici e comprensibili. Quando si pongono delle domande a ChatGpt il sistema trova, attraverso il software, le parole più affini a quelle che le precedono. L’Istituto, nel suo sito, sottolinea che è un sistema capace di scrivere testi molto chiari ma non necessariamente affidabili. Il problema è che l’algoritmo attinge da tutto ciò che è su internet, comprese molte fake news. Un esempio? Se si chiede di fornire le informazioni più aggiornate secondo la letteratura scientifica su una particolare patologia o su un particolare farmaco, «la macchina», non avendo il concetto di letteratura scientifica più recente, ma capendo la sintassi, va a combinare nozioni che non sempre sono corrette. Per evitare errori, va ristretto il campo da cui prendere le informazioni, inserendo solo quelle affidabili, altrimenti ci sono gli stessi rischi di una ricerca su Google. La cautela è d’obbligo. Ciò non toglie che l’intelligenza artificiale, abbia un ruolo importante nello sviluppo della medicina come supporto per i medici nella diagnostica. Ma appunto, dietro deve esserci sempre l’uomo.
Continua a leggereRiduci
Fa rumore la notizia secondo cui, due anni fa, un ingegnere di Musk è stato ferito da una macchina in un mega impianto in Texas. La replica: «Era un braccio meccanico, i miei androidi non c’entrano». Il ministero della Salute ha diffuso delle linee guida sull’uso delle nuove tecnologie in ambito diagnostico. Il responso? Se dietro non c’è l’uomo possono fare danni. Lo speciale contiene due articoli.Le nuove tecnologie sempre più sofisticate nelle fabbriche automobilistiche stanno cambiando non solo le modalità produttive ma anche il tipo di incidenti. È quanto è accaduto nella Gigafactory Tesla vicino a Austin, in Texas, un enorme stabilimento dove l’azienda di Elon Musk punta a costruire un’auto elettrica da meno di 25.000 dollari. L’incidente, riportato dal Daily Mail che ha avuto accesso ai documenti e dall’agenzia di stampa tecnologica The Information, si è verificato due anni fa e ha coinvolto un ingegnere «attaccato» da un robot. Questo lo ha colpito alla schiena e al braccio sinistro, ferendolo alla mano. Immediatamente i siti hanno parlato di rivolta delle macchine sull’uomo, una sorta di nemesi storica; piuttosto, in modo meno fantascientifico, è l’evoluzione degli incidenti sul lavoro per come li abbiamo conosciuti fino ad ora. Non c’è dubbio comunque che il fatto apre diversi interrogativi su come potrebbe essere in futuro la realtà nelle fabbriche, con la robotizzazione spinta della produzione industriale e la completa automatizzazione delle catene di montaggio.L’agenzia The Information, raccogliendo alcune testimonianze, ha fatto un racconto dettagliato non privo di particolari quasi cinematografici sulle modalità dell’incidente. L’ingegnere, stava programmando un software per il controllo dei robot che tagliano parti di automobili da lastre di alluminio. Aveva iniziato a lavorare su tre robot ma non si era accorto che solo due erano stati spenti. Il terzo ha continuato a muoversi e «l’ha immobilizzato contro una superficie, spingendo i suoi «artigli» nel corpo e facendo uscire sangue dalla sua schiena e dal suo braccio», ha scritto l’agenzia. I dipendenti che hanno assistito alla scena hanno raccontato di essere intervenuti a schiacciare il pulsante di blocco di emergenza, per allentare la «presa» del robot. Dopo che il meccanismo è stato spento, l’uomo, ferito, è caduto «per un paio di metri lungo uno scivolo progettato per raccogliere rottami di alluminio, lasciando dietro di sé una scia di sangue». The Information ha precisato che l’incidente è venuto alla luce attraverso un record di infortuni depositato alle autorità di regolamentazione. Secondo la testata specializzata, nel 2022, quasi un lavoratore su 21 nella fabbrica Tesla in Texas, è rimasto ferito sul posto di lavoro, rispetto a un tasso medio del settore automobilistico statunitense di un lavoratore su oltre 30. Un avvocato interpellato dal Daily Mail ha detto che il numero di incidenti avvenuti nelle Gigafactory sarebbe superiore a quanto indicato dall’azienda e a questa conclusione è arrivato dopo diversi colloqui avuti direttamente con i lavoratori.Non è la prima volta che succedono incidenti che vedono coinvolti processi automatizzati anche se con modalità diverse. L’8 novembre scorso, in Corea del Sud, un operaio è stato schiacciato da un braccio robotico e nel 1981, un dipendente della Kawasaki Heavy Industries, Kenji Urada è morto per aver ostacolato il percorso di un robot malfunzionante.La replica di Elon Musk alla notizia diffusa dai media, non si è fatta attendere. Su X ha definito gli articoli come un’aggressione. «È davvero vergognoso che tirino fuori un incidente di due anni fa, dovuto a un semplice braccio robotico industriale Kuka, presente in tutte le fabbriche e insinuino che ora sia dovuto a Optimus». Secondo Tesla, inoltre, l’incidente non ha provocato giorni di assenza dal lavoro da parte del dipendente. Musk ha fatto riferimento a Optimus, il robot umanoide progettato da Tesla, presentato nel 2021, che, nella sua nuova versione più avanzata, è sempre più simile a un umano, si muove più rapidamente e maneggia oggetti fragili come un uovo con grande dimestichezza, anche grazie ai sensori sulle articolazioni che rendono i movimenti più precisi. Musk è convinto che gli automi possano in futuro sostituire gli essere umani in una vasta gamma di applicazioni. Un’idea che finora ha lasciato perplessi analisti e investitori.Inoltre anche se la notizia della fabbrica in Texas è vecchia di due anni ed è stata ridimensionata da Musk, resta il fatto che l’incidente si va ad aggiungere all’elenco di brutte notizie legate alle auto elettriche, tra incidenti e problemi alla guida. Le docce fredde per il miliardario non finiscono qui. Secondo un’indiscrezione di Bloomberg, il colosso cinese Byd avrebbe superato Tesla nelle vendite del quarto e ultimo trimestre del 2023. La previsione parla di oltre 400.000 vetture elettriche, da ottobre a dicembre. Byd, che è anche tra i primi tre costruttori di batterie a livello mondiale ed è addirittura fornitore di Tesla, diventerebbe così il primo produttore al mondo di auto elettriche. La rincorsa è iniziata nel 2020 e nel terzo trimestre del 2023 ha visto le due case separate solo di 3.456 auto: 431.603 esemplari consegnati dalla casa di Elon Musk contro 435.059. La casa cinese vende molto in patria, che è il più grande mercato al mondo, e ancora poco all’estero ma la sua politica commerciale è particolarmente aggressiva e per il 2024 vuole giocarsi la partita fino in fondo. <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/tesla-sotto-accusa-2666830997.html?rebelltitem=1#rebelltitem1" data-basename="lalgoritmo-non-e-ancora-un-dottore" data-post-id="2666830997" data-published-at="1703866485" data-use-pagination="False"> L’algoritmo non è (ancora) un dottore Un computer, un algoritmo al posto del medico di famiglia. È questo il futuro dell’intelligenza artificiale applicata alla sanità? Il potenziale delle nuove tecnologie applicate alla medicina è enorme ma non è privo di rischi. Un documento pubblicato dal ministero della Salute, «Linee guida sull’uso dei sistemi di intelligenza artificiale in ambito diagnostico», contiene alcune considerazioni sul tema. Uno dei rischi maggiori è legato all’uso di sistemi di intelligenza artificiale non sufficientemente testati e provvisti di prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi, prospettici (meglio se randomizzati), multicentrici, con un adeguato campione che sia effettivamente rappresentativo della popolazione presa in esame. Nelle Linee guida sono evidenziate anche le problematiche da possibili violazioni della privacy degli utenti e da discriminazioni, di razza o di genere, introdotte dalla programmazione degli algoritmi, dall’assenza di informazioni circa la sicurezza, dalla mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi e non ultimo il tema della scarsa preparazione del personale sanitario al corretto utilizzo delle nuove tecnologie; senza dimenticare le aspettative illusorie e fuorvianti per i pazienti derivanti da un utilizzo errato di tali sistemi digitali. Il documento ministeriale ricorda le criticità che si sono verificate nell’utilizzo delle tecniche di Ia per la diagnosi e la prognosi del Covid: «sono un monito a procedere in modo molto rigoroso prima di adottare questi sistemi nella pratica clinica». Per evitare distorsioni di valutazione, i sistemi di intelligenza artificiale vanno istruiti. Non sono mancati casi di algoritmi che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione utilizzato. C’è pure il fenomeno della black box, cioè la propensione dell’Ai a fornire risposte «difficili». Un discorso a parte merita il ChatGpt e come spiega l’Istituto di ricerche farmacologiche, Mario Negri, va affrontato con molta cautela. A differenza dei classici strumenti di intelligenza artificiale in grado di interpretare storie cliniche dei pazienti e dati raccolti secondo regole ben precise, ChatGpt, usando modelli linguistici di grandi dimensioni, aiuta a scrivere testi semplici e comprensibili. Quando si pongono delle domande a ChatGpt il sistema trova, attraverso il software, le parole più affini a quelle che le precedono. L’Istituto, nel suo sito, sottolinea che è un sistema capace di scrivere testi molto chiari ma non necessariamente affidabili. Il problema è che l’algoritmo attinge da tutto ciò che è su internet, comprese molte fake news. Un esempio? Se si chiede di fornire le informazioni più aggiornate secondo la letteratura scientifica su una particolare patologia o su un particolare farmaco, «la macchina», non avendo il concetto di letteratura scientifica più recente, ma capendo la sintassi, va a combinare nozioni che non sempre sono corrette. Per evitare errori, va ristretto il campo da cui prendere le informazioni, inserendo solo quelle affidabili, altrimenti ci sono gli stessi rischi di una ricerca su Google. La cautela è d’obbligo. Ciò non toglie che l’intelligenza artificiale, abbia un ruolo importante nello sviluppo della medicina come supporto per i medici nella diagnostica. Ma appunto, dietro deve esserci sempre l’uomo.
Federico Vecchioni (Ansa)
History Law & Economics dalla Lumsa, la Libera Università Maria Santissima Assunta. Il conferimento, approvato dal dipartimento di giurisprudenza, economia e comunicazione dell’ateneo - con successiva delibera del Senato Accademico - si deve al fatto che la figura professionale di Vecchioni rappresenta «un punto di riferimento di rilievo nel panorama dell’economia agroalimentare italiana e mediterranea, per la capacità di coniugare visione strategica, innovazione tecnologica e attenzione ai profili di sostenibilità economica, sociale e ambientale».
La cerimonia è stata introdotta dal professor Gabriele Carapezza Figlia, coordinatore del collegio dei docenti del dottorato di ricerca in Mediterranean Studies e la laudatio è stata curata dal professor Giovanni Battista Dagnino, ordinario di economia e gestione delle imprese. A conferire titolo e proclamazione, il professor Francesco Bonini, rettore dell’ateneo. Alla cerimonia è seguita la lectio magistralis di Vecchioni. «Ricevere questo dottorato honoris causa dalla Libera Università Maria Santissima Assunta», le parole pronunciate da Vecchioni, «rappresenta per me un grande onore e una grande responsabilità. Ho sempre creduto nel valore del dialogo tra impresa, istituzioni e mondo accademico come leva per generare sviluppo duraturo. Il Mediterraneo non è soltanto uno spazio geografico, ma un orizzonte culturale ed economico strategico, nel quale l’Italia può e deve esercitare un ruolo da protagonista attraverso innovazione, sostenibilità e cooperazione internazionale». «In quest’ottica», ha proseguito quindi il presidente di Bonifiche Ferraresi, «si inseriscono le iniziative internazionali portate avanti da Bf con l’obiettivo di creare la più importante riserva agricolo alimentare del Mediterraneo».
A completamento delle formalità si pone poi il discorso del rettore della Lumsa, professor Bonini, che ha voluto rimarcare l’importanza del conferimento accademico: «Il dottorato in Mediterranean Studies, basato nel nostro dipartimento di Palermo, traguarda anche l’importante investimento che l’Università Lumsa ha aperto con l’istituzione del nostro University Africa Center. Il conferimento del dottorato a una personalità come quella di Federico Vecchioni vuole essere esemplare per i nostri studenti e studentesse, e per un impegno di ricerca, sviluppo e collaborazione con le realtà vive della società che qualifica l’università e ne conferma l’ispirazione e l’impegno per il bene comune nella grande prospettiva globale».
Continua a leggereRiduci
Mentre l’Italia tenta una timida risalita (+7,6% a marzo, con 185.367 immatricolazioni), il resto del continente (+1,7%) resta frenato da condizioni finanziarie restrittive: tassi elevati che la Bce fatica a ridurre, complice uno choc petrolifero che alimenta un’inflazione ancora persistente e comprime i redditi reali. In questo contesto, la domanda effettiva si contrae e il pricing power si deteriora.
La realtà è che l’ideologia politica in Europa ha preteso di ignorare le leggi della domanda: le aziende «vulnerabili», quelle che hanno puntato tutto su una transizione elettrica forzata, si ritrovano oggi con piazzali pieni e margini a picco. Parallelamente, la Cina ha cambiato ruolo: da mercato di sbocco a concorrente diretto e aggressivo. Marchi come Byd e Leapmotor registrano crescite a tre o quattro cifre anche in Italia, segnalando un vantaggio competitivo costruito su costi, integrazione verticale e velocità di esecuzione.
Il nesso per il portafoglio del risparmiatore è brutale. I dati appena pubblicati dal Gruppo Volkswagen per il primo trimestre 2026 confermano che il «mal di Cina» è diventato cronico e forse irreversibile. Le consegne globali sono calate del 4% (2,05 milioni di unità), ma è il tracollo delle elettriche a far tremare Wolfsburg: un pesantissimo -64% in Cina e -80% negli Stati Uniti. La tenuta europea (+12%) non basta a compensare la fine degli incentivi e l’inasprimento dei dazi americani.
Come osserva Salvatore Gaziano, responsabile delle strategie di investimento di SoldiExpert Scf: «Volkswagen sta vivendo il suo momento più buio: il mercato cinese, che un tempo garantiva profitti certi, oggi rigetta i modelli tedeschi. Il rischio per chi ha il titolo in portafoglio è di restare intrappolati in un gigante che fatica a ruotare la sua enorme stazza verso ciò che il cliente vuole davvero: auto accessibili, concrete e con motorizzazioni affidabili».
In questo scenario, Stellantis affronta una transizione manageriale critica. Il nuovo numero uno, Antonio Filosa, è chiamato a ricostruire un gruppo segnato dalla precedente gestione di Carlos Tavares, lodata per il cost-cutting ma accusata di aver compresso investimenti e qualità. «Filosa sta tentando di rimettere in carreggiata un’auto che rischiava il deragliamento», osserva l’analista e consulente finanziario indipendente. «Ha ereditato una struttura dove l’ossessione per il bilancio a breve termine ha logorato la qualità e la fiducia della rete».
La delusione più fragorosa arriva però da Porsche. Nel primo trimestre 2026 le vendite globali sono scese del 15%, con un crollo in Cina da 68.000 unità nel primo trimestre 2022 a meno di 7.800. L’utile netto è crollato del 91,4% (da 3,6 miliardi nel 2024 a 310 milioni nel 2025), mentre il fatturato si è contratto a circa 36,3 miliardi.
Continua a leggereRiduci
Francesco Lollobrigida (Ansa)
Coldiretti la definisce «una svolta», in quanto difende un patrimonio che oggi vale 707 miliardi di euro e trova nella Dop economy la sua espressione più avanzata. «Questa legge giaceva nei cassetti da oltre dieci anni e nessuno aveva mai avuto il coraggio di farla diventare un provvedimento», ha spiegato Lollobrigida, sottolineando che introduce due nuovi reati, l’aggravante di agropirateria e sanzioni proporzionali alle dimensioni del fatturato delle imprese, «affinché siano un vero deterrente. Inoltre, istituzionalizza la cabina di regia per un efficientamento dei sistemi di controllo». La legge rafforza la trasparenza e la tracciabilità dei prodotti lungo tutta la filiera per fornire informazioni quanto più esaustive possibili al consumatore anche al fine di tutelare la salute.
Di conseguenza, vengono inseriti nel Codice penale due reati: la «frode alimentare» per punire chi commercializza alimenti o bevande che, a sua conoscenza, non sono genuini o che provengono da luoghi diversi rispetto a quelli indicati (prevista la reclusione da 2 mesi a 1 anno), e il «commercio di alimenti con segni mendaci» per punire chi utilizza segni distintivi o indicazioni per indurre in errore il compratore sulla qualità o sulla quantità degli alimenti (reclusione da 3 a 18 mesi). È inserita l’aggravante di agropirateria, quando l’attività illecita è realizzata in maniera organizzata e continuativa, l’aggravante «quantità e biologico» (se i prodotti sono commercializzati come biologici ma non lo sono). In questi tre casi le pene sono aumentate. La legge prevede per questi reati anche la confisca obbligatoria di prodotti, beni o cose oggetto o prodotto dei reati.
L’autorità giudiziaria avrà l’obbligo di distribuire i prodotti sequestrati, ma commestibili, a enti territoriali o caritatevoli per destinarli a persone bisognose o animali abbandonati.
È prevista la protezione delle Indicazioni geografiche, attività che secondo l’ultimo rapporto Ismea-Qualivita nel 2024 ha realizzato 20,7 miliardi di euro di fatturato di cui 12,3 miliardi di euro realizzati all’estero. Previste sanzioni più dure per il reato di contraffazione delle indicazioni geografiche e delle denominazioni di origine protetta.
La legge vieta poi l’utilizzo del termine «latte» e di prodotti lattiero-caseari per prodotti vegetali se non accompagnato dalla denominazione corretta (per esempio il latte di mandorla venduto come sostitutivo senza distinzione). A dimostrazione della necessità di una legge con questi contenuti, Coldiretti cita l’ultimo Rapporto elaborato insieme a Eurispes e Fondazione osservatorio agromafie, secondo il quale il volume d’affari dei crimini agroalimentari in Italia è salito a 25,2 miliardi, praticamente raddoppiato nel giro dell’ultimo decennio.
Continua a leggereRiduci
Ecco #DimmiLaVerità del 16 aprile 2026. La deputata della Lega Rebecca Frassini illustra i contenuti della manifestazione di sabato 18 a Milano.