True
2023-12-29
«Attacco robot»: Tesla sotto accusa. L’Ia stravolge la sicurezza sul lavoro
Ansa
Le nuove tecnologie sempre più sofisticate nelle fabbriche automobilistiche stanno cambiando non solo le modalità produttive ma anche il tipo di incidenti. È quanto è accaduto nella Gigafactory Tesla vicino a Austin, in Texas, un enorme stabilimento dove l’azienda di Elon Musk punta a costruire un’auto elettrica da meno di 25.000 dollari. L’incidente, riportato dal Daily Mail che ha avuto accesso ai documenti e dall’agenzia di stampa tecnologica The Information, si è verificato due anni fa e ha coinvolto un ingegnere «attaccato» da un robot. Questo lo ha colpito alla schiena e al braccio sinistro, ferendolo alla mano. Immediatamente i siti hanno parlato di rivolta delle macchine sull’uomo, una sorta di nemesi storica; piuttosto, in modo meno fantascientifico, è l’evoluzione degli incidenti sul lavoro per come li abbiamo conosciuti fino ad ora. Non c’è dubbio comunque che il fatto apre diversi interrogativi su come potrebbe essere in futuro la realtà nelle fabbriche, con la robotizzazione spinta della produzione industriale e la completa automatizzazione delle catene di montaggio.
L’agenzia The Information, raccogliendo alcune testimonianze, ha fatto un racconto dettagliato non privo di particolari quasi cinematografici sulle modalità dell’incidente. L’ingegnere, stava programmando un software per il controllo dei robot che tagliano parti di automobili da lastre di alluminio. Aveva iniziato a lavorare su tre robot ma non si era accorto che solo due erano stati spenti. Il terzo ha continuato a muoversi e «l’ha immobilizzato contro una superficie, spingendo i suoi «artigli» nel corpo e facendo uscire sangue dalla sua schiena e dal suo braccio», ha scritto l’agenzia. I dipendenti che hanno assistito alla scena hanno raccontato di essere intervenuti a schiacciare il pulsante di blocco di emergenza, per allentare la «presa» del robot. Dopo che il meccanismo è stato spento, l’uomo, ferito, è caduto «per un paio di metri lungo uno scivolo progettato per raccogliere rottami di alluminio, lasciando dietro di sé una scia di sangue». The Information ha precisato che l’incidente è venuto alla luce attraverso un record di infortuni depositato alle autorità di regolamentazione. Secondo la testata specializzata, nel 2022, quasi un lavoratore su 21 nella fabbrica Tesla in Texas, è rimasto ferito sul posto di lavoro, rispetto a un tasso medio del settore automobilistico statunitense di un lavoratore su oltre 30. Un avvocato interpellato dal Daily Mail ha detto che il numero di incidenti avvenuti nelle Gigafactory sarebbe superiore a quanto indicato dall’azienda e a questa conclusione è arrivato dopo diversi colloqui avuti direttamente con i lavoratori.
Non è la prima volta che succedono incidenti che vedono coinvolti processi automatizzati anche se con modalità diverse. L’8 novembre scorso, in Corea del Sud, un operaio è stato schiacciato da un braccio robotico e nel 1981, un dipendente della Kawasaki Heavy Industries, Kenji Urada è morto per aver ostacolato il percorso di un robot malfunzionante.
La replica di Elon Musk alla notizia diffusa dai media, non si è fatta attendere. Su X ha definito gli articoli come un’aggressione. «È davvero vergognoso che tirino fuori un incidente di due anni fa, dovuto a un semplice braccio robotico industriale Kuka, presente in tutte le fabbriche e insinuino che ora sia dovuto a Optimus». Secondo Tesla, inoltre, l’incidente non ha provocato giorni di assenza dal lavoro da parte del dipendente.
Musk ha fatto riferimento a Optimus, il robot umanoide progettato da Tesla, presentato nel 2021, che, nella sua nuova versione più avanzata, è sempre più simile a un umano, si muove più rapidamente e maneggia oggetti fragili come un uovo con grande dimestichezza, anche grazie ai sensori sulle articolazioni che rendono i movimenti più precisi. Musk è convinto che gli automi possano in futuro sostituire gli essere umani in una vasta gamma di applicazioni. Un’idea che finora ha lasciato perplessi analisti e investitori.
Inoltre anche se la notizia della fabbrica in Texas è vecchia di due anni ed è stata ridimensionata da Musk, resta il fatto che l’incidente si va ad aggiungere all’elenco di brutte notizie legate alle auto elettriche, tra incidenti e problemi alla guida.
Le docce fredde per il miliardario non finiscono qui. Secondo un’indiscrezione di Bloomberg, il colosso cinese Byd avrebbe superato Tesla nelle vendite del quarto e ultimo trimestre del 2023. La previsione parla di oltre 400.000 vetture elettriche, da ottobre a dicembre. Byd, che è anche tra i primi tre costruttori di batterie a livello mondiale ed è addirittura fornitore di Tesla, diventerebbe così il primo produttore al mondo di auto elettriche. La rincorsa è iniziata nel 2020 e nel terzo trimestre del 2023 ha visto le due case separate solo di 3.456 auto: 431.603 esemplari consegnati dalla casa di Elon Musk contro 435.059. La casa cinese vende molto in patria, che è il più grande mercato al mondo, e ancora poco all’estero ma la sua politica commerciale è particolarmente aggressiva e per il 2024 vuole giocarsi la partita fino in fondo.
L’algoritmo non è (ancora) un dottore
Un computer, un algoritmo al posto del medico di famiglia. È questo il futuro dell’intelligenza artificiale applicata alla sanità? Il potenziale delle nuove tecnologie applicate alla medicina è enorme ma non è privo di rischi. Un documento pubblicato dal ministero della Salute, «Linee guida sull’uso dei sistemi di intelligenza artificiale in ambito diagnostico», contiene alcune considerazioni sul tema. Uno dei rischi maggiori è legato all’uso di sistemi di intelligenza artificiale non sufficientemente testati e provvisti di prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi, prospettici (meglio se randomizzati), multicentrici, con un adeguato campione che sia effettivamente rappresentativo della popolazione presa in esame. Nelle Linee guida sono evidenziate anche le problematiche da possibili violazioni della privacy degli utenti e da discriminazioni, di razza o di genere, introdotte dalla programmazione degli algoritmi, dall’assenza di informazioni circa la sicurezza, dalla mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi e non ultimo il tema della scarsa preparazione del personale sanitario al corretto utilizzo delle nuove tecnologie; senza dimenticare le aspettative illusorie e fuorvianti per i pazienti derivanti da un utilizzo errato di tali sistemi digitali. Il documento ministeriale ricorda le criticità che si sono verificate nell’utilizzo delle tecniche di Ia per la diagnosi e la prognosi del Covid: «sono un monito a procedere in modo molto rigoroso prima di adottare questi sistemi nella pratica clinica». Per evitare distorsioni di valutazione, i sistemi di intelligenza artificiale vanno istruiti. Non sono mancati casi di algoritmi che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione utilizzato. C’è pure il fenomeno della black box, cioè la propensione dell’Ai a fornire risposte «difficili». Un discorso a parte merita il ChatGpt e come spiega l’Istituto di ricerche farmacologiche, Mario Negri, va affrontato con molta cautela. A differenza dei classici strumenti di intelligenza artificiale in grado di interpretare storie cliniche dei pazienti e dati raccolti secondo regole ben precise, ChatGpt, usando modelli linguistici di grandi dimensioni, aiuta a scrivere testi semplici e comprensibili. Quando si pongono delle domande a ChatGpt il sistema trova, attraverso il software, le parole più affini a quelle che le precedono. L’Istituto, nel suo sito, sottolinea che è un sistema capace di scrivere testi molto chiari ma non necessariamente affidabili. Il problema è che l’algoritmo attinge da tutto ciò che è su internet, comprese molte fake news. Un esempio? Se si chiede di fornire le informazioni più aggiornate secondo la letteratura scientifica su una particolare patologia o su un particolare farmaco, «la macchina», non avendo il concetto di letteratura scientifica più recente, ma capendo la sintassi, va a combinare nozioni che non sempre sono corrette. Per evitare errori, va ristretto il campo da cui prendere le informazioni, inserendo solo quelle affidabili, altrimenti ci sono gli stessi rischi di una ricerca su Google. La cautela è d’obbligo. Ciò non toglie che l’intelligenza artificiale, abbia un ruolo importante nello sviluppo della medicina come supporto per i medici nella diagnostica. Ma appunto, dietro deve esserci sempre l’uomo.
Continua a leggereRiduci
Fa rumore la notizia secondo cui, due anni fa, un ingegnere di Musk è stato ferito da una macchina in un mega impianto in Texas. La replica: «Era un braccio meccanico, i miei androidi non c’entrano». Il ministero della Salute ha diffuso delle linee guida sull’uso delle nuove tecnologie in ambito diagnostico. Il responso? Se dietro non c’è l’uomo possono fare danni. Lo speciale contiene due articoli.Le nuove tecnologie sempre più sofisticate nelle fabbriche automobilistiche stanno cambiando non solo le modalità produttive ma anche il tipo di incidenti. È quanto è accaduto nella Gigafactory Tesla vicino a Austin, in Texas, un enorme stabilimento dove l’azienda di Elon Musk punta a costruire un’auto elettrica da meno di 25.000 dollari. L’incidente, riportato dal Daily Mail che ha avuto accesso ai documenti e dall’agenzia di stampa tecnologica The Information, si è verificato due anni fa e ha coinvolto un ingegnere «attaccato» da un robot. Questo lo ha colpito alla schiena e al braccio sinistro, ferendolo alla mano. Immediatamente i siti hanno parlato di rivolta delle macchine sull’uomo, una sorta di nemesi storica; piuttosto, in modo meno fantascientifico, è l’evoluzione degli incidenti sul lavoro per come li abbiamo conosciuti fino ad ora. Non c’è dubbio comunque che il fatto apre diversi interrogativi su come potrebbe essere in futuro la realtà nelle fabbriche, con la robotizzazione spinta della produzione industriale e la completa automatizzazione delle catene di montaggio.L’agenzia The Information, raccogliendo alcune testimonianze, ha fatto un racconto dettagliato non privo di particolari quasi cinematografici sulle modalità dell’incidente. L’ingegnere, stava programmando un software per il controllo dei robot che tagliano parti di automobili da lastre di alluminio. Aveva iniziato a lavorare su tre robot ma non si era accorto che solo due erano stati spenti. Il terzo ha continuato a muoversi e «l’ha immobilizzato contro una superficie, spingendo i suoi «artigli» nel corpo e facendo uscire sangue dalla sua schiena e dal suo braccio», ha scritto l’agenzia. I dipendenti che hanno assistito alla scena hanno raccontato di essere intervenuti a schiacciare il pulsante di blocco di emergenza, per allentare la «presa» del robot. Dopo che il meccanismo è stato spento, l’uomo, ferito, è caduto «per un paio di metri lungo uno scivolo progettato per raccogliere rottami di alluminio, lasciando dietro di sé una scia di sangue». The Information ha precisato che l’incidente è venuto alla luce attraverso un record di infortuni depositato alle autorità di regolamentazione. Secondo la testata specializzata, nel 2022, quasi un lavoratore su 21 nella fabbrica Tesla in Texas, è rimasto ferito sul posto di lavoro, rispetto a un tasso medio del settore automobilistico statunitense di un lavoratore su oltre 30. Un avvocato interpellato dal Daily Mail ha detto che il numero di incidenti avvenuti nelle Gigafactory sarebbe superiore a quanto indicato dall’azienda e a questa conclusione è arrivato dopo diversi colloqui avuti direttamente con i lavoratori.Non è la prima volta che succedono incidenti che vedono coinvolti processi automatizzati anche se con modalità diverse. L’8 novembre scorso, in Corea del Sud, un operaio è stato schiacciato da un braccio robotico e nel 1981, un dipendente della Kawasaki Heavy Industries, Kenji Urada è morto per aver ostacolato il percorso di un robot malfunzionante.La replica di Elon Musk alla notizia diffusa dai media, non si è fatta attendere. Su X ha definito gli articoli come un’aggressione. «È davvero vergognoso che tirino fuori un incidente di due anni fa, dovuto a un semplice braccio robotico industriale Kuka, presente in tutte le fabbriche e insinuino che ora sia dovuto a Optimus». Secondo Tesla, inoltre, l’incidente non ha provocato giorni di assenza dal lavoro da parte del dipendente. Musk ha fatto riferimento a Optimus, il robot umanoide progettato da Tesla, presentato nel 2021, che, nella sua nuova versione più avanzata, è sempre più simile a un umano, si muove più rapidamente e maneggia oggetti fragili come un uovo con grande dimestichezza, anche grazie ai sensori sulle articolazioni che rendono i movimenti più precisi. Musk è convinto che gli automi possano in futuro sostituire gli essere umani in una vasta gamma di applicazioni. Un’idea che finora ha lasciato perplessi analisti e investitori.Inoltre anche se la notizia della fabbrica in Texas è vecchia di due anni ed è stata ridimensionata da Musk, resta il fatto che l’incidente si va ad aggiungere all’elenco di brutte notizie legate alle auto elettriche, tra incidenti e problemi alla guida. Le docce fredde per il miliardario non finiscono qui. Secondo un’indiscrezione di Bloomberg, il colosso cinese Byd avrebbe superato Tesla nelle vendite del quarto e ultimo trimestre del 2023. La previsione parla di oltre 400.000 vetture elettriche, da ottobre a dicembre. Byd, che è anche tra i primi tre costruttori di batterie a livello mondiale ed è addirittura fornitore di Tesla, diventerebbe così il primo produttore al mondo di auto elettriche. La rincorsa è iniziata nel 2020 e nel terzo trimestre del 2023 ha visto le due case separate solo di 3.456 auto: 431.603 esemplari consegnati dalla casa di Elon Musk contro 435.059. La casa cinese vende molto in patria, che è il più grande mercato al mondo, e ancora poco all’estero ma la sua politica commerciale è particolarmente aggressiva e per il 2024 vuole giocarsi la partita fino in fondo. <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/tesla-sotto-accusa-2666830997.html?rebelltitem=1#rebelltitem1" data-basename="lalgoritmo-non-e-ancora-un-dottore" data-post-id="2666830997" data-published-at="1703866485" data-use-pagination="False"> L’algoritmo non è (ancora) un dottore Un computer, un algoritmo al posto del medico di famiglia. È questo il futuro dell’intelligenza artificiale applicata alla sanità? Il potenziale delle nuove tecnologie applicate alla medicina è enorme ma non è privo di rischi. Un documento pubblicato dal ministero della Salute, «Linee guida sull’uso dei sistemi di intelligenza artificiale in ambito diagnostico», contiene alcune considerazioni sul tema. Uno dei rischi maggiori è legato all’uso di sistemi di intelligenza artificiale non sufficientemente testati e provvisti di prove scientifiche. Andrebbero condotti studi clinici metodologicamente più solidi, prospettici (meglio se randomizzati), multicentrici, con un adeguato campione che sia effettivamente rappresentativo della popolazione presa in esame. Nelle Linee guida sono evidenziate anche le problematiche da possibili violazioni della privacy degli utenti e da discriminazioni, di razza o di genere, introdotte dalla programmazione degli algoritmi, dall’assenza di informazioni circa la sicurezza, dalla mancanza di norme sulla responsabilità del medico nell’interazione con gli algoritmi e non ultimo il tema della scarsa preparazione del personale sanitario al corretto utilizzo delle nuove tecnologie; senza dimenticare le aspettative illusorie e fuorvianti per i pazienti derivanti da un utilizzo errato di tali sistemi digitali. Il documento ministeriale ricorda le criticità che si sono verificate nell’utilizzo delle tecniche di Ia per la diagnosi e la prognosi del Covid: «sono un monito a procedere in modo molto rigoroso prima di adottare questi sistemi nella pratica clinica». Per evitare distorsioni di valutazione, i sistemi di intelligenza artificiale vanno istruiti. Non sono mancati casi di algoritmi che hanno fallito nel rispondere a determinati quesiti (diagnostici, prognostici, predittivi) perché i pazienti per i quali si cercava la risposta non erano adeguatamente rappresentati nel campione utilizzato. C’è pure il fenomeno della black box, cioè la propensione dell’Ai a fornire risposte «difficili». Un discorso a parte merita il ChatGpt e come spiega l’Istituto di ricerche farmacologiche, Mario Negri, va affrontato con molta cautela. A differenza dei classici strumenti di intelligenza artificiale in grado di interpretare storie cliniche dei pazienti e dati raccolti secondo regole ben precise, ChatGpt, usando modelli linguistici di grandi dimensioni, aiuta a scrivere testi semplici e comprensibili. Quando si pongono delle domande a ChatGpt il sistema trova, attraverso il software, le parole più affini a quelle che le precedono. L’Istituto, nel suo sito, sottolinea che è un sistema capace di scrivere testi molto chiari ma non necessariamente affidabili. Il problema è che l’algoritmo attinge da tutto ciò che è su internet, comprese molte fake news. Un esempio? Se si chiede di fornire le informazioni più aggiornate secondo la letteratura scientifica su una particolare patologia o su un particolare farmaco, «la macchina», non avendo il concetto di letteratura scientifica più recente, ma capendo la sintassi, va a combinare nozioni che non sempre sono corrette. Per evitare errori, va ristretto il campo da cui prendere le informazioni, inserendo solo quelle affidabili, altrimenti ci sono gli stessi rischi di una ricerca su Google. La cautela è d’obbligo. Ciò non toglie che l’intelligenza artificiale, abbia un ruolo importante nello sviluppo della medicina come supporto per i medici nella diagnostica. Ma appunto, dietro deve esserci sempre l’uomo.
Nel riquadro il manifesto di Pro vita & famiglia (iStock)
Il Comune di Reggio Calabria ha fatto bene censurare i manifesti antiabortisti di Pro vita e famiglia: così ha stabilito il Tar della Calabria, con una sentenza emessa martedì contro la quale l’associazione pro life guidata da Toni Brandi e Jacopo Coghe intende ricorrere e che, a ben vedere, presenta dei profili paradossali. Ma facciamo un passo indietro, riepilogando brevemente la vicenda. Il 10 febbraio 2021 Pro vita inoltrava al Servizio affissioni del Comune di Reggio Calabria la richiesta di affissione di 100 manifesti, - raffiguranti l’attivista pro life Anna Bonetti con un cartello - specificando come in essi fosse contenuta la seguente frase: «Il corpo di mio figlio non è il mio corpo, sopprimerlo non è la mia scelta #stop aborto».
La richiesta è stata approvata e così i cartelloni sono stati subito affissi dalla società gestrice del relativo servizio. Tuttavia, già il giorno dopo i manifesti sono stati rimossi dalla società stessa. Il motivo? Con una semplice email – senza cioè alcun confronto né controllo preventivo - l’Assessore comunale alle Pari opportunità e Politiche di genere aveva richiesto al gestore del Servizio di affissioni pubbliche l’oscuramento dei manifesti «perché in contrasto con quanto contenuto nel regolamento comunale».
Pro vita ha così fatto ricorso al Tar e, nelle scorse ore, è arrivata una sentenza che ha dato ragione al Comune; e lo ha fatto in modo assai singolare, cioè appoggiandosi all’articolo 23 comma 4 bis del Codice della strada, introdotto dal decreto legge 10 settembre 2021, n. 121, entrato in vigore l'11 settembre 2021, e successivamente convertito, con modificazioni, dalla legge 9 novembre 2021, n. 15. Ora, come si può giustificare una censura con una norma che nel febbraio 2021 non c’era? Se lo chiede Pro vita, che se da un lato studia delle contromisure – già nel dicembre 2025 sono ricorsi alla Corte europea dei diritti umani contro due sentenze simili del Consiglio di Stato -, dall’altro richama l’attenzione del Parlamento e del centrodestra sulla citata normativa del Codice della strada, ritenuta un ddl Zan mascherato e da modificare.
In effetti, il citato articolo 23, vietando messaggi contrari agli «stereotipi di genere», ai «messaggi sessisti» e «all’identità di genere», offre la sponda a tanti bavagli. «Con la scusa di combattere sessismo e violenza, si apre la porta alla censura ideologica e a un pericoloso arbitrio amministrativo», ha dichiarato Toni Brandi alla Verità, aggiungendo che «formule come “stereotipi di genere offensivi” e “identità di genere” peccano di una grave indeterminatezza precettiva: sono concetti vaghi e soggettivi che permettono di colpire chiunque difenda la famiglia, la maternità e la realtà biologica». Di conseguenza, secondo il presidente di Pro vita e famiglia è «inaccettabile che sulle strade si vietino messaggi legittimi e pacifici in nome del politicamente corretto
«La sicurezza stradale, che dovrebbe occuparsi di incolumità e circolazione», ha altresì evidenziato Brandi, «è stata trasformata in un cavallo di Troia per zittire chi non si allinea al pensiero unico, come dimostrato dai numerosi casi di affissioni di Pro vita & famiglia rimosse o silenziate da amministrazioni di centrosinistra». Grazie anche al solito aiutino della magistratura.
Continua a leggereRiduci
Francesca Pascale e Simone Pillon si confrontano sui temi cari alla coalizione di governo prendendo le mosse dall'uscita del generale Vannacci dal partito di Matteo Salvini.
Il presidente della Polonia Karol Nawrocki (Ansa)
Il presidente ha colto l’occasione della visita nella storica università per presentare una proposta di programma per l’Unione europea. Nawrocki ha cominciato parlando della situazione attuale dell’Ue dove agiscono forze che spingono per «creare un’Unione europea più centralizzata, usando la federalizzazione come camuffamento per nascondere questo processo. L’essenza di questo processo è privare gli Stati membri, a eccezione dei due Stati più grandi, della loro sovranità; indebolire le loro democrazie nazionali consentendo loro di essere messi in minoranza nell’Ue, privandoli così del loro ruolo di «padroni dei Trattati»; abolire il principio secondo cui l’Ue possiede solo le competenze che le sono conferite dagli Stati membri nei trattati; riconoscere che l’Ue può attribuirsi competenze e affermare la supremazia della sovranità delle istituzioni dell’Ue su quella degli Stati membri». Tutto questo non era previsto nei Trattati fondanti dell’Unione. Secondo Nawrocki la più grande minaccia per l’Ue è «la volontà del più forte di dominare i partner più deboli. Pertanto, rifiutiamo il progetto di centralizzazione dell’Ue». Perciò delle questioni che riguardano il sistema politico e il futuro dell’Europa dovrebbero decidere «i presidenti, i governi e i parlamenti» che hanno il vero mandato democratico» e «non la Commissione europea e le sue istituzioni subordinate, che non sono rappresentative della diversità delle correnti politiche europee e sono composte secondo criteri ideologici».
Ma il presidente non si è limitato alla critica ma ha lanciato un programma polacco per il futuro dell’Unione europea, che parte da un presupposto fondamentale: «I padroni dei trattati e i sovrani che decidono la forma dell’integrazione europea sono, e devono rimanere, gli Stati membri, in quanto uniche democrazie europee funzionanti». Successivamente Nawrocki fa una premessa riguardante la concezione del popolo in Europa: «Non esiste un demos (popolo) europeo; la sua esistenza non può essere decretata, e senza un demos non c’è democrazia. Nella visione polacca dell’Ue, gli unici sovrani rimangono le nazioni […] Tentare di eliminarle - come vorrebbero i centralisti europei - porterà solo a conflitti e disgrazie».
Per questo motivo bisogna arrestare e invertire lo sfavorevole processo di centralizzazione dell’Ue. Per farlo Nawrocki propone in primo luogo, «il mantenimento del principio dell’unanimità in quegli ambiti del processo decisionale dell’Ue in cui è attualmente applicato». In secondo luogo, bisognerebbe «mantenere il principio «uno Stato - un commissario» nella struttura della Commissione europea, secondo il quale ogni Paese dell’Unione europea, anche il più piccolo, deve avere un proprio commissario designato nel massimo organo amministrativo dell’Ue, vietando al contempo la nomina di individui alle più alte cariche dell’Ue senza la raccomandazione del governo del Paese d’origine».
In terzo luogo, «la Polonia sostiene il ripristino della presidenza al capo dell’esecutivo dello Stato membro che attualmente detiene la presidenza dell’Ue, riportandola così alla natura pre-Lisbona. Pertanto, la Polonia propone anche di abolire la carica di presidente del Consiglio europeo. Il presidente del Consiglio deve, come in precedenza, essere il presidente, il primo ministro o il cancelliere del proprio Paese: un politico con un mandato democratico e una propria base politica, non un funzionario burocratico dipendente dal sostegno delle maggiori potenze dell’Ue. Mentre la natura rotazionale di questa carica conferiva a ciascun Stato membro un’influenza dominante periodica sul funzionamento del Consiglio europeo, il sistema attuale garantisce il predominio permanente delle “potenze centrali” dell’Ue e marginalizza le altre. Lo stesso vale per il Consiglio di politica estera dell’Ue, presieduto da un funzionario dipendente dalle maggiori potenze che non ha un mandato democratico, anziché dal ministro degli Esteri del Paese che detiene la presidenza». Il quarto punto: «la Polonia sostiene l’adeguamento del sistema di voto nel Consiglio dell’Ue per eliminare l’eccessiva predominanza dei grandi Stati dell’unione. Per mantenere il sostegno delle nazioni più piccole al processo di integrazione europea, queste nazioni devono avere una reale influenza sulle decisioni». Finalmente Nawrocki propone di «basare il funzionamento dell’Ue su principi pragmatici - senza pressioni ideologiche - limitando le competenze delle istituzioni dell’Ue a specifiche aree o sfide non ideologiche, come lo sviluppo economico o il declino demografico; limitando così gli ambiti di competenza delle istituzioni europee a quelli in cui le possibilità di efficacia sono significative. Ciò richiede l’abbandono di ambizioni eccessive di regolamentare l’intera vita degli Stati membri e dei loro cittadini e l’abbandono dell’intenzione di plasmare tutti gli aspetti della politica, talvolta aggirando o violando la volontà dei cittadini».
Nawrocki ha sottolineato anche una cosa fondamentale, cioè che «la Polonia ha una propria visione dell’Ue e ne ha diritto. Ha il diritto di promuovere la diffusione e l’adozione di questa visione. Questa è la natura della democrazia».
Leggendo il programma del presidente polacco per la riforma dell’Unione mi chiedo perché le sue proposte non vengono discusse nell’ambito europeo, perché non vengono condivise dai politici conservatori, dai partiti di destra, dagli ambienti che si dichiarano patriottici in altri Paesi dell’Europa?
Continua a leggereRiduci