2024-02-03
«Chip nel cervello, rischio hacker»
True
Il test della Neuralink avvia una rivoluzione. Pierguido Iezzi (Swascan): «Pericoli per privacye cybersicurezza. Ma i neuro impianti potranno potenziare le prestazioni dei soldati».«È come se stessimo assistendo a un passaggio chiave nel cosiddetto Rinascimento digitale, in cui la tecnologia, al pari del recente focus sullo smart working durante la pandemia, sta ridefinendo il modo in cui percepiamo il mondo». Pierguido Iezzi, ceo di Swascan del gruppo Tinexta, spiega alla Verità quale sarà l’impatto del primo microchip in un cervello umano annunciato da Elon Musk.È stato impiantato il primo microchip in un cervello umano. Lo ha annunciato Elon Musk. Cosa cambia nel mondo dopo questa innovazione tecnologica? «Sono diversi i cambiamenti a cui andremo incontro e molteplici le sfide da affrontare. In primo luogo, la privacy: i Brain-Computer Interface (BCI) acquisiscono dati direttamente dal cervello. La capacità di interpretare i pensieri solleva interrogativi etici sulla riservatezza individuale e sulla sicurezza dei dati neurali, a rischio di accesso non autorizzato e di possibili manipolazioni. Oggi tutto questo appare fantascienza: al momento siamo solo nelle fasi embrionali, ma non è difficile immaginare, viste le recenti accelerazioni epocali nel campo dell’IA, che questa tecnologia possa subire una forte accelerazione. Essa è già diventata parte integrante di alcune società, come Cina, Spagna e Stati Uniti. In questo contesto, emergono tematiche cruciali legate all'integrità mentale, al neurohacking e al cambiamento delle percezioni cognitive, in uno scenario non lontano dal futuro distopico immaginato in “Strange Days”, un film di quasi trent’anni fa in cui gli individui potevano rivivere esperienze altrui tramite un –per l’epoca – bizzarro dispositivo tecnologico in grado di riprodurre e far percepire memorie di fatti vissuti: rivisto oggi, questo noir postmoderno fa molto riflettere. Un secondo aspetto etico cruciale riguarda il controllo e la manipolazione dei pensieri. Se i segnali cerebrali possono essere letti e interpretati, sorge la questione della libertà di pensiero e del rischio di coercizione attraverso interferenze con il cervello. La convergenza tra biologia e tecnologia può infatti avere implicazioni profonde in ambito di sicurezza. Questa nuova tecnologia fornisce la capacità di interfacciare direttamente il cervello con i sistemi informatici, potenziando notevolmente l’efficienza e la velocità del processo decisionale ma esponendo la mente ad attacchi informatici. Si può arrivare infatti ad immaginare lo sviluppo di sistemi capaci di hackerare il cervello umano per instillare falsi ricordi, carpire informazioni o addirittura assumerne il controllo, aprendo un nuovo fronte ai cyber attacchi. La sfida è bilanciare l'uso benefico di questa tecnologia con la salvaguardia delle libertà individuali.Detto questo, non si tratta solo di stabilire leggi e regolamenti, ma di anticipare e adattarsi in modo proattivo a una realtà che cambia rapidamente. L'impatto sociale e culturale dell'introduzione diffusa dei BCI sarà notevole, con radicali cambiamenti nelle dinamiche sociali, nella comunicazione umana e nelle concezioni culturali. È un invito a esplorare non solo i diritti e i rischi, ma anche il nostro ruolo nel plasmare il futuro di una società che abbraccia la convergenza tra mente umana e intelligenza artificiale».E a livello di cybersicurezza che rischi comporta farsi impiantare un link nel cervello? «Il trasferimento della tecnologia delle interfacce cervello-computer (BCI) dal laboratorio al mondo reale presenta sfide legate alla riservatezza, all'integrità e alla disponibilità di dati e sistemi, violabili da possibili cyberattacchi. Emergono due preoccupazioni specifiche. In primo luogo, le informazioni private di un individuo potrebbero essere ottenute senza consenso: esperimenti teorici hanno dimostrato la possibilità di estrarre codici PIN specifici dai segnali EEG registrati, indicando che la privacy potrebbe essere più vulnerabile rispetto alla sicurezza in applicazioni basate su BCI. Inoltre sono già stati simulati sperimentalmente diversi tipi di cyberattacchi, come il neuronal flooding, il neuronal scanning e il neuronal jamming, capaci di influenzare o addirittura inibire l’attività neuronale attraverso la BCI. In secondo luogo, il comportamento dell'utente potrebbe essere alterato agendo sull'attività cerebrale: con lo sviluppo di BCIs wireless in reti di prossima generazione come 6G, potrebbe esserci la possibilità di ricevere segnali non autorizzati capaci di influenzare il comportamento individuale o sociale».Sembra che migliaia di persone si fossero già messe in lista d'attesa per fare da cavie a Neuralink, l'azienda di neurotecnologie di Musk. Nonostante migliaia di animali fossero rimasti uccisi durante le sperimentazioni «Gli sforzi di Neuralink provocano polemiche per motivi che vanno oltre la persona di Musk, capace già di per sé di polarizzare l’attenzione. I test sugli animali, con oltre 1.500 decessi nei laboratori in sei anni di sperimentazione, hanno portato accuse di crudeltà. Molto clamore ha riguardato in particolare un test di sette anni fa che ha comportato "gravi difetti neurologici" per una scimmia: la colla fuoriuscita dall'impianto ha infiammato parti del suo cervello. Anche per questo motivo, per Neuralink non è stato facile ottenere l'approvazione della FDA, soprattutto per l'incertezza sugli effetti a lungo termine degli impianti cerebrali. In particolare, c'era e c'è ancora ambiguità riguardo al rischio di danni cerebrali permanenti causati dall'esposizione prolungata all'impianto e alla sua batteria. C'erano anche preoccupazioni che l'impianto potesse essere difficile da rimuovere, che i fili potessero spostarsi in diverse aree del cervello e che i chip potessero surriscaldarsi. Li Xiaojian, ricercatore presso l'Accademia cinese delle scienze, ha dichiarato che quando un elettrodo funziona male, rimuoverlo dal tessuto cerebrale è simile a inserire un ago nel burro e cercare di estrarlo. L'impianto N1 utilizza 1024 elettrodi. Se uno di questi elettrodi dovesse funzionare male, la rimozione o la sostituzione costituirebbe una manovra con un rischio significativo di danneggiare la corteccia cerebrale. Nonostante questo, sembra che l’aura di Musk sia stata sufficiente ad attirare “cavie”».In un futuro non troppo lontano potremmo muovere il mouse o la tastiera tramite il pensiero. Ma magari in futuro potremmo anche controllare armi o droni«Si sta già lavorando in questo campo. Anzi è stato da tempo ipotizzato. Oltre all’attivazione remota di strumenti offensivi, i BCI potranno essere usati anche per aumentare la tolleranza al dolore o l’aggressività dei soldati, entrando nel campo della wetwar. L’ibridazione diretta tra uomo e macchina, con lo sviluppo di cervelli biomeccanci, ci proietta in una nuova era in cui materia biologica e artificiale si fonderanno in individui potenziati, una specie di supersoldati capaci di attività fisiche e mentali letali per l’avversario. Le tecnologie arriveranno a modificare gli embrioni umani, creando donne e uomini geneticamente potenziati, con muscoli più forti, udito migliore e vista più acuta. Assisteremo a una corsa agli armamenti neurali, ad una militarizzazione sempre più spinta delle neurotecnologie. Del resto, sebbene alcune innovazioni e progressi tecnologici derivino da obiettivi più elevati - come la ricerca scientifica, il conseguimento di profitti commerciali o il miglioramento della qualità della vita individuale - il principale motore del rapido progresso tecnologico risiede nel massimo mantenimento delle capacità militari. L'escalation dei conflitti tecnologici tra nazioni accelera ulteriormente questo processo, con ogni nuova invenzione che segna un progresso significativo nell'arte della guerra. L'iperguerra, termine coniato da John R. Allen e Amir Husain, è un conflitto caratterizzato dal controllo algoritmico o dall'intelligenza artificiale, con decisioni umane ridotte al minimo. Nonostante le numerose preoccupazioni, incertezze e rischi associati, l'iperguerra è già iniziata, sebbene non ne siamo ancora pienamente consapevoli. Con l'ulteriore coinvolgimento dell'IA, le regole del campo di battaglia vengono riscritte da una mano incerta. Quelli in corso potrebbero essere gli ultimi conflitti in cui gli esseri umani mantengono il controllo decisionale. La tecnologia dei droni svolge un ruolo critico nella definizione delle capacità militari degli stati moderni, ma in parallelo il tema della velocità e dell’adattabilità è diventato il fulcro e caratteristica principale dei nuovi malware così come lo sfruttamento delle nuove vulnerabilità e zeroday».Trasformare un impulso cerebrale in un'azione cibernetica cosa potrebbe comportare a livello sociale, economico e politico? «Il cervello è il centro di coordinamento delle funzioni vitali e della mente umana: una volta coinvolto nel mondo cyber, è necessario definire nuovi "neurodiritti", che includono il diritto alla libertà cognitiva, alla continuità psicologica, alla privacy e all'integrità mentale, considerati essenziali per proteggere gli individui dagli impatti delle interfacce cervello-computer e di altre neurotecnologie. Il diritto alla privacy mentale dovrebbe proteggere dalle violazioni della riservatezza dovute dall'accesso non voluto alle informazioni neurali, mentre la continuità psicologica mira a preservare l'identità personale e la vita mentale da interferenze esterne non autorizzate. Il diritto all'integrità mentale protegge dalle manipolazioni illecite dell'attività mentale abilitate dalle neurotecnologie, e il diritto alla libertà cognitiva assicura la libertà di scelta e decisione nell'uso di queste tecnologie. A livello pratico, questi neurodiritti sono diventati strumenti di governance tecnologica e dibattito legislativo in vari paesi. Il Cile ha approvato leggi sulla neuroprotezione e sull'integrità mentale, mentre la Spagna ha incluso i neurodiritti nella sua Carta dei diritti digitali. A livello sovranazionale, organizzazioni come l'OCSE e il Consiglio d'Europa stanno affrontando le implicazioni delle neurotecnologie nei diritti umani. Affrontare queste sfide richiede un approccio proattivo, con un dibattito aperto e pubblico che coinvolga scienziati, giuristi e filosofi dell’etica insieme ai cittadini. Inoltre, sono necessarie risposte politiche calibrate per garantire equità, uguaglianza e la massima diffusione delle neurotecnologie, evitando l'accentuazione delle disuguaglianze socioeconomiche. La protezione della fiducia nella condivisione dei dati è essenziale attraverso regole chiare e l'applicazione ponderata dei neurodiritti. La sfida sociale di proteggere la dimensione mentale dell'essere umano richiede pertanto un bilanciamento tra l'innovazione tecnologica e la tutela dei diritti fondamentali».Sono diverse le aziende impegnate in questo campo. Può rappresentare il nostro futuro? «Questa tecnologia, sebbene avanzata, è solo agli inizi. In futuro, ci si aspetta che si sviluppino metodi meno invasivi per catturare l'attività elettrica cerebrale, comprese le applicazioni nell'uso della spettroscopia nell'infrarosso vicino e una migliore comprensione dei segnali EEG. Si prevede anche l'emergere di interfacce cerebro-cervello, consentendo effettivamente l'invio e la ricezione di messaggi telepatici. Questa tecnologia potrebbe persino estendersi al controllo dei corpi altrui. Le implicazioni etiche sono enormi, come il potenziale per decodificare i pensieri più personali di una persona. Tuttavia, la tecnologia offre anche un'enorme potenzialità positiva, dall'uso preciso del controllo di macchine al ripristino della mobilità per chi l'ha persa».Come per ChatGPT ancora una volta l'uomo sembra trovarsi impreparato a questo appuntamento, senza una normativa adeguata.«Il diritto, per sua natura, non è un processo rapido. Sarebbe sciocco puntare il dito sui regolatori. Attualmente, le normative sulla privacy e sull'applicazione di tecnologie neurali come quelle di Neuralink sono in fase di sviluppo e discussione. È probabile che l'introduzione di tali tecnologie solleciterà una revisione delle leggi esistenti per affrontare questioni legate alla protezione dei dati neurali, alla sicurezza e alla libertà di pensiero. Inoltre, la tecnologia di Neuralink potrebbe richiedere una regolamentazione più approfondita per garantire che gli impianti cerebrali siano utilizzati in modo etico e sicuro, evitando abusi o intrusioni nella sfera privata delle persone».