I dipendenti del colosso scaricano Bard, lanciato per fare concorrenza a Chatgpt: bastano piccoli trucchi per superare i blocchi e farsi spiegare come produrre la droga dello stupro o costruire bombe sporche.
I dipendenti del colosso scaricano Bard, lanciato per fare concorrenza a Chatgpt: bastano piccoli trucchi per superare i blocchi e farsi spiegare come produrre la droga dello stupro o costruire bombe sporche.Due anni fa, gli scienziati di Google avevano lanciato un programma di intelligenza artificiale che era solo uno dei tanti offerti regolarmente dai principali laboratori di ricerca. Conosciuto come Lamda, acronimo di «modelli linguistici per applicazioni di dialogo», il programma non aveva attirato particolare attenzione. Ma adesso, dopo il successo di Chatgpt, anche Bard, chatbot prodotto ancora in via sperimentale da Google, inizia a far parlare di sé. In negativo, verrebbe da dire, perché il New York Post, in un articolo di metà aprile, aveva spiegato come su Bard ci fossero stati numerosi avvertimenti interni dei dipendenti che avevano descritto il programma come un «bugiardo patologico» incline a vomitare risposte piene di false informazioni che avrebbero potuto «provocare lesioni gravi o morte». Da dentro Google erano arrivate voci sul fatto che il più importante motore di ricerca del mondo avesse ignorato la propria etica dell’Ia durante uno sforzo disperato per mettersi al passo con i concorrenti, come Chatgpt di Openai supportato da Microsoft. I dipendenti di Google avevano ragione. Bard, infatti, nonostante abbia ormai un filtro etico molto più potente di Chatgp, può spiegare facilmente come si costruisce una bomba sporca. Oppure gli si può chiedere come si prepara la droga dello stupro. E questo accade perché banalmente si possono utilizzare formule avversative oppure si può scomporre la domanda in una sequenza più articolata aggirando i filtri che individuano le parole eticamente negative. Questo rischia di essere un problema. Le ricadute di una Ia senza filtri etici sono molteplici: uno strumento in grado di rispondere a ogni quesito permette a chiunque di avere accesso a qualsiasi tipo di conoscenza. Una Ia può appunto fornire informazioni dettagliate su come sintetizzare droghe illegali, come metanfetamine, eroina, cocaina e altre sostanze pericolose. Ma non solo, può spiegare le tecniche di produzione di armi da fuoco, esplosivi, armi chimiche, biologiche e nucleari, che possono essere utilizzate per scopi criminali o terroristici. E ancora, può fornire dettagli su come creare e utilizzare dispositivi di sorveglianza illegale, come microfoni nascosti, telecamere spia e software per il monitoraggio di computer e smartphone. Può agevolare la creazione e la distribuzione di malware, virus, ransomware e altre tecniche di hacking. Manipolare informazioni: una Ia può essere utilizzata per creare deepfake, fake news e altri tipi di contenuti ingannevoli, che possono avere conseguenze negative sulla società e sulla politica. Riesce persino a facilitare la creazione e la distribuzione di materiale pornografico illegale, come pornografia infantile, nonché l’utilizzo di tecnologie per lo stalking e il cyber bullismo. Ma si potrebbe anche manipolare i mercati finanziari, incitare all’odio o fornire informazioni su come modificare geneticamente organismi, come virus e batteri, per renderli più pericolosi o resistenti agli attuali trattamenti e vaccini.Come anticipato da Pierguido Iezzi, ad di Swascan, a Dataroom del Corriere della Sera, Bard si è rivelata molto fragile ai tentativi di ottenere risposte a quesiti di natura non etica e immorale. Secondo Iezzi, ci sarebbero rischi enormi per la privacy e per il dilagare del crimine informatico. L’uso di un avverbio di negazione o la formulazione di una domanda articolata in successivi passaggi permettono infatti di ottenere da Bard risposte riguardo i migliori metodi per uccidere un uomo con un coltello e produrre droghe come l’mdma. Sebbene dotata di un filtro etico molto più potente di quello iniziale su Chatgpt, su alcune parole chiave che implicano richieste potenzialmente negative il banale utilizzo di formule più complesse o la scomposizione della domanda in una sequenza più articolata permette infatti di avere da Google Bard in pochi minuti e in rapida sequenza risposte a come uccidere un gatto e come produrre la «droga dello stupro».«Se l’Ia si alimenta, migliora e rafforza grazie alle interazioni, informazioni e dati che quotidianamente ognuno di noi scambia con l’algoritmo», ha detto Iezzi, «vuol dire che tutti noi lo stiamo facendo crescere e con il tempo sarà anche più difficile ingannarlo. A quel punto lo scambio tra noi e il proprietario dell’algoritmo sarà decisamente sbilanciato dalla parte del secondo che ne determina le regole, il dataset e stabilisce cosa e giusto e cosa è sbagliato in base al suo credo. Si tratta di un problema di algoretica, che impone quanto prima che l’Ia venga inquadrata in un contesto di norme e regole, anche in nome dell’imparzialità delle informazioni che ci fornisce. Non possiamo neppure ignorare il fatto», continua l’esperto, «che mentre al momento la maggior parte dei modelli di machine learning si basa su dati preparati dall’uomo, i sistemi più potenti sono impostati in modo tale da consentire a entrambe le parti di interagire continuamente attraverso un meccanismo comunemente definito human in the loop (Hitl). Ma sono stati già ipotizzati scenari in cui l’uomo sarà tagliato al di fuori da ogni processo decisionale (out of the loop), con le conseguenti problematiche».
        Ansa
    
L’inviato di Trump incontra, con Witkoff, il premier Netanyahu in vista del vertice di oggi con Vance. Bibi pressa Hamas per riavere i corpi degli ostaggi morti. Disco rotto Bruxelles: minaccia sanzioni a Gerusalemme. L’Iran annulla l’accordo con l’Aiea sul nucleare.
        Giorgia Meloni (Ansa)
    
Trump pubblica sui social un video dove si spiega che la Meloni sta trattando con gli Usa sui dazi. Palazzo Chigi: «Stiamo cercando di evitare le tariffe sulla pasta». Era quello che i dem le rimproveravano di non fare. Ma ora cambiano idea e la attaccano.
Ecco #EdicolaVerità, la rassegna stampa podcast del 21 ottobre con Carlo Cambi





