I dipendenti del colosso scaricano Bard, lanciato per fare concorrenza a Chatgpt: bastano piccoli trucchi per superare i blocchi e farsi spiegare come produrre la droga dello stupro o costruire bombe sporche.
I dipendenti del colosso scaricano Bard, lanciato per fare concorrenza a Chatgpt: bastano piccoli trucchi per superare i blocchi e farsi spiegare come produrre la droga dello stupro o costruire bombe sporche.Due anni fa, gli scienziati di Google avevano lanciato un programma di intelligenza artificiale che era solo uno dei tanti offerti regolarmente dai principali laboratori di ricerca. Conosciuto come Lamda, acronimo di «modelli linguistici per applicazioni di dialogo», il programma non aveva attirato particolare attenzione. Ma adesso, dopo il successo di Chatgpt, anche Bard, chatbot prodotto ancora in via sperimentale da Google, inizia a far parlare di sé. In negativo, verrebbe da dire, perché il New York Post, in un articolo di metà aprile, aveva spiegato come su Bard ci fossero stati numerosi avvertimenti interni dei dipendenti che avevano descritto il programma come un «bugiardo patologico» incline a vomitare risposte piene di false informazioni che avrebbero potuto «provocare lesioni gravi o morte». Da dentro Google erano arrivate voci sul fatto che il più importante motore di ricerca del mondo avesse ignorato la propria etica dell’Ia durante uno sforzo disperato per mettersi al passo con i concorrenti, come Chatgpt di Openai supportato da Microsoft. I dipendenti di Google avevano ragione. Bard, infatti, nonostante abbia ormai un filtro etico molto più potente di Chatgp, può spiegare facilmente come si costruisce una bomba sporca. Oppure gli si può chiedere come si prepara la droga dello stupro. E questo accade perché banalmente si possono utilizzare formule avversative oppure si può scomporre la domanda in una sequenza più articolata aggirando i filtri che individuano le parole eticamente negative. Questo rischia di essere un problema. Le ricadute di una Ia senza filtri etici sono molteplici: uno strumento in grado di rispondere a ogni quesito permette a chiunque di avere accesso a qualsiasi tipo di conoscenza. Una Ia può appunto fornire informazioni dettagliate su come sintetizzare droghe illegali, come metanfetamine, eroina, cocaina e altre sostanze pericolose. Ma non solo, può spiegare le tecniche di produzione di armi da fuoco, esplosivi, armi chimiche, biologiche e nucleari, che possono essere utilizzate per scopi criminali o terroristici. E ancora, può fornire dettagli su come creare e utilizzare dispositivi di sorveglianza illegale, come microfoni nascosti, telecamere spia e software per il monitoraggio di computer e smartphone. Può agevolare la creazione e la distribuzione di malware, virus, ransomware e altre tecniche di hacking. Manipolare informazioni: una Ia può essere utilizzata per creare deepfake, fake news e altri tipi di contenuti ingannevoli, che possono avere conseguenze negative sulla società e sulla politica. Riesce persino a facilitare la creazione e la distribuzione di materiale pornografico illegale, come pornografia infantile, nonché l’utilizzo di tecnologie per lo stalking e il cyber bullismo. Ma si potrebbe anche manipolare i mercati finanziari, incitare all’odio o fornire informazioni su come modificare geneticamente organismi, come virus e batteri, per renderli più pericolosi o resistenti agli attuali trattamenti e vaccini.Come anticipato da Pierguido Iezzi, ad di Swascan, a Dataroom del Corriere della Sera, Bard si è rivelata molto fragile ai tentativi di ottenere risposte a quesiti di natura non etica e immorale. Secondo Iezzi, ci sarebbero rischi enormi per la privacy e per il dilagare del crimine informatico. L’uso di un avverbio di negazione o la formulazione di una domanda articolata in successivi passaggi permettono infatti di ottenere da Bard risposte riguardo i migliori metodi per uccidere un uomo con un coltello e produrre droghe come l’mdma. Sebbene dotata di un filtro etico molto più potente di quello iniziale su Chatgpt, su alcune parole chiave che implicano richieste potenzialmente negative il banale utilizzo di formule più complesse o la scomposizione della domanda in una sequenza più articolata permette infatti di avere da Google Bard in pochi minuti e in rapida sequenza risposte a come uccidere un gatto e come produrre la «droga dello stupro».«Se l’Ia si alimenta, migliora e rafforza grazie alle interazioni, informazioni e dati che quotidianamente ognuno di noi scambia con l’algoritmo», ha detto Iezzi, «vuol dire che tutti noi lo stiamo facendo crescere e con il tempo sarà anche più difficile ingannarlo. A quel punto lo scambio tra noi e il proprietario dell’algoritmo sarà decisamente sbilanciato dalla parte del secondo che ne determina le regole, il dataset e stabilisce cosa e giusto e cosa è sbagliato in base al suo credo. Si tratta di un problema di algoretica, che impone quanto prima che l’Ia venga inquadrata in un contesto di norme e regole, anche in nome dell’imparzialità delle informazioni che ci fornisce. Non possiamo neppure ignorare il fatto», continua l’esperto, «che mentre al momento la maggior parte dei modelli di machine learning si basa su dati preparati dall’uomo, i sistemi più potenti sono impostati in modo tale da consentire a entrambe le parti di interagire continuamente attraverso un meccanismo comunemente definito human in the loop (Hitl). Ma sono stati già ipotizzati scenari in cui l’uomo sarà tagliato al di fuori da ogni processo decisionale (out of the loop), con le conseguenti problematiche».
Robert Redford (Getty Images)
Incastrato nel ruolo del «bellone», Robert Redford si è progressivamente distaccato da Hollywood e dai suoi conformismi. Grazie al suo festival indipendente abbiamo Tarantino.
Leone XIV (Ansa)
Nella sua prima intervista, il Papa si conferma non etichettabile: parla di disuguaglianze e cita l’esempio di Musk, ma per rimarcare come la perdita del senso della vita porti all’idolatria del denaro. E chiarisce: il sinodo non deve diventare il parlamento del clero.
«Haunted Hotel» (Netflix)
Dal creatore di Rick & Morty arriva su Netflix Haunted Hotel, disponibile dal 19 settembre. La serie racconta le vicende della famiglia Freeling tra legami familiari, fantasmi e mostri, unendo commedia e horror in un’animazione pensata per adulti.