2023-06-20
ChatGpt querelata per diffamazione. Ha accusato di frode un innocente
Uno speaker radiofonico americano ha deciso di portare l’intelligenza artificiale davanti al giudice. Il bot gli ha falsamente attribuito gravi reati. Ma il vero tema è: chi paga per gli errori di un algoritmo?Per la prima volta ChatGpt finisce sul banco degli imputati. Il giornalista radiofonico, Mark Walters, ha denunciato per diffamazione OpenAi, presentando ricorso davanti alla Corte superiore della Contea di Gwinnett, in Georgia. ChatGpt sarebbe colpevole di aver fornito informazioni false nei confronti del giornalista. Ma andiamo con ordine.Il tutto è partito da Fred Riehl, giornalista che stava lavorando sulla denuncia fatta da alcune organizzazioni no profit della Georgia contro Robert Ferguson e Joshua Studor accusati di appropriazione indebita e frode. Il giornalista il 4 maggio ha chiesto a ChatGpt di fargli un riassunto delle accuse presentate dalle organizzazioni, basandosi sul documento originale caricato precedentemente su ChatGpt. L’intelligenza artificiale ha risposto alla richiesta presentando un riassunto che ben poco si atteneva al testo originale. Gli imputati non erano più Robert Ferguson e Joshua Studor ma il giornalista radiofonico Mark Walters che di conseguenza veniva accusato di frode, appropriazione indebita e manipolazione dei rapporti finanziari. Ottenuta questa prima risposta Riehl ha chiesto a ChatGpt, prima di estrarre il paragrafo in cui sono presenti le accuse e poi di fornirgli il testo integrale del documento. Il risultato è stata la produzione ex novo di un testo che nulla aveva a che fare con l’originale denuncia presentata al tribunale. Riehl ha poi successivamente verificato la veridicità delle informazioni, giungendo alla conclusione che quanto fornito da CahtGpt fosse falso. A fronte di questa produzione Walters, il 5 giugno 2023, ha deciso di citare per diffamazione OpenAi dato che non è stato coinvolto nella questione e le informazioni fornite a Riehl, si legge nel testo della denuncia, mettono in cattiva luce la reputazione del giornalista. Ma dunque, cosa è successo? Gli esperti chiamano questo tipo di errori «allucinazioni» che sono legate a due fattori: da una parte a come l’intelligenza artificiale è stata addestrata dagli umani e dall’altro il fatto che ChatGpt non sa distinguere il vero dal falso. Il mix di queste due componenti può generare alle volte delle risposte che sembrano convincenti ma che sono totalmente sbagliate. Proprio per questo che OpenAi ha inserito, quando si apre la pagina di ChatGpt, dei disclaimer dove ammette che il chatbot può commettere degli errori. Disclaimer che non ha fermato la denuncia di Walters e del suo avvocato.La sentenza che dovrà decidere lo Stato della Georgia è molto attesa perché «non ci sono precedenti e questa rappresenta un tassello molto importante per il futuro dell’intelligenza artificiale», spiega Marco Miglietta, compliance & privacy specialist. Sentenza attesa per diversi motivi. Il primo per capire capire chi, nel caso, sarà considerato responsabile della pubblicazione di informazioni sbagliate. «Non è facile rispondere a questa domanda, anche perché ci si addentra in un ginepraio giuridico non facile da sbrogliare». Il giornalista nella denuncia ha citato OpenAi e dunque il suo rappresentante legale, ma cosa deciderà il giudice e chi riterrà responsabile è tutto da vedere. La seconda questione riguarda la presenza del disclaimer dove OpenAI precisa che ChatGpt può commettere degli errori. La domanda a cui i giudici dovranno rispondere, spiega Miglietta, e se questo avviso può essere sufficiente per giustificare le allucinazioni di ChatGpt e scagionare dunque OpenAi, oppure no. Secondo John Monroe, avvocato di Mark Walters «la ricerca e lo sviluppo dell’Ia è una sfida che vale la pena di portare avanti, ma è da irresponsabili dare al pubblico uno strumento che sappiamo può creare informazioni false così facilmente». Terzo e ultimo aspetto riguarda la sezione 230 del Communications Decency Act del 1996 negli Stati Uniti, che fornisce l’immunità dai casi di diffamazione, ai servizi online, per i contenuti pubblicati dai loro utenti. E dunque, ChatGpt come come deve essere considerata? Più simile ad un motore di ricerca, e quindi protetta dalla sezione 230, o come un chatbot che di fatto è in grado di creare del contenuto originale? Qualunque sarà l’esito della sentenza ci saranno delle ripercussioni per lo sviluppo futuro dell’intelligenza artificiale. Nel caso in cui al giornalista non fosse riconosciuta l’accusa di diffamazione si aprirebbe intorno a ChatGpt un ginepraio normativo di non poco conto, per capire come classificare questo strumento da un punto di vista giuridico. Dall’altro lato, se il giudice dovesse decidere a favore del giornalista verrebbe inevitabilmente rallentato lo sviluppo dell’intelligenza artificiale soprattutto sul lato pratico, spiega Miglietta: «Si andrebbe ad evidenziare sempre di più il gap tra macchine e umani, dove i primi usano gli algoritmi per rispondere mentre i secondi la testa». Emergerebbe dunque fortemente il fattore umano e le abilità che, almeno per il momento, i chatbot, non sono in grado di emulare. Basti pensare al fatto che lo stesso giornalista Riehl, prima di scrivere sulla vicenda ha verificato le informazioni fornite da ChatGpt, scoprendone la loro falsità. In ogni caso, diversi esperti del settore fanno sapere che questo tipo di denuncia non sarà l’ultima contro l’intelligenza artificiale.
«Haunted Hotel» (Netflix)
Dal creatore di Rick & Morty arriva su Netflix Haunted Hotel, disponibile dal 19 settembre. La serie racconta le vicende della famiglia Freeling tra legami familiari, fantasmi e mostri, unendo commedia e horror in un’animazione pensata per adulti.