2023-12-28
Le assicurazioni si buttano sull’Ia: boom di polizze per creatori e utenti
I colossi del settore iniziano a prezzare i rischi dell’Intelligenza artificiale, offrendo contratti che tutelano produttori e consumatori dai possibili errori degli algoritmi. Su cui Ocse, Ue e governi cercano la quadra. Gli ideatori di ChatGpt e Microsoft denunciati con l’accusa di aver usato illegalmente milioni di articoli per addestrare i bot. Causando danni miliardari al New York Times. Lo speciale contiene due articoli.Secondo la piattaforma dell’Ocse, il novembre 2023 è stato il mese con il maggior numero di «incidenti» mai registrati nella storia della cosiddetta Intelligenza artificiale. Il motivo è intuibile: nessuno fino a poco fa si era preso la briga di catalogarli. La cosa interessante in effetti è che l’Organizzazione per la cooperazione e lo sviluppo, uno degli enti sovranazionali più influenti in termini di politiche pubbliche, abbia ritenuto strategico costruire un registro di «eventi avversi». In una fase in cui la narrativa su questo strumento è passata dai lucciconi per un progresso miracoloso ai lamenti sulla prossima, inevitabile «fine di mondo», Chatgpt e soci rappresentano anzitutto un rischio potenziale. Che, come tale, genera un’attività economica: le assicurazioni.Quali sono i rischi dell’Ia, man mano che persone, aziende e settore pubblico affidano ai software compiti specifici come accompagnamento alle soluzioni, e poi diagnosi, terapie, selezioni del personale, funzionamento di impianti ad alta complessità? Una scorsa al database Ocse è istruttiva: si va dalla popstar che denuncia la creazione della sua voce per uno spot diffuso su Instagram, al sistema di navigazione difettoso che conduce un guidatore in mezzo al deserto di Mojave (California), all’avvocato del Colorado sospeso un anno per aver prodotto un documento in ambito processuale facendo ricorso all’Ia, fino a problemi più vertiginosi all’intreccio di diritto, tecnologia, identità, giustizia e diritti umani.L’Ocse classifica gli incidenti in diverse categorie: la più battuta è «Digital security», parliamo cioè di violazioni dei software utilizzati per entrare in possesso di informazioni preziose o riservate, o «bachi» nei sistemi. Ma troviamo anche la sezione «Democracy and human autonomy», che tocca uno dei nervi scoperti sull’utilizzo dell’Ia. Che succederebbe, per ipotesi, se la sanità pubblica usasse un software per predire determinate malattie, concentrando su certi soggetti la sua attenzione, e poi un soggetto tra i «trascurati» si ammalasse? E se un sistema di Ia regolasse a distanza le temperature delle abitazioni per minimizzare gli sprechi e un anziano morisse di freddo?Siccome questi esempi stanno uscendo dalle distopie per entrare nel novero delle possibilità concrete, i governi si stanno interrogando sul livello di controllo e sulle necessità di una regolamentazione comune (aspetti di cui La Verità si è spesso occupata, raccontando la posizione italiana sul tema). Per dare un’idea del peso specifico di tutto ciò: l’esecutivo britannico ha pubblicato due mesi fa un documento sui rischi della «Ia di frontiera», ovvero le applicazioni più avanzate: 44 pagine (disponibili qui: rb.gy/mv7xg5) che indicano il possibile perimetro d’azione del legislatore per mitigare i rischi derivanti dall’uso dell’Intelligenza artificiale, in un percorso destinato a possibili attriti con la libertà di espressione (non è certo impossibile pensare a modelli di Ia che facciano da «spazzini» del web inibendo contenuti sgraditi al potere). E sotto gli Stati? I colossi delle assicurazioni da tempo si sono attrezzati per offrire prodotti sia per chi «eroghi» l’Ia sia per chi se ne serva. Codificare il tipo di rischio è il primo step, che serve per studiarne la prevedibilità e formulare modelli e prodotti da offrire ai clienti, in un mercato che diventa ogni mese più grande. In realtà le assicurazioni hanno a che fare con l’Ia in almeno due sensi: primo, ci sono applicazioni molto promettenti nella predizione del rischio. Quali clienti sono più propensi ad avere incidenti, o malattie, a seconda delle loro condizioni di vita, abitudini, gusto, patrimonio genetico, reddito? Come usare questi dati senza ledere diritti e privacy? Il secondo fronte riguarda invece la costruzione di prodotti assicurativi che coprano i rischi dell’Ia utilizzata dai clienti. Su quest’ultimo settore si stanno concentrando investimenti e ricerca dei più grandi gruppi di polizze al mondo.MunichRe, il colosso della riassicurazione (assicuratori di chi vende polizze) con fatturato sopra i 50 miliardi di euro, ha lanciato una compagnia chiamata Aisure, concepita per fornire garanzie specifiche e personalizzate sull’utilizzo di sistemi di Intelligenza artificiale, sia come produttori sia come utenti. Dalla pletora di start-up del settore è emersa, tra le altre, Armilla (www.armilla.insure), che si propone di assicurare progetti di Ia in caso di fallimento del modello, e di proteggere gli utenti da errori o responsabilità derivanti dall’utilizzo di software problematici. Ma anche le compagnie più navigate e solide stanno allargando il raggio d’azione alle coperture assicurative dell’Ia: a titolo esemplificativo, Generali ha aggiornato il suo documento annuale sui rischi emergenti nel 2023 collocando quelli legati all’Ia nella categoria «Active concern risks», e offrendo coperture profilate su questo tipo di attività. Il documento sfiora un tema cruciale per chi fa informazione: secondo le previsioni del gruppo, infatti, «nel 2026 il 90% dei contenuti online potrebbe essere frutto di creazione o modifiche da parte dell’Ia». Un dato che spiega la crescente tutela di un bene essenziale (trovare e costruire una notizia) da parte delle testate giornalistiche: tutela ben documentata dalla causa a lungo preparata e intentata proprio ieri dal New York Times contro OpenAi. Stretta tra inevitabilità e possibile apocalisse, l’Ia si sta dimostrando anzitutto un rischio, e le assicurazioni si attrezzano di conseguenza. Per gli amanti del secondo estremo della gamma, può essere utile la lettura di un paper del californiano Center for Ai Safety, tutto dedicato ai «rischi catastrofici». Negli scenari peggiori, nessuna assicurazione potrebbe fare il suo lavoro. <div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/ia-boom-di-polizze-2666816312.html?rebelltitem=1#rebelltitem1" data-basename="il-nyt-porta-alla-sbarra-openai" data-post-id="2666816312" data-published-at="1703755001" data-use-pagination="False"> Il «Nyt» porta alla sbarra OpenAi Come promesso la scorsa estate, il New York Times ha fatto causa a OpenAi, la società che ha creato e gestisce ChatGpt, e Microsoft per violazione del copyright. Quella del quotidiano è l’ennesimo fronte della battaglia contro l’uso non autorizzato di articoli e immagini coperti da copyright per l’addestramento dei software di intelligenza artificiale generativa. Già lo scorso gennaio, Getty Images, tra le principali agenzie fotografiche al mondo, aveva avviato un’azione legale contro Stable Diffusion, un’Ia utilizzata per generare immagini dettagliate a partire da descrizioni testuali, per «aver copiato ed elaborato illegalmente milioni di immagini protette da copyright». La stessa accusa lanciata dal quotidiano statunitense: milioni di articoli pubblicati dal Times sarebbero stati utilizzati per istruire chatbot automatizzati che ora compete con i media tradizionali. La causa, presentata presso il tribunale distrettuale federale di Manhattan, non specifica una richiesta monetaria precisa, ma parla di «miliardi di dollari in danni statutari e reali» e chiede la «cancellazione» di quei software (e dei dati utilizzati per l’addestramento) che utilizzano materiale protetto da copyright, spiega il Nyt, «Gli imputati cercano di sfruttare gratuitamente i massicci investimenti del Times nel suo giornalismo», recita la denuncia, che accusa OpenAi e Microsoft di «utilizzare i contenuti del Times senza pagarli per creare prodotti che sostituiscano il giornale», poiché «OpenAi e gli altri modelli di Ia di Microsoft possono produrre testi che citano parola per parola il contenuto del Times, lo riassumono fedelmente e ne imitano lo stile espressivo, minando e danneggiando il rapporto con i lettori, dunque privando il quotidiano di abbonamenti, contratti di licenza, pubblicità ed entrate». Con la causa avviata ieri, il colosso dell’informazione Usa potrebbe rivoluzionare la normativa sulle intelligenze artificiali. «Se il Times e altre testate non possono produrre e proteggere il loro giornalismo indipendente, ci sarà un vuoto che nessun computer o intelligenza artificiale può colmare», si legge nella denuncia, «Verrà prodotto meno giornalismo e il costo per la società sarà enorme». Al diffondersi della notizia dell’azione legale, il titolo del New York Times è salito in Borsa dello 0,25%, mentre quello di Microsoft ha perso lo 0,2%. OpenAi è ora valutata dagli investitori più di 80 miliardi di dollari, mentre Microsoft ha investito 13 miliardi di dollari nell’azienda guidata da Sam Altman (e fondata anche da Elon Musk, che nel 2018 si dimise dal consiglio di amministrazione, restando un donatore) e ha inserito la tecnologia del modello Gpt-4 nel suo motore di ricerca Bing.
Sergio Spadaro e Fabio De Pasquale (Imagoeconomica)
Il ministro dell'Economia Giancarlo Giorgetti (Imagoeconomica)
Iil presidente di Confindustria Emanuele Orsini (Ansa)