Dopo l’allarme di Elon Musk, l’autorità della privacy ordina la sospensione della piattaforma ChatGpt (che però funziona ancora): non chiarisce l’uso dei dati personali e rappresenta un pericolo per i minori.
Dopo l’allarme di Elon Musk, l’autorità della privacy ordina la sospensione della piattaforma ChatGpt (che però funziona ancora): non chiarisce l’uso dei dati personali e rappresenta un pericolo per i minori.L’Autorità garante della privacy ha aperto un’istruttoria e disposto la limitazione provvisoria della piattaforma ChatGpt: forti dubbi sul trattamento dei dati degli utenti, in particolare dei minorenni, di cui non verifica l’età. Il «blocco» è facilmente aggirabile, ma l’attrito tra questi strumenti e le leggi in vigore è desinato ad aumentare. Il Garante della privacy ha scoperto che c’è un problema di dati raccolti dalle nuove chat di intelligenza artificiale. Ieri ha così disposto con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma ChatGpt. L’Autorità, precisa in una nota, ha contestualmente aperto un'istruttoria dopo aver rilevato «la mancanza di un’informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI», ma soprattutto «l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di addestrare gli algoritmi sottesi al funzionamento della piattaforma». Oltre alla presunta raccolta illecita dei dati personali, il Garante ha rilevato inoltre l’assenza di sistemi per la verifica dell’età dei minori nonostante il servizio, secondo i termini pubblicati da OpenAI, sia rivolto ai maggiori di 13 anni. Non è la prima volta che il controllore dei dati italiano intraprende azioni del genere contro un chatbot di intelligenza artificiale. A febbraio aveva infatti fermato Replika, che basandosi sull'intelligenza artificiale genera un «amico virtuale», per non rispettare il principio di trasparenza ed effettuare un trattamento di dati personali illecito, «in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere».ChatGPT è comunque il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane. Lo scorso 20 marzo ha subito una perdita di dati relativi alle conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento. In sostanza, a causa di un bug, ChatGPT ha esposto pubblicamente i dati di alcuni utenti consentendo ad altri di accedere alla cronologia delle conversazioni. OpenAI, che non ha una sede nell’Unione europea ma ha designato un rappresentante nello spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.L’intervento dell’Autorità italiana ha ordinato a OpenAI di interrompere immediatamente la raccolta dei dati degli utenti italiani fino a quando non modificherà le sue pratiche. Ciò però non implica necessariamente un divieto definitivo all’uso del servizio che, infatti, ieri continuava a funzionare (tramite una VPN reindirizzando il traffico). Serve, piuttosto, una discussione necessaria sulla cosiddetta data retention e un quadro normativo a livello europeo perché la tutela dei dati e della privacy in ambito tecnologico è un contributo al progresso, non un freno. Nel caso del bug di OpenAI, per altro, è stato violato un regolamento Ue ma non esiste un garante europeo che faccia enforcement per tutti.La mossa ha comunque innescato il dibattito, anche politico. Il primo ad alzare la voce è stato Matteo Renzi su Twitter: «L’idea che le istituzioni italiane possano bloccare lo sviluppo dell’intelligenza artificiale è una barzelletta. Non si ferma l’innovazione per decreto. Preoccupiamoci di costruire il futuro, non di fare battaglie ideologiche con la testa rivolta al passato», ha cinguettato il leader di Italia Viva. Usando proprio la piattaforma social di proprietà di Elon Musk che nei giorni scorsi , con il cofondatore di Apple, quelli di Pinterest e Skype e altri leader hi-tech, ha chiesto una pausa di almeno sei mesi nell'«addestramento» dei sistemi più avanzati di intelligenza artificiale come GPT-4 (la chatbot di OpenAI capace di raccontare barzellette e superare facilmente esami come quello per diventare avvocato) per consentire lo sviluppo di protocolli di sicurezza condivisi. Nel frattempo, però, non si fermano i progetti di ChatGpt. Il software di intelligenza artificiale nei prossimi mesi potrebbe diventare indistinguibile da un essere umano con l’aggiornamento numero 5. A svelare il progetto di ChatGpt-5 è stato lo sviluppatore Siqi Chen che ha dichiarato su Twitter di aver appreso che la nuova versione del software, che sarebbe rilasciata il prossimo inverno, dovrebbe raggiungere l'Agi, acronimo di artificial general intelligence, cioè la capacità di un programma di pensare e agire esattamente come una persona. Ergo, parlare con ChatGpt-5, tra qualche mese potrebbe assomigliare sempre di più al parlare con un essere umano. OpenAI dovrà affrontare intanto negli Stati Uniti una denuncia rivolta alla Federal Trade Commission: è stata sporta dalla società di ricerca senza scopo di lucro Center for AI and Digital Policy e chiede all’agenzia americana di far sospendere alla società l’implementazione commerciale di modelli linguistici di grandi dimensioni come ChatGpt. L’associazione definisce Gpt-4, l’ultima versione del software, «di parte, ingannevole e con un rischio per la privacy e la sicurezza pubblica».
Giovanni Pitruzzella (Ansa)
Il giudice della Consulta Giovanni Pitruzzella: «Non c’è un popolo europeo: la politica democratica resta ancorata alla dimensione nazionale. L’Unione deve prendere sul serio i problemi urgenti, anche quando urtano il pensiero dominante».
Due anni fa il professor Giovanni Pitruzzella, già presidente dell’Autorià garante della concorrenza e del mercato e membro della Corte di giustizia dell’Unione europea, è stato designato giudice della Corte costituzionale dal presidente della Repubblica. Ha accettato questo lungo colloquio con La Verità a margine di una lezione tenuta al convegno annuale dell’Associazione italiana dei costituzionalisti, dal titolo «Il problema della democrazia europea».
Ansa
Maurizio Marrone, assessore alla casa della Regione Piemonte in quota Fdi, ricorda che esiste una legge a tutela degli italiani nei bandi. Ma Avs la vuole disapplicare.
In Italia non è possibile dare più case agli italiani. Non appena qualcuno prova a farlo, subito si scatena una opposizione feroce, politici, avvocati, attivisti e media si mobilitano gridando alla discriminazione. Decisamente emblematico quello che sta avvenendo in Piemonte in queste ore. Una donna algerina sposata con un italiano si è vista negare una casa popolare perché non ha un lavoro regolare. Supportata dall’Asgi, associazione di avvocati di area sorosiana sempre in prima fila nelle battaglie pro immigrazione, la donna si è rivolta al tribunale di Torino che la ha dato ragione disapplicando la legge e ridandole la casa. Ora la palla passa alla Corte costituzionale, che dovrà decidere sulla legittimità delle norme abitative piemontesi.
Henry Winkler (Getty Images)
In onda dal 9 novembre su History Channel, la serie condotta da Henry Winkler riscopre con ironia le stranezze e gli errori del passato: giochi pericolosi, pubblicità assurde e invenzioni folli che mostrano quanto poco, in fondo, l’uomo sia cambiato.
Il tono è lontano da quello accademico che, di norma, definisce il documentario. Non perché manchi una parte di divulgazione o il tentativo di informare chi stia seduto a guardare, ma perché Una storia pericolosa (in onda dalle 21.30 di domenica 9 novembre su History Channel, ai canali 118 e 409 di Sky) riesce a trovare una sua leggerezza: un'ironia sottile, che permetta di guardare al passato senza eccessivo spirito critico, solo con lo sguardo e il disincanto di chi, oggi, abbia consapevolezze che all'epoca non potevano esistere.
Ansa
Gli obiettivi imposti sono rifiutati perché deleteri e insostenibili. Farebbero meglio a seguire i consigli di Bill Gates.
L’appuntamento è fisso e il corollario di allarmi sulla imminente fine del mondo arriva puntuale. Alla vigilia della Cop30 - la Conferenza delle Nazioni Unite sul clima che si terrà a Belém, in Brasile, dal 10 al 21 novembre - il fronte allarmista globale ha rinnovato il coro catastrofico con la pubblicazione di due rapporti cruciali. L’Organizzazione meteorologica mondiale (Wmo) ha diffuso il suo State of the Global Climate Update 2025, mentre l’Ocse (Organizzazione per la cooperazione e lo sviluppo economico) ha pubblicato il suo Climate Action Monitor 2025.






