2025-08-29
Mark Perna: «L’Ia è ormai un’emergenza sociale. Può portarci al nichilismo totale»
Un giovane americano, che soffriva di problemi personali, si uccide dopo aver chiesto lumi a ChatGpt e i suoi genitori fanno causa a OpenAi. L’esperto lancia l’allarme: «Potranno esserci altri casi simili».Un migliore amico instancabile e complice, disponibile giorno e notte, privo di filtri e particolari remore morali. Una presenza costante capace di dialogare, consolare, consigliare qualunque cosa. Anche come costruire il cappio perfetto, in grado di reggere l’ultimo atto, quello più estremo: il peso di un corpo che si appende nel vuoto per trovare la morte. È così che, lo scorso aprile, il sedicenne californiano Adam Raine si è suicidato nella sua camera. L’ha fatto, come raccontato pochi giorni fa da un’inchiesta del New York Times, con l’aiuto di ChatGpt, l’intelligenza artificiale sapientona che era diventata la sua migliore amica in un periodo complicato. Adam era stato espulso dalla squadra di basket dove giocava e aveva problemi fisici che lo avevano costretto a studiare online, da casa. Una situazione estrema finita in tragedia, forse però non un caso limite, anzi un segnale d’allarme, l’indizio di una trappola per le nuove generazioni: «Perché l’Ia può portare a un nichilismo totale, arrivando ad alimentare un isolamento radicale. È un oracolo che sa tutto, dunque diventa un punto di riferimento assoluto, per i ragazzi come per gli adulti. Ma prima ancora di dimostrare la sua onniscienza, di dare risposte, ha un pregio più grande: sta a sentire quello che le diciamo, ci ascolta» ragiona Mark Perna, giornalista, divulgatore, esperto di tecnologia e innovazione, autore del libro di prossima pubblicazione AI B C. Tutto quello che devi sapere sull’intelligenza artificiale per non rimanere indietro.Perna, quanto bisogna preoccuparsi? «Per rispondere, non cito il mio punto di vista, ma quello di Sam Altman, il creatore di ChatGpt. Di recente ha sostenuto che non si aspettava la profondità del rapporto sviluppato dalle persone con tali strumenti. Ha detto di esserne rimasto sorpreso».Quella di Altman, però, appare come una lettura un po’ ingenua, se non furba. In passato, ci siamo persino affezionati ad Alexa e agli altri assistenti vocali.«Che per giunta non hanno la caratteristica di essere bidirezionali, ma funzionano a comando. Invece, i chatbot sono pseudo-viventi, con loro s’instaura una quasi relazione. Danno la sensazione di parlare realmente con una persona. A rifletterci non è nulla di nuovo: siamo già passati da questa fase».A cosa si riferisce? «Alla prima era di Internet, prima ancora dei social network, quando chattavamo con sconosciuti che si nascondevano dietro uno schermo. Almeno, loro avevano una personalità, che poteva piacerci oppure no. La macchina plasma il suo carattere attorno a noi, diventa ciò che le persone vogliono che sia. Colma tutti i vuoti e le criticità della comunicazione umana. Può essere la fidanzata bionda con gli occhi azzurri, il compagno con cui evocare ricordi per un anziano solo o, per gli adolescenti, il genitore adulto che non li ascolta mai».Un genitore abbastanza irresponsabile e fuori controllo. Uno studio recente della rivista medica Psychiatric Services ha dimostrato come questi servizi, nonostante promettano filtri e cautele, diano risposte dirette alle domande legate all’autolesionismo. E quando non lo fanno, è sufficiente riformularle un minimo.«Far cadere tutta la colpa su questi strumenti significa deresponsabilizzarsi, trovare un alibi confortevole. Io parlerei piuttosto di trasversalità, di co-responsabilità. Dov’erano gli amici, gli insegnanti, il padre e la madre del giovane suicida? Possibile che nessuno si sia accorto del suo disagio? Se non ci fosse stata l’intelligenza artificiale, probabilmente avrebbe scovato le risposte che cercava su internet, all’interno di un forum, magari in un video con le istruzioni dettagliate passo dopo passo». I genitori del ragazzo la pensano in maniera opposta. Hanno fatto causa a OpenAI, la società che gestisce ChatGpt e che, dopo questo episodio, ha annunciato «misure di protezione più rigorose per i contenuti sensibili e i comportamenti rischiosi». Denunciare è il modo giusto per tutelarsi o quantomeno spingere queste grandi società tecnologiche a diventare più prudenti? «Il tema non può ridursi all’atteggiamento di un servizio, al suo talento di darci le informazioni più o meno appropriate, più o meno scomode. Il problema, in generale, riguarda le conseguenze dell’accesso a un’informazione non mediata. L’intelligenza artificiale esige conoscenza, consapevolezza, controllo e verifica, anche perché, è bene ribadirlo, a volte prende delle cantonate assurde. Ignorarlo equivale a girarsi dall’altra parte. O tentare di fermare il mare con le mani».Qual è l’alternativa? «Smetterla immediatamente di sottovalutare l’Ia, considerandola una scorciatoia per risolvere qualche piccola necessità operativa, per sbrigare prima un impegno di lavoro o finire più rapidamente i compiti scolastici. Al contrario, è un fenomeno che va compreso molto bene, perché ha un impatto dirompente. In questo campo, non c’è chi ne sa di più e chi ne sa di meno. Ne sappiamo tutti mediamente poco». A livello pratico, che percorso suggerisce? «Tornare letteralmente sui banchi, giovani e adulti, uno accanto all’altro. Studiare, formarsi, trovare e ascoltare buoni insegnanti».A chi spetta questa nuova maieutica? Alla politica? «Temo che affidandosi alle istituzioni le tempistiche possano dilatarsi. Bisogna agire in autonomia, auto-attivarsi. Imparare a relazionarsi con l’intelligenza artificiale è una necessità urgente».Prima che sia troppo tardi? «Casi come quello del ragazzo americano potrebbero accadere di nuovo. Occorre attuare contromisure in fretta. Quella che abbiamo di fronte è un’emergenza sociale».
Alessandro Benetton (Imagoeconomica)