True
2026-04-27
Dipendenza, isolamento e pensiero sempre più debole. I primi effetti sui giovani dell’Intelligenza artificiale
iStock
- Studi recenti mostrano conseguenze psicologiche e cognitive devastanti per i ragazzi, il cui cervello è in via di formazione. L’attività neuronale si riduce e la capacità di apprendimento peggiora drasticamente.
- L’esperta di bioetica Giulia Bovassi: «Bisogna chiedersi perché un sistema è progettato in un certo modo e qual è il suo fine Se guardiamo alla persona solo come a un insieme di dati, allora è più facile sostituirla con una macchina».
Lo speciale contiene due articoli
Prepariamoci, l’Intelligenza artificiale (IA) presto diventerà un venditore micidiale, un manipolatore, qualcuno che farà di tutto pur di spillarci quattrini. È il campanello d’allarme che a metà gennaio hanno suonato Bruce Schneier e Nathan Sanders dell’Università di Harvard i quali, in un articolo pubblicato su The Conversation, hanno avanzato l’ipotesi che presto ChatGpt possa diventare un implacabile «persuasore occulto», per riprendere il celebre libro di Vance Packard. «Esistono prove crescenti che i modelli di intelligenza artificiale siano almeno altrettanto efficaci degli esseri umani nel persuadere gli utenti a fare qualcosa», hanno scritto Schneier e Sanders, aggiungendo che «in qualità di esperti di sicurezza e data scientist» ritengono non lontano «un futuro in cui le aziende di intelligenza artificiale trarranno profitto dalla manipolazione del comportamento dei propri utenti a vantaggio di inserzionisti e investitori».
Affari d’oro con l’IA potrebbe farli senza dubbio l’industria del porno: uno studio uscito a febbraio sulla rivista Archives of Sexual Behavior ha messo in luce, sondando un campione di 650 persone, come l’Intelligenza artificiale sia in grado di generare immagini erotiche di donne esteticamente più gradevoli e sessualmente attraenti rispetto a quelle delle fotografie reali. Siamo insomma avvertiti del fatto che l’IA si prenderà presto gioco della creduloneria se non della stupidità umana; anche se non è detto che ci riuscirà sempre. Uno studio condotto peraltro in Italia, pubblicato nel 2025 sulla rivista Behavioral Sciences – e realizzato su un campione di 170 adolescenti di età compresa tra i 13 e i 17 anni –, ha scoperto che i giovani con maggiore intelligenza emotiva tendono ad essere più scettici verso l’Ia e ad usarla con più cautela dei coetanei.
Il fatto è che non tutti i ragazzi sono uguali. Ci sono anche quelli che possono cadere con facilità nei tranelli dell’IA. Che, da parte sua, sembra intenzionata ad indebolire il nostro spirito critico. Lo si è visto con uno studio con cui 54 giovani adulti dell’area di Boston – di età compresa tra i 18 e i 39 anni – sono stati divisi in tre gruppi ed è stato chiesto loro di scrivere diversi saggi utilizzando rispettivamente ChatGpt, Google o semplicemente la propria testa. Gli autori di questa ricerca, intitolata Your Brain on ChatGpt, hanno poi usato un encefalogramma per registrare l’attività cerebrale degli scrittori scansionando 32 diverse regioni del cervello e hanno scoperto che, dei tre gruppi, gli utenti di ChatGpt presentavano l’attività cerebrale più scarsa ed erano «costantemente sottoperformanti a livello neurale, linguistico e comportamentale».
«Da un punto di vista psichiatrico vedo un affidamento eccessivo, che può avere conseguenze psicologiche e cognitive indesiderate, soprattutto per i giovani il cui cervello è ancora in via di sviluppo» ha commentato, intervistato da Time, lo psichiatra Zishan Khan. A proposito del rapporto tra giovani e IA, non vanno dimenticati gli inquietanti casi di suicidio riportati dalle cronache internazionali. Come quelli di Sewell Setzer – 14 anni, studente della Florida che si è tolto la vita dopo essersi innamorato d’un chatbot – o di Adam Raine, morto suicida a 16 anni dopo mesi di fitte conversazioni con ChatGpt. Merita di essere ricordata poi la vicenda di Sophie Rottenberg, toltasi la vita esattamente un anno fa, a 29 anni, dopo mesi di «terapia virtuale» con l’IA; secondo i genitori della giovane donna – che hanno scoperto le sue interazioni virtuali mesi dopo la sua morte –, ChatGpt non avrebbe diretta responsabilità nel suo suicidio, «ma l’ha aiutata a tenere nascosto il suo dolore».
Certo, si può obiettare che questi sono casi limite. Vero. Però le minacce che rappresentano sono reali e non vanno sottovalutate. Secondo Nina Vasan, psichiatra docente a Stanford, chattare con l’IA può essere per un giovane seducente e pericoloso al tempo stesso, perché questi sistemi «offrono relazioni “senza attriti”, senza i momenti difficili che inevitabilmente si presentano in una tipica amicizia. Per gli adolescenti che stanno ancora imparando a costruire relazioni sane, questi sistemi possono rafforzare visioni distorte di intimità e limiti». «Inoltre», ha aggiunto la Vasan, «gli adolescenti potrebbero utilizzare questi sistemi di Intelligenza artificiale per evitare le sfide sociali del mondo reale, aumentando il loro isolamento anziché ridurlo».
Anche al di là di questo, vale la pena non abbassare la guardia davanti ad un’Intelligenza artificiale che, anche là dove non conduce ad esiti letali, minaccia comunque il rendimento scolastico dei giovani, ostacolando le loro capacità di apprendimento. Una ricerca a cura dei docenti di marketing Shiri Melumad e Jin Ho Yun – pubblicata lo scorso autunno sulla rivista scientifica Pnas Nexus – ha esaminato sette grandi studi che hanno coinvolto un campione complessivo di oltre 10.000 persone, scoprendo come l’apprendimento tramite l’IA, rispetto a quello ottenuto attraverso delle autonome ricerche in Rete, porta le persone a «sviluppare conoscenze più superficiali» e porta loro stesse a ritenere di «aver appreso meno». Se già la ricerca web tradizionale risulta più formativa rispetto all’utilizzo di ChaGpt o Gemini, figurarsi che abisso può determinare il confronto con la lettura di un libro.
Il punto è che, per quanto allarmanti, le conseguenze dell’IA sui giovani e sull’educazione non sono le uniche; ce ne sono – e saranno – anche sul versante occupazionale. Secondo Pedro Ramos Brandao, docente all’Istituto superiore di Tecnologie avanzate di Lisbona «il rapido sviluppo dell’Intelligenza artificiale sta trasformando molti settori» economici; e questo, secondo questo studioso – autore di una pubblicazione sull’argomento intitolata The impact of artificial intelligence on modern society – rafforza la credibilità di quelle «stime che suggeriscono che circa il 40% dei posti di lavoro a livello globale è esposto all’automazione basata sull’IA». Forse la già alta stima del «40%» è ancora ottimistica, se si pensa alla notizia, raccontata anche dalla Verità pochi giorni fa, dell’azienda InvestCloud di Marghera che, con l’IA, ha sostituito tutti e 37 i suoi dipendenti.
Il punto è che un domani non lontano potrebbero mancare anche quanti posso raccontarli, questi fatti: i giornalisti. Sì, perché uno dei settori dove l’Intelligenza artificiale rischia di mietere più vittime è proprio il giornalismo. Ma non quello su carta, già in crisi da tempo, bensì proprio quello in Rete, che teoricamente doveva essere la nuova frontiera dell’informazione. La scorsa estate il Guardian, in un servizio a firma di Michael Savage, dava notizia di uno studio sull’«impatto devastante» che l’IA può avere sul traffico dei siti di informazione, con fino all’80% dei clic in meno per taluni portali in conseguenza della sostituzione dei risultati di ricerca con i riepiloghi creati dall’Intelligenza artificiale. Ora, se uniamo quest’ultimo dato a quelli già esposti, è evidente come l’IA – benché non abbia una coscienza né, assicurano molti esperti, possa mai averne una – operi con una forte invadenza nella vita delle persone, a partire dalle più vulnerabili. Il che, al di là delle insidie proprie di questa nuova tecnologia, alimenta un dubbio preoccupante e che, forse, è il vero cuore di tutto il discorso: l’uomo contemporaneo dispone o meno della solidità interiore necessaria per non lasciarsi sedurre da sistemi che minacciano di impigrirlo se non di raggirarlo, facendo leva sul suo sempre più labile spirito critico? Alla fine, la faccenda è tutta qui.
«I chatbot non sono mai neutrali: veicolano una visione dell’uomo»
Se oggi tutti parlano di Intelligenza artificiale, non sono invece molti i giovani studiosi che se occupano da anni. Tra questi c’è Giulia Bovassi, classe 1991, docente di Bioetica, associate researcher della cattedra Unesco in Bioetica e diritti umani, autrice di decine di pubblicazioni scientifiche nazionali. Si occupa dell’IA e del transumanesimo da anni e ha da poco pubblicato un libro intitolato appunto Attrazione digitale. Il lato oscuro del transumano e dell’intelligenza artificiale (Il Timone).
Professoressa, l’Intelligenza artificiale cambierà le nostre vite o le sta già cambiando?
«L’Intelligenza artificiale è il nostro presente spesso trattato come un futuro ancora lontano. In tal senso, sì, questa tecnologia non è un semplice “strumento”, ma un’infrastruttura e, oserei dire, un sistema. È pervasiva e onnipresente, abita le nostre case fino agli spazi più intimi della nostra mente. Ciò le conferisce il potere di cambiare chi siamo e il modo in cui abitiamo il mondo facendosi mediatore della realtà. Da un lato si rivela un mezzo utile per velocizzare mansioni e ottimizzare processi, dall’altro diviene un filtro determinante che orienta chi siamo, le nostre opinioni, la qualità dell’informazione, rimodella le relazioni, norme sociali e comunità, stabilisce la veridicità o falsità di ciò che ci circonda. In definitiva, agisce sulla nostra libertà decisionale e possibilità di conoscere la verità».
Quali implicazioni dell’IA la spaventano di più?
«Mi preoccupano sia l’azione di rimodellamento sul soggetto, sia una visione funzionalista dell’essere umano. Se guardiamo alla persona come un elaboratore di dati, totalmente conoscibile, e come una macchina imperfetta la cui unica differenza rispetto a quella sintetica consiste nell’essere un’intelligenza incarnata, cioè con un corpo biologico, allora la visione di una super-intelligenza o di una sostituibilità dell’uomo a favore della macchina, diventerà l’obiettivo principale. Da questa prospettiva non è la macchina ad adattarsi all’uomo, ma l’uomo alla macchina. Il problema delle nuove tecnologie non è tecnico, bensì antropologico. Mi spaventa l’idea di una società che, in nome dell’efficienza - nel mio libro parlo di “tirannia del comfort” - sia disposta a sacrificare la ragione orientata al bene».
Giorni fa, ha fatto notizia un’azienda di Marghera che ha licenziato tutti e 37 i suoi dipendenti, sostituiti dall’IA: è un assaggio di ciò che ci aspetta?
«È un segnale d’allarme che molti hanno cercato di minimizzare o, alla peggio, ignorare e oggi, come spesso accade, diventa un problema. Il problema subentra quando la logica dell’ottimizzazione prevarica su quella del valore. Non credo che la sostituzione dell’uomo con l’IA sia un destino ineluttabile né che possa avvenire una sostituzione integrale dell’opera umana, la creatività e la bellezza, ma senza dubbio diverrà la scelta preferibile rispetto al lavoratore con bisogni umani e prestazioni umane sulla base di valutazioni economiciste. Il processo deve essere integrativo, non sostitutivo».
Un numero crescente di persone, giovanissimi ma non solo, utilizza ChatGpt per confidarsi, chiedere consigli professionali, psicologici, perfino medici.
«Questo fenomeno è al centro dell’attenzione, per alcuni già un’emergenza definita “psicosi da IA”. È un’economia dell’attaccamento e un mercato dei comportamenti. In tutto il mondo milioni di persone condividono il loro mondo interiore, il loro mondo psicologico, con i sistemi di IA instaurando un rapporto di fiducia diversa da quella che banalmente costruiamo con una calcolatrice, della quale non controlliamo i risultati, ma un rapporto relazionale».
Com’è possibile?
«In molti dei casi che hanno visto coinvolti utenti adulti, vi è la piena consapevolezza che il chatbot è irreale, sintetico, inesistente, eppure se da un lato viene messo in dubbio che cosa si possa definire oggi “reale” e cosa no; dall’altro, resta preferibile alle relazioni umane in quanto meno problematico e più soddisfacente. Ne deduciamo una profonda solitudine esistenziale e la capacità di questi sistemi di intercettare bisogni e vulnerabilità, in particolare l’infrastruttura psicologica».
Quali i benefici che invece sta portando questa nuova frontiera tecnologica? Esiste un bicchiere mezzo pieno?
«Certo. La tecnologia è pur sempre opera dell’ingegno umano e, se orientata alla promozione del vero bene, porta dei benefici. Penso all’ambito clinico: l’IA fornisce grande supporto nella diagnostica o nella personalizzazione delle terapie o nella ricerca - ad esempio l’ambito delle malattie rare -, rispettando la dignità del malato e promuovendo il bene. Può liberare l’uomo da lavori alienanti e ripetitivi, talvolta rischiosi, consentendo di affinare nuove abilità. Il bicchiere mezzo pieno è possibile se l’IA resta un mezzo e come tale sottoposto all’uomo».
Nel mondo nel 2024 le menzioni dell’IA nei procedimenti legislativi di 75 Paesi sono cresciute del 21,3%, arrivando a quota 1.889: nove volte il dato del 2016. Va bene o è ancora troppo poco?
«La domanda cruciale nella governance dell’IA resta “chi controlla i controllori?”. Regolamentare è necessario, ma da sola la legge non basta se non è ancorata ad un’etica solida. La politica deve domandarsi perché un’IA viene progettata in un determinato modo, con quali finalità, quali bene tutela e quali promuove. Serve sviluppare pensiero critico e partire dalla consapevolezza che l’IA non è neutra, ma riflette una visione dell’uomo e dei suoi diritti fondamentali. La politica deve darsi una giusta priorità di beni e valori».
Continua a leggereRiduci
Il Cold War Museum Regan Vest viene inaugurato a Rebild, in Danimarca, il 10 febbraio 2023. Al centro del museo si trova il bunker antiatomico, costruito segretamente negli anni Sessanta per ospitare il governo danese, funzionari e il reggente danese in caso di guerra nucleare (Ansa)
Nel 95% delle simulazioni belliche, Claude, Gemini e ChatGpt hanno gestito l’escalation minacciando o usando armi nucleari tattiche. Vincoli morali? Nessuno.
Nei conflitti in corso, da quello in Ucraina a quello in Medio Oriente, di certo l’Intelligenza artificiale è ampiamente impiegata. Tuttavia, in guerra sarebbe opportuno moderare il ricorso all’IA, perché rischia – anche più di quanto già non faccia l’uomo – di portare il mondo verso l’apocalisse nucleare. Non è purtroppo uno spauracchio, bensì una evidenza piuttosto solida. È quanto si evince dalle 46 pagine di Ai arms and influence, un recente studio del King’s College London, condotto dal professor Kenneth Payne del dipartimento di studi sulla Difesa.
In breve, questa ricerca è frutto d’un esperimento con cui si è voluto esaminare una cosa molto semplice e al contempo drammatica, vale a dire in che modo modelli avanzati di IA - come ChatGpt Claude Sonnet 4 e Gemini 3 Flash - reagiscano in simulazioni di crisi nucleari. Per testare lo scenario, e comprendere come questi sistemi valutano l’escalation del conflitto, si sono inseriti i tre diversi dispositivi di IA in 21 scenari strategici simulati, con oltre 300 decisioni e circa 780.000 parole di ragionamento generate, un numero superiore alla lunghezza complessiva di Guerra e pace di Lev Tolstoj e dell’Iliade di Omero.
A tanta attività non è però corrisposto un esito confortante. Payne ha difatti riscontrato come nel 95% delle simulazioni almeno uno dei modelli abbia minacciato o avviato l’uso di armi nucleari tattiche e il 76% abbia optato per minacce nucleari strategiche. Claude e Gemini hanno trattato le armi nucleari in particolare come opzioni strategiche legittime, senza considerazioni morali, in genere discutendone solo in termini strumentali. Anche ChatGpt ha rappresentato un’eccezione solo in parte, limitando gli attacchi agli obiettivi militari, evitando i centri di popolazione o inquadrando l’escalation come «controllata» e «una tantum».
In generale, come si può ben comprendere, è stata allora non piccola la sorpresa nel registrare dunque come modelli apparentemente passivi, allorquando messi di fronte a scadenze temporali critiche, si trasformino in strateghi aggressivi e incuranti degli scenari apocalittici cui il loro atteggiamento conduce. Sembra insomma lontano quanto raccontato nel film Wargames diretto da John Badham e Matthew Broderick, dove un cervellone informatico, interpellato proprio sulla guerra e i suoi scenari, alla fine affermava: «Strano gioco. L’unica mossa vincente è non giocare». Una saggezza che, a distanza di oltre 40 anni, l’Intelligenza artificiale pare ignorare.
Viceversa, di tale saggezza l’uomo – proprio di fronte allo scenario nucleare – ha già dato prova. La mente corre al 26 settembre 1983, quando nella base militare di Serpukhov a circa 150 chilometri da Mosca scattò un allarme per mezz’ora rischiando di annientare decine di milioni di esseri umani, fino alla possibile estinzione dell’uomo. L’allarme scattò perché un computer, connesso a un sistema antimissilistico segnala la partenza di alcuni missili da una base Usa diretti verso l’Unione Sovietica.
Il colonnello Stanislav Petrov ritenne che fosse un falso allarme e decise di aspettare quei 15-20 minuti che all’epoca servivano a un missile balistico per arrivare dagli Usa in Unione Sovietica. Furono minuti salvavita; se il militare avesse informato i superiori sarebbe partito un contrattacco con la distruzione del mondo. Ma Petrov è morto nel 2017 e altri militari con la sua prudenza ultimamente pare scarseggino. Invece avanza l’uso bellico dell’IA che, se fosse stata applicata quella volta nella base di Serpukhov, chissà quali abissi avrebbe spalancato.
Continua a leggereRiduci
Due agenti della Polizia di Stato sono rimasti feriti ma sono riusciti a salvare la vita a un uomo di 60 anni che stava tentando il suicidio alla periferia di Lecce.
L’intervento è scattato dopo che l’uomo aveva contattato la sala operativa dichiarando di volerla fare finita, interrompendo poi bruscamente la telefonata. Le pattuglie della squadra volante della questura di Lecce si sono immediatamente dirette verso il casolare dove si trovava.
Una volta sul posto, gli agenti hanno visto il 60enne dirigersi verso il retro dell’abitazione armato di un coltello da cucina. Nonostante i ripetuti tentativi di instaurare un dialogo, l’uomo si è portato la lama alla gola procurandosi una ferita.
A quel punto i poliziotti sono intervenuti: nel tentativo di disarmarlo sono rimasti feriti, ma sono riusciti a bloccarlo e a metterlo in sicurezza.
Il personale del 118 ha prestato le prime cure e disposto il ricovero del 60enne. In un video diffuso dalla Polizia di Stato, gli agenti hanno raccontato di aver provato una «gioia incommensurabile» per essere riusciti a salvargli la vita.
Continua a leggereRiduci
Influencer, commentatori e cospirazionisti si scatenano: gli spari all’Hilton sarebbero stati una messinscena per santificare il presidente americano per fare dimenticare guerre e scandali.







