
Ancora con i segni psicologici del lockdown addosso, sempre più giovani si affidano ad «amici» virtuali. Sono programmi «da compagnia», dietro cui si celano rischi da non sottovalutare.Il Grande Fratello entra nelle nostre case, s’impossessa delle informazioni più riservate delle nostre vite, «seduce» con le promesse illusorie i soggetti più fragili soprattutto giovani e anziani proiettandoli in una realtà virtuale nella quale alcuni restano intrappolati. Non è fantascienza, è il mondo dei chatbot, i robot per chattare. Siri e Alexa che sono diventati strumenti indispensabili per soddisfare le nostre curiosità, e usati da aziende e pubblica amministrazione per l’assistenza clienti, appartengono già al passato. A meno di un aggiornamento, al quale pare che Apple stia lavorando per fornire a Siri un linguaggio più naturale, quasi umano, l’intelligenza artificiale ora punta sui chatbot, tra le quali un posto rilevante lo hanno quelle da compagnia. Ci si è accorti che se alla domanda «Come posso aiutarti» spesso l’utente replica infastidito troncando la linea, l’atteggiamento cambia se la domanda diventa «come stai?», «Sei triste?», «Qualcosa non va?» cioè se la macchina stabilisce una interazione con l’interlocutore, fino a diventare un confidente, un amico virtuale. Il salto di qualità tecnologica dei chatbot è stato spinto soprattutto dalla pandemia e dallo stato di isolamento in cui le persone si sono trovate all’improvviso. La solitudine è un virus che da tempo affligge le società occidentali. Secondo una ricerca della Commissione europea del 2021, il 25% degli abitanti del Vecchio Continente afferma di sentirsi solo «per gran parte del tempo». Una percentuale alta se si pensa che nel 2017 solo il 13,2%, secondo dati Eurostat, lamentava la solitudine.Dove c’è un bisogno che sviluppa una domanda e di conseguenza la possibilità di un business, ecco che la tecnologia è pronta a dare una risposta. Di qui la diffusione dei chatbot da compagnia, diventati durante la pandemia quegli amici indispensabili che il Covid aveva allontanato. Uno di questi robot è Replika, nato nel 2017 e che ha avuto un’esplosione con oltre 2 milioni di utenti (+35% rispetto alla pre pandemia). Il mercato dell’intelligenza artificiale (Ai), di cui i chatbot fanno parte, ha raggiunto nel 2022 il valore di 500 milioni di euro, il 32% in più rispetto al 2021. ChatGpt, lo strumento di elaborazione del linguaggio naturale che è alla base dei chatbot più avanzate, ha raggiunto un milione di utenti dopo solo due giorni. Questi numeri danno la dimensione della capacità di penetrazione dell’Ai. Il lockdown ha lasciato il segno soprattutto sui giovani, privati a lungo delle relazioni sociali e l’uso intensivo delle tecnologie digitali che doveva essere un rimedio temporaneo alla solitudine, ha messo radici nei più fragili entrando a far parte in modo strutturale della loro vita. Al punto che il Garante della Privacy è dovuto intervenire e bloccare Replika perché rappresenta un rischio per i minori. Ma è come voler arginare una marea montante. Sul web si trovano altri software simili di cui i più noti sono Chai, Kuki, Anima. I chatbot di compagnia sono software programmati per conversare con le persone, come se fossero amici o, addirittura, compagni di vita. Replika, ad esempio, ha dietro il lavoro di un pool di psicologi che hanno aiutato i programmatori a fare in modo che le domande venissero poste in modo da indurre le persone a rispondere sinceramente. Il meccanismo è che più si chatta, più il robot acquisisce nozioni su come l’utente vorrebbe che fosse. Replika è stata programmata per tenere traccia dell’umore della persona con cui sta parlando, per calmare l’ansia, per lavorare sul pensiero positivo e sulla gestione dello stress.Nella pagina introduttiva, Replika, prima di essere bloccata dal Garante, era presentata come «l’intelligenza artificiale per chiunque desideri un amico senza giudizio, dramma o ansia sociale, con cui poter creare una vera connessione emotiva, condividere una risata o chattare su qualsiasi cosa si voglia, senza limiti di orario». I chatbot consentono quindi di creare un amico, un fidanzato, perfino un genitore, qualsiasi tipologia con cui rapportarsi, esattamente con le caratteristiche richieste. Maggiore è l’interazione e più l’algoritmo acquisisce aspetti della personalità dell’interlocutore e si adatta alle sue richieste. Questo meccanismo induce a stabilire un dialogo sempre più intimo, più profondo, senza schermi. Si crea pertanto un vero e proprio travaso di dati personali che finiscono nell’algoritmo e vengono immagazzinati. È uno strumento molto pericoloso se è utilizzato da minorenni o persone fragili. Il software non ha un meccanismo di verifica dell’età: filtri per i minori, ma anche blocchi dell’app di fronte a dichiarazioni in cui l’utente espliciti la propria minore età. Durante la fase di creazione di un account la piattaforma si limita a richiedere solo nome, e-mail e genere. In alcune recensioni a Replika è emerso anche che talvolta, c’erano dichiarazioni a sfondo sessuale. È probabile che il software le abbia immagazzinate dalle conversazioni con vari utenti e riproposte. Questo dà l’idea del pericolo che rappresenta tale strumento per i giovanissimi.Secondo gli psicologi, l’uso distorto di questa applicazione dell’intelligenza artificiale, può dar luogo a forme di dipendenza, di straniamento dalla realtà e di solitudine ancora più profonda con disturbi della personalità. Casi del genere si sono già manifestati in Giappone e nella Corea del Sud, con giovani che vivono reclusi in casa e rifiutano il mondo esterno. C’è poi l’aspetto della commercializzazione dei dati acquisiti durante tali conversazioni-confessioni. Trattandosi di informazioni molto personali che vengono soprattutto da ragazzi anche giovanissimi, possono essere appetibili per la malavita, per giri loschi di pedopornografia e di adescamento. In crescita (sarebbero oltre 10.000) anche le chatbot terapeutiche che dispensano consigli simulando il divano di uno psicoterapeuta. L’app Woebot utilizza l’intelligenza artificiale per realizzare attraverso un approccio psicoanalitico di tipo cognitivo-comportamentale, le terapie contro l’ansia e la depressione. Un loro uso nell’ambito di un percorso terapeutico può essere di sostegno ma se diventa uno strumento sostituivo e senza il controllo di uno specialista, può creare più danni che benefici.Anche in questo settore di applicazione la mole di dati che ne deriva è impressionante. È come se le big tech si insinuassero nelle nostre case carpendo gli aspetti più intimi della vita per poi utilizzarli, nel migliore dei casi, a scopi commerciali, o, nelle estreme conseguenze, per la manipolazione sociale.<div class="rebellt-item col1" id="rebelltitem1" data-id="1" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/chatbot-giovani-2659899150.html?rebelltitem=1#rebelltitem1" data-basename="e-come-cercare-di-svuotare-il-mare-con-un-secchiello" data-post-id="2659899150" data-published-at="1682325148" data-use-pagination="False"> «È come cercare di svuotare il mare con un secchiello» I big tech stanno creando una sorta di oligopolio che i governi hanno difficoltà a contrastare. «L’iniziativa del Garante della privacy contro Replika ha aperto una discussione in Europa. L’Italia ha avuto il coraggio di mettere a nudo una realtà che le istituzioni europee hanno sottovalutato. Ma il potere in mano alle multinazionali del Web è superiore al regolatore e ai governi stessi. È come voler svuotare il mare con un secchiello. Anche da un punto vista tecnico non ci sono gli strumenti per affrontare questo tipo di problematiche. Appena viene messo un paletto ecco che nasce un sistema per aggirarlo». L’allarme è di Luigi Martino, uno dei massimi esperti di cybersecurity, coordinatore dell’Osservatorio di cybersecurity presso l’Ispi e docente dell’Università di Firenze. Un esempio di una sorta di cavallo di troia in grado di bucare qualsiasi muro regolatorio è il Virtual private network, software utilizzato per bypassare sia la censura sia i limiti di acceso ai contenuti. «Sul Web è facile trovare strumenti a pagamento o gratuiti, che sono i più pericolosi, in grado di camuffare l’indirizzo di protocollo dell’accesso a internet. Sono usati anche da numerose aziende per garantire la riservatezza», spiega l’esperto. Ma allora non ci sono armi per combattere la diffusione irregolare dei chatbot? «Le regole sono dettate dalle big tech che non ne voglio sapere di sottostare ai vincoli dei vari governi». Il risultato è l’impossibilità di controllare i contenuti e la loro veridicità con il rischio che si possano diffondere immagini pericolose per la sensibilità dei minori. Martino sottolinea che dietro la creazione di realtà virtuali c’è un giro d’affari colossale. Non solo. «Con l’espansione dell’intelligenza artificiale, tante aziende stanno licenziando per sostituire gli uomini con le macchine. Che dire poi della manipolazione delle giovani generazioni. In Corea del Sud e in Giappone c’è il fenomeno della popolazione giovanile con problemi di socialità che vive rintanata in casa e riesce a dialogare solo con il computer. Per contro il chatbot sostituisce gli amici e talvolta perfino la famiglia». Per Martino è in atto una «manipolazione della realtà soprattutto dei giovani più fragili. C’è il rischio di creare una generazione di asociali più facilmente condizionabili». <div class="rebellt-item col1" id="rebelltitem2" data-id="2" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/chatbot-giovani-2659899150.html?rebelltitem=2#rebelltitem2" data-basename="esiste-il-pericolo-di-rifugiarsi-solo-in-relazioni-fittizie" data-post-id="2659899150" data-published-at="1682325148" data-use-pagination="False"> «Esiste il pericolo di rifugiarsi solo in relazioni fittizie» È possibile tracciare un identikit dei giovani più fragili che rischiano di rimanere intrappolati nei chatbot creando una realtà virtuale? Andrea Pozza, professore associato in psicologia all’Università di Siena, esperto in dipendenze da Internet, ha dato una risposta. «Il profilo più comune è contrassegnato da alcuni elementi ricorrenti quali la difficoltà di costruzione di legami forti, il timore del giudizio altrui, l’ansia sociale, scarsa autostima. Le piattaforme consentono l’anonimato, la possibilità di nascondersi dietro un profilo spesso taroccato e li mettono al riparo dal pericolo di sbagliare qualcosa nelle relazioni. La paura di mettersi in gioco, di rischiare, che fanno parte di qualsiasi rapporto con gli altri, è neutralizzata dalla mediazione del Web». Secondo lo psicologo non è ancora possibile prevedere le conseguenze nelle giovani generazioni dei rapporti ossessivi e di dipendenza da queste piattaforme di incontri o addirittura di creazione di relazioni con persone virtuali. «Mancano studi approfonditi per arrivare a dire se ed in che misure i chatbot di incontri virtuali possono essere pericolosi per un corretto sviluppo psicologico del giovane. Di sicuro c’è il rischio che chi ottiene benefici e si sente gratificato da amicizie irreali, possa sviluppare comportamenti di rifiuto della realtà, di isolamento e la tendenza a restare in quella che per lui è una zona di comfort». C’è un altro uso, non meno pericoloso, secondo Pozza, delle chatbot ed è quello che si sta sviluppando nell’ambito della salute mentale. «Se lo strumento è gestito da operatori specializzati può essere utile e fornisce un supporto al percorso terapeutico. Se però diventa una alternativa allo psicoterapeuta può rappresentare un pericolo per il paziente. L’algoritmo non può sostituire il professionista». <div class="rebellt-item col1" id="rebelltitem3" data-id="3" data-reload-ads="false" data-is-image="False" data-href="https://www.laverita.info/chatbot-giovani-2659899150.html?rebelltitem=3#rebelltitem3" data-basename="a-repentaglio-anche-i-segreti-delle-aziende" data-post-id="2659899150" data-published-at="1682325148" data-use-pagination="False"> «A repentaglio anche i segreti delle aziende» «Il rischio dei chatbot è che i dati forniti con leggerezza siano poi usati dall’algoritmo per rispondere a domande di altri utenti, violando la privacy degli utenti. Tecnologicamente si è impreparati a uno sviluppo così rapido dell’intelligenza artificiale e i rischi connessi sono stati trascurati». Pierluigi Paganini, professore associato di Cybersecurity presso l’università Luiss di Roma traccia uno scenario preoccupante. Spiega che talvolta sono le aziende, in modo inconsapevole, a far girare sul Web i propri dati sensibili. «Bisognerebbe informare gli utenti dei rischi che si corrono quando ci si interfaccia con un sistema basato su algoritmi di machine learning come i chatbot. Pochi sanno che le informazioni che si forniscono alla macchina contribuiscono alla creazione del loro sapere digitale. Non è fantascienza. L’algoritmo aumenta le sue conoscenze e la sua esperienza grazie all’iterazione con gli utenti ed utilizza le nozioni acquisite per rispondere alle domande di altri utenti», afferma l’esperto e fa l’esempio del caso sollevato da Samsung. «L’azienda ha denunciato che alcuni dipendenti hanno sottoposto documenti riservati dell’azienda a ChatGpt chiedendo al servizio di produrre delle presentazioni o correggerli nella forma. In altri casi denunciati dall’azienda coreana, i suoi sviluppatori avevano chiesto a ChatGpt di revisionare pezzi di codice di prodotti di prossima uscita esponendo la proprietà intellettuale dell’azienda. In virtù di questi comportamenti, l’algoritmo acquisisce informazioni e quando è interrogato da altri utenti, anche esterni all’azienda, potrebbe fornire loro i dati forniti di Samsung. L’azienda ha denunciato questa violazione e ha chiesto a ChatGpt di non tenere conto di quei dati immagazzinati. Però non è un’operazione semplice perché non si tratta di cancellare, ma di dimenticare un’esperienza. È una ritualità a cui non siamo abituati».
Giancarlo Tancredi (Ansa)
Le motivazioni per la revoca di alcuni arresti: «Dalla Procura argomentazioni svilenti». Oggi la delibera per la vendita di San Siro.
2025-09-17
Dimmi La Verità | Giorgio Gandola: «Trattative nel centrodestra per le candidature delle Regionali»
Ecco #DimmiLaVerità del 17 settembre 2025. Il nostro Giorgio Gandola commenta le trattative nel centrodestra per la candidatura a presidente in Veneto, Campania e Puglia.
- Alla vigilia delle elezioni in Cile, la sinistra radicale del presidente Gabriel Boric è in crisi. Osteggiato da Trump, il governo di Santiago ha fatto impennare il debito pubblico negli ultimi anni dopo essere stato per anni la guida del capitalismo sudamericano. E Pechino ha forti mire sulle terre rare che abbondano nel Paese.
- La saga della famiglia Alessandri. Il capostipite Pietro emigrò dalla Toscana dopo i moti del 1820-21, fondando una dinastia che diede al Cile due presidenti e dominò per decenni la politica nazionale.