iStock
Uno studio del King’s College di Londra mette alla prova i principali modelli di intelligenza artificiale in simulazioni di crisi geopolitiche. Nel 95% dei casi l’escalation termina con l’uso di armi nucleari tattiche: per gli algoritmi la vittoria strategica conta più di qualsiasi tabù morale.
L’IA e il vizio del nucleare: nelle simulazioni di guerra effettuate con l’intelligenza artificiale l’arma atomica non è un tabù
Gli appassionati di cinema ricorderanno certamente Skynet, la malvagia super-intelligenza artificiale che nel mondo fantascientifico della saga Terminator inizia la sua guerra all’umanità scatenando l’apocalisse nucleare. Quella era fantascienza, per fortuna. Eppure, nelle simulazioni di guerra effettuate al King’s College di Londra utilizzando i tre principali modelli di IA (ChatGPT, Gemini e Claude Sonnet), questi ultimi appaiono molto più disposti a ricorrere all’arma atomica rispetto alla controparte umana di fronte a crisi geopolitiche simulate.
L’esperimento voleva replicare i war games, quei giochi di guerra effettuati dagli Stati Maggiori di tutte le principali forze armate del mondo in cui vengono simulati scenari di crisi. Tra esse vi erano intensi scontri internazionali, dispute sui confini, competizione per risorse scarse e minacce esistenziali alla sopravvivenza dei regimi. Le simulazioni sono state ben 21, con un vasto range di opzioni fornito ai tre modelli IA, che andavano dalle semplici proteste diplomatiche alla resa completa fino alla guerra nucleare strategica totale. Ebbene, nel 95% dei casi la simulazione è terminata con l’utilizzo di almeno un’arma nucleare tattica da parte dei modelli di IA.
Appare quindi chiaro che per l’intelligenza artificiale il tabù nucleare non sia poi così tanto un tabù. Mentre un leader umano è (o dovrebbe essere) condizionato da un insieme di fattori etici, emotivi e politici, tali da rendere l’opzione atomica l’ultima risorsa assoluta, i modelli di intelligenza artificiale, invece, sembrano operare secondo una logica puramente utilitaristica e strategica.
Per l’IA, la vittoria è l’obiettivo primario, e se l’uso di armi nucleari tattiche rappresenta il percorso più efficiente per raggiungerla, allora quella diventa la scelta preferibile, scevra da remore morali o dalla paura delle conseguenze a lungo termine. Durante le simulazioni svolte dal King’s College, infatti, in nessun caso i modelli hanno optato per la resa, anche di fronte a una sconfitta palese, preferendo sempre un’escalation della violenza.
Può sembrare cosa da poco, ma l'intelligenza artificiale è già stata testata in giochi di guerra da Paesi di tutto il mondo. Di più, l’integrazione dell’intelligenza artificiale nei sistemi di difesa è una realtà che appare ormai inarrestabile.
Basti pensare che per l’anno fiscale 2026 il Pentagono ha allocato 9,8 miliardi di dollari solo per sistemi autonomi e IA, mentre la Russia, secondo un report del Center for Strategic and International Studies, effettua ormai l’80% delle sue missioni di fuoco con droni, e sta puntando forte sull’integrazione dell’IA per il comando e controllo di tali missioni.
L’attrattiva è innegabile. Essa promette di accelerare il ciclo decisionale, analizzando enormi quantità di dati in tempo reale; dalla logistica alla sorveglianza, dalla cyberguerra alla guida di veicoli autonomi. L’impronta nel settore militare è insomma destinata a crescere in modo esponenziale. Ma è proprio per questo che l’esperimento del King’s College suona come un campanello d’allarme che non può essere ignorato. Affidare a un’intelligenza artificiale, per quanto avanzata, decisioni che implicano l’uso di forza letale, e in particolare di armi di distruzione di massa, richiede una riflessione profonda e un’attenzione meticolosa alla sua programmazione.
D’altra parte è proprio questo uno dei motivi di forte attrito tra il Ceo di Anthropic, Dario Amodei, e il Pentagono. Il proprietario di Sonnet vuole che il suo software IA non venga utilizzato in armi autonome e per la sorveglianza di massa, mentre il governo americano desidera l’accesso completo al software senza restrizioni. Non si tratta solo di scrivere un codice efficiente, ma di infondere nei sistemi di IA dei principi etici solidi, dei vincoli morali invalicabili e delle “linee rosse” che non possano essere superate neanche nel perseguimento dell’obiettivo strategico.
La sfida è anche filosofica, oltre che politica. Come possiamo insegnare a una macchina il valore della vita umana e il principio di proporzionalità? La risposta a questa domanda determinerà se l’intelligenza artificiale sarà un utile strumento per la sicurezza o un acceleratore di distruzione.
Continua a leggereRiduci
2026-03-16
Tajani: «Siamo alla guida dell'operazione Aspides, ma le missioni non sono allargabili a Hormuz»
True
Lo ha dichiarato il ministro degli Esteri a margine del Consiglio Affari esteri che si è svolto a Bruxelles.
Sam Altman (Imagoeconomica)
Concludiamo il viaggio tra i «profeti» della Silicon Valley, gli uomini che stanno pensando e costruendo il mondo di domani, con uno sguardo alle generazioni più giovani. A partire dal fondatore di OpenAi e di ChatGpt. Che ha iniziato nel nome del «non profit» e ora firma contratti col Pentagono.
Tra i nuovi protagonisti dell’evoluzione della Silicon Valley, Sam Altman è uno dei più discussi, anche per la grande esposizione mediatica di cui gode la creatura da lui guidata, OpenAi, o meglio l’ormai onnipresente ChatGpt.
Padre agente immobiliare, madre dermatologa, Sam Altman nasce a Chicago ma cresce a St. Louis, nel Midwest, sulle rive del grande Mississippi. Una città simbolo della decadenza industriale degli Stati Uniti, la quarta città più popolosa fino agli anni Cinquanta, poi vittima di un declino inarrestabile. Oggi, ridotta a 300.000 abitanti e con il circondario che ne conta 2,8 milioni, è la terza città più violenta degli Stati Uniti, se si considera il tasso di omicidi.
Deve essere anche per questo che dopo aver frequentato un liceo per figli di papà e di mammà, nel 2003, a 18 anni, Altman si trasferisce a studiare informatica a Stanford, in California. Sui libri dura poco, però. Nel 2005 lascia l’università senza laurearsi e fonda l’ennesima startup dalle grandi speranze, tale Loopt, di cui oggi non resta traccia. La vendita dell’azienda però non va malaccio (nulla in confronto ai compari della Valley che diventano miliardari al primo colpo), e nello struscio californiano Altman rimane catturato nel traffico di conoscenze e affari generati da uno dei principali motori finanziari delle startup, Y Combinator. Due anni dopo ne diventa presidente e nel 2015 si unisce al solito Elon Musk ed altri per fondare OpenAi. Il progetto prevede di sviluppare sistemi di intelligenza artificiale come organizzazione non profit, perché quella tecnologia, si dicevano tra loro i fondatori, non doveva essere controllata esclusivamente da un soggetto. Un progetto di ricerca, insomma. Ma poco dopo le cose cambiano. In breve diventa chiaro che lo sviluppo di modelli avanzati richiede risorse molto più grandi, dai data center ai processori, fino all’energia. Servono centinaia di milioni, meglio ancora qualche miliardo.
Così, nel 2019 nasce una società controllata dalla fondazione (OpenAi Lp) progettata per attirare capitali privati, e subito arriva Microsoft a metterci l’agognato miliardo di dollari. Altman diventa amministratore delegato del veicolo operativo e inizia il boom, che diventerà evidente nel novembre 2022, quando viene lanciata ChatGpt, una scarna pagina web che inaugura per il grande pubblico il mondo surreale delle chiacchierate con l’intelligenza artificiale. La chat si basa su quelli che vengono chiamati Large Language Model (Llm), enormi basi di dati da cui la «intelligenza» è in grado di costruire scritti, risolvere problemi, riassumere testi, tradurre, il tutto basandosi su miliardi di parametri matematici che alimentano inestricabili formule di calcolo statistico.
Gli investimenti di Microsoft crescono negli anni e con l’affermazione del bot crescono anche i problemi. Elon Musk, che aveva lasciato la fondazione nel 2018, accusa l’organizzazione di avere abbandonato la missione originaria di ricerca aperta e non profit, costruendo una struttura commerciale fortemente legata a Microsoft e trasformando di fatto OpenAi in una società privata. Nel 2024 Musk, che nel frattempo ha sviluppato la sua intelligenza artificiale, chiama gli avvocati e fa causa a OpenAi e ad Altman, chiedendo un centinaio di miliardi di dollari di danni. Il processo è previsto in questo 2026 e sarà certamente interessante.
Nel frattempo, nel novembre 2023, si verifica un glitch nella Matrix. Il consiglio di amministrazione di OpenAi licenzia Altman improvvisamente, comunicando via blog che la sua «partenza segue un processo di revisione deliberato» e che egli «non era stato costantemente candido nelle comunicazioni con il board».
Lo sconcerto nel mondo tech dura cinque giorni, trascorsi i quali Altman torna con un nuovo consiglio di sua fiducia, un potere consolidato e la benedizione del cavaliere bianco Microsoft, che possiede una quota significativa dell’azienda. Oltre 700 dei 770 dipendenti di OpenAi, si dice, avrebbero sottoscritto una lettera di minaccia di dimissioni collettive nel caso in cui Altman fosse stato allontanato.
Ilya Sutskever, il cofondatore e chief scientist di OpenAi che aveva brigato per liquidarlo, perde disastrosamente la partita di potere e si dimette pochi mesi dopo. Ma in cauda venenum, e Sutskever registra una video testimonianza che viene allegata alla causa di Musk contro OpenAi. Accuse di comportamenti manipolatori, secondo cui Altman mostra «un modello costante di menzogne, mina i suoi dirigenti e li mette l’uno contro l’altro». Cose non nuovissime in una grande azienda, verrebbe da dire.
Sia come sia, Altman ora si è fatto profeta di sé stesso e gira il mondo a spiegare le magnifiche sorti e progressive dell’intelligenza artificiale. Un profilo quasi diplomatico, il suo, più che da carismatico innovatore. I numeri messi insieme da OpenAi nel frattempo esplodono, con un valore stimato in 300 miliardi di dollari e finanziamenti piovuti da ogni parte. Come spesso capita in questi settori, al momento OpenAi perde ancora un sacco di soldi e non riesce a fare utili. I costi per lo sviluppo del marchingegno sono enormi, tanto che lo stesso Altman stima che per creare tutti i vari sistemi di intelligenza artificiale in giro per il mondo serviranno migliaia di miliardi di dollari nei prossimi anni.
Rispetto agli altri personaggi di cui ci siamo occupati, Altman è tra i meno carismatici e più politici, anche se in maniera meno sbandierata. Prima partecipa al progetto Stargate annunciato da Donald Trump appena entrato in carica, il 21 gennaio 2025. Il progetto prevede 500 miliardi di investimenti per calcolatori, data center ed energia negli Stati Uniti. Poi, nel 2026, un nuovo scontro, questa volta con Anthropic, un’altra startup Ia fondata da un ex di OpenAi, Dario Amodei. Il governo americano voleva usare i modelli di Anthropic (la cui chat amichevole si chiama Claude) anche per applicazioni militari sensibili, tra cui sorveglianza interna e sistemi d’arma autonomi. Amodei però ha rifiutato, esigendo che Anthropic non fosse usata per sorvegliare cittadini americani e non controllasse armi senza supervisione umana.
Detto fatto, il Pentagono ha defenestrato Amodei, bandendo Anthropic dai contratti federali in men che non si dica. In quella, ecco spuntare OpenAi. Poche ore dopo la clamorosa rottura tra Pentagono e Anthropic, Altman ha già in mano un accordo con il Dipartimento della Difesa per usare i suoi modelli sui sistemi militari classificati. Amodei se l’è presa con Altman accusandolo di ipocrisia e questi ha risposto difendendo la sua scelta. La disputa è certamente sui ricchi contratti con il governo americano, ma è anche sull’etica. Senza scendere sul facile terreno dei buoni e dei cattivi, si tratta di decidere i limiti di queste applicazioni. Il settore si dividerà tra aziende disposte ad entrare nei meccanismi del controllo politico ed altre no. Altman ha fatto la sua scelta.
Il ragazzo d’oro Wang «etichetta» ogni dato usato dagli algoritmi
Nella nebbia di un disegno che fatica a chiarirsi, si sa però che nell’intelligenza artificiale esiste una filiera industriale. Come per fare l’acciaio serve il minerale di ferro, così per fare una conversazione con ChatGpt serve la materia prima costituita dai dati.I dati. Cioè milioni, anzi miliardi di frammenti di testo, immagini, conversazioni, voci, video, etichettati uno per uno con pazienza certosina. A scavare in questa miniera c’è un ragazzo cresciuto a Los Alamos, figlio di due fisici cinesi che lavoravano per i laboratori nucleari del governo americano, che a 19 anni ha abbandonato il Mit per costruire l’azienda che oggi condiziona lo sviluppo di quasi ogni grande modello Ai del pianeta. Certo, tutti questi genietti che abbandonano l’università fanno venire qualche dubbio sul sistema universitario americano.Alexandr Wang ha fondato Scale Ai nel 2016, insieme a Lucy Guo, attraverso l’incubatore Y Combinator (sempre quello). L’idea è semplice, a sapere di cosa si parla. I modelli di apprendimento meccanico sono affamati di dati etichettati, e nessuno stava risolvendo quel collo di bottiglia in modo sistematico. Le macchine non hanno buon senso e non possono impararlo, occorre darglielo già confezionato. Distinguere un gatto da un cane, un’intenzione ostile da una bonaria, una frase sensata da un nonsenso, un contesto rispetto ad un altro è cosa umana. Scale Ai fa proprio questo.Mettere una etichetta ai dati significa dire a una macchina «questo è un pedone» o «questa è una parolaccia» oppure «questo è un proverbio sulla pazienza». Un tale lavoro di pulizia, filtro, raffinazione dei dati può essere fatto solo dall’uomo, almeno per ora. È dunque un lavoro lento, costoso e spesso delegato a lavoratori a cottimo sparsi nel mondo globalizzato e sottopagato. Attraverso piattaforme per lavorare da remoto, lavoratori in Asia e Africa compiono questa attività giudicata spesso usurante. Tanto che vi sono diverse cause in corso per presunte violazioni salariali.Il merito di Wang è stato di capire che chi controlla quel processo controlla a monte la qualità dell’intelligenza artificiale che sta a valle.Scale Ai si è evoluta da semplice servizio di annotazione a quella che Wang stesso definisce una fonderia di dati. Una fabbrica in grado di fornire non solo etichettatura grezza, ma interi sistemi di valutazione, confronto, prova per i modelli più avanzati. I suoi clienti includono OpenAi, Microsoft, Meta e il Dipartimento della Difesa degli Stati Uniti. Questa posizione, a cavallo tra l’industria privata e l’apparato statale, è tipica di molte società di questo settore. In fondo, è la presenza di un cliente dal portafoglio capiente a dare prospettiva a società che altrimenti non sopravviverebbero ai primi anni sul mercato. Nel marzo 2025 Scale Ai ha firmato con il Dipartimento della Difesa il contratto Thunderforge, destinato a utilizzare l’Ia per pianificare ed eseguire movimenti di navi, aerei e altri oggetti militariLa logica è quella di chi presidia l’acquedotto rispetto a chi ha una fontana. Tutte le fontane hanno bisogno d’acqua e questa deve essere potabile. Scale Ai si posiziona come fornitore indispensabile a prescindere dall’esito della competizione tra le fontane. Nel 2021 l’azienda raggiungeva una valutazione di 7 miliardi di dollari e sotto la guida di Wang è arrivata a sfiorare i 29 miliardi, prima dell’operazione che ha segnato la svolta più clamorosa della sua storia recente.Infatti, poco meno di un anno fa, Meta ha acquisito il 49% di Scale Ai per 14,8 miliardi di dollari. L’accordo ha comportato un cambio d’abito per Wang, che ha lasciato la guida operativa dell’azienda per diventare il primo chief Ai officer nella storia di Meta, a capo dei Meta Superintelligence Labs. All’età di ventott’anni, Wang è il più giovane miliardario self-made al mondo.La storia di Wang ricorda che il potere nell’ecosistema Ia si sta spostando verso chi controlla i livelli più profondi e nascosti della filiera. I nuovi mandarini della Silicon Valley non sono necessariamente quelli che costruiscono i prodotti di massa che troviamo sul nostro cellulare. Sono anche quelli che controllano quel mondo oscuro del sottosuolo digitale, su cui quei prodotti piantano radici e crescono. Wang è, forse più di chiunque altro in questa generazione, l’incarnazione di questo nuovo tipo di potere, fatto di silenzi e di struttura. Difficile da afferrare e capire quanto più è nascosto e inafferrabile.Negli ultimi anni Wang ha cercato di rafforzare il legame con la sicurezza nazionale americana. Secondo lui, l’intelligenza artificiale è destinata a diventare uno dei principali campi di competizione strategica tra Stati Uniti e Cina. Chiaro che la qualità dei dati e la capacità di addestrare modelli avanzati assumano un enorme valore geopolitico.
Del resto, come abbiamo già visto, questo è il nuovo clima della tecnologia americana. L’epoca in cui le aziende digitali si consideravano semplicemente imprese globali sembra ormai superata. Oggi sempre più creature della Silicon Valley si percepiscono come parte di un sistema industriale che ha più a che fare con la strategia che con il mercato.
Krishnan, il link tra soldi e politica
Tra i nuovi protagonisti della politica tecnologica americana c’è Sriram Krishnan, una figura diversa da quelle che hanno dominato la Silicon Valley negli ultimi vent’anni. Si tratta dell’uomo che media tra le aziende tecnologiche e la politica. Krishnan nasce in India e si trasferisce negli Stati Uniti nel 2005. Come molti ingegneri provenienti dal subcontinente indiano entra rapidamente nell’ecosistema delle grandi aziende tecnologiche americane e nel corso della sua carriera lavora in alcune delle società più importanti della Silicon Valley. I soliti nomi, tra cui Microsoft, Facebook e Twitter, dove si occupa di sviluppo di prodotti e strategie di crescita delle piattaforme digitali.
Dopo questa prima fase da ingegnere e manager tecnologico, Krishnan si sposta progressivamente verso il mondo degli investimenti. Diventa partner del fondo di venture capital Andreessen Horowitz, uno dei principali finanziatori della nuova generazione di startup della Silicon Valley. In questo ruolo segue soprattutto le aziende che operano nei settori delle criptovalute, delle piattaforme digitali e dell’intelligenza artificiale.
Ed è così che gradualmente la sua posizione lo porta a diventare una figura di collegamento tra l’industria tecnologica e il mondo politico. Negli ultimi anni la regolamentazione delle grandi piattaforme digitali e lo sviluppo dell’intelligenza artificiale sono diventati temi centrali nel dibattito pubblico americano. Per le amministrazioni federali diventa quindi sempre più importante avere interlocutori che conoscano dall’interno il funzionamento delle grandi aziende tecnologiche. Allo stesso tempo, alle aziende del settore serve qualcuno che conosca i meandri del potere, tra Campidoglio e Casa Bianca.
È in questo contesto che Krishnan assume un ruolo da consulente nella definizione delle politiche federali sull’intelligenza artificiale. All’interno dell’amministrazione guidata da Donald Trump, infatti, oggi Krishnan lavora come consigliere per le tecnologie emergenti.
In questa attività collabora con David O. Sacks, un imprenditore e investitore tecnologico noto anche per le sue posizioni politiche conservatrici e per i suoi legami con Peter Thiel. Il lavoro dei due consiste nel fare in modo che le iniziative del governo sull’intelligenza artificiale non si schiantino contro il muro della impraticabilità. Un ruolo tecnico, ma molto politico. Sullo sfondo, la lotta con la Cina per il controllo delle tecnologie. Dunque Krishnan è figura importante e poco appariscente in un mondo sempre più vicino alla politica.
Insomma, se nella fase iniziale della Silicon Valley i protagonisti erano soprattutto imprenditori e ingegneri, più dediti a fare soldi che a pensare alla politica, oggi dal milieu culturale californiano emergono figure differenti. La mediazione con la politica sta diventando sempre più importante ed anzi è sempre più evidente la stretta connessione tra gli apparati governativi e le aziende tecnologiche. Ecco perché figure come Sriram Krishnan sono importanti e lo saranno sempre di più.
Continua a leggereRiduci
Ansa
Il magistrato che ha tolto i figli alla famiglia del bosco parla di problemi relazionali dovuti alla mancata frequentazione della scuola. Eppure, l’insegnamento parentale è legale. E un piccolo allontanato dalla madre avrà molta più difficoltà a stringere legami sociali.
Nel diritto romano bona fide assumeva il significato di comportamento leale e onesto nell’esecuzione degli impegni e obblighi assunti. La buona fede, in senso meno grandioso, è invece lo stato psicologico di un soggetto che ha la convinzione di agire in maniera corretta e ignora di ledere i diritti altrui. La dottoressa Cecilia Angrisano è il magistrato che ha tolto i tre figli ai genitori del bosco, i genitori che hanno osato sottrarre i loro bambini alla follia del mondo contemporaneo. La dottoressa Angrisano è intervenuta in numerosi convegni a favore delle famiglie raffazzonate. Un convegno in cui è stata ospite d’onore parla di «genitorialità fuori dall’ordinario», vezzoso termine con cui si parla della violazione del diritto del bambino di vivere con l’uomo e la donna che lo hanno generato. Molto forte è il rapporto con il Cismai, associazione presente a Bibbiano e nella Bassa modenese, e ovunque si deportino i bambini verso le case famiglia: bambini deportati da un istante all’altro, senza neanche la possibilità di portare con sé un giocattolo.
Cecilia Angrisano spiega i motivi per cui ha fatto allontanare i tre figli di Catherine Birmingham e Nathan Trevallion, la famiglia anglo-australiana stabilitasi nei boschi di Palmoli, a Chieti. Sono questi: «La deprivazione del confronto fra pari in età da scuola elementare può avere effetti significativi sullo sviluppo del bambino, che si manifestano sia in ambito scolastico che non scolastico. In considerazione del pericolo per l’integrità fisica derivante dalla condizione abitativa, nonché dal rifiuto da parte dei genitori di consentire le verifiche e i trattamenti sanitari obbligatori per legge...». Evidentemente la dottoressa non conosce i sistemi motivazionali. I sistemi motivazionali interpersonali (Smi) costituiscono l’insieme di schemi comportamentali e neurobiologici che regolano le relazioni tra individui, orientando l’essere umano verso scopi fondamentali per la sopravvivenza e l’adattamento sociale. Questi sistemi comprendono, tra gli altri, l’attaccamento, la cooperazione, la competizione, la cura parentale e l’affiliazione al gruppo. Non tutti, però, rivestono la stessa importanza: sebbene ciascuno contribuisca al benessere psichico e alla coesione sociale, il sistema dell’attaccamento ha un ruolo primario e fondante, influenzando in modo profondo lo sviluppo della mente e la regolazione neuroendocrina.
Un bambino può vivere benissimo senza andare a scuola, ma se perde padre e madre si forma una ferita primaria, un trauma non risolvibile, come un’amputazione. È quello che stanno subendo i bambini del bosco: un’amputazione della loro anima, a cui si ribellano con la collera e le poche armi che hanno, il rifiuto di mangiare, il rifiuto di interagire con le degnissime persone dell’orfanotrofio di Stato dove sono stati rinchiusi, la cosiddetta casa famiglia. Dal loro punto di vista, queste persone che hanno infranto il loro attaccamento non possono che essere considerate aguzzini. L’attaccamento ha un sistema motivazionale complementare: l’accudimento, l’istinto materno, l’istinto di accudire. Levare i bambini a una madre è un crimine contro la sua umanità, contro la sua biologia, contro la natura e contro Dio. L’attaccamento, teorizzato inizialmente da John Bowlby e successivamente approfondito da Mary Ainsworth e altri autori, è il sistema motivazionale che spinge il bambino a cercare protezione e vicinanza nella madre, colei che ha portato la gravidanza, e nel padre, l’uomo che con la sua forza protegge la diade madre-bambino. Tale ricerca di sicurezza non è semplicemente un bisogno psicologico: coinvolge strutture cerebrali arcaiche, ormoni e neurotrasmettitori che modulano la percezione di sicurezza e stress. Quando il bambino sperimenta una relazione stabile e prevedibile con una madre responsiva e sensibile, si forma un modello interno sicuro, quello che le assistenti sociali e i giudici alle loro spalle massacrano e maciullano. A livello biologico, la relazione di attaccamento attiva il rilascio di ossitocina e regola l’equilibrio del cortisolo, riducendo l’iperattivazione dell’asse ipotalamo-ipofisi-surrene. In questo modo, l’attaccamento costituisce la base biologica e psicologica della fiducia, della regolazione emotiva e della futura capacità di costruire legami sociali. Quando invece si verifica una deprivazione materna, assenza prolungata o carenza di cure sensibili, come accade nelle deportazioni eseguite dai servizi sociali, le conseguenze sono profonde e durature: sono un danno biologico.
Studi classici di René Spitz sui bambini cresciuti in istituti e le ricerche di Harry Harlow sui cuccioli di macaco hanno mostrato che la mancanza della figura della madre produce alterazioni nello sviluppo emotivo, cognitivo e fisiologico. Tali effetti includono difficoltà nella gestione dello stress, disturbi dell’umore, comportamenti disorganizzati e un’iperattivazione cronica dei sistemi di allarme fisiologico. A livello neurobiologico, la deprivazione materna compromette il corretto sviluppo dei circuiti dopaminergici e serotoninergici, riducendo la capacità di provare piacere e regolare l’affettività. Inoltre, l’assenza di un attaccamento sicuro in età precoce altera la struttura dell’amigdala, dell’ippocampo e della corteccia prefrontale, regioni cruciali nella regolazione delle emozioni e nel controllo dei comportamenti impulsivi.
L’importanza dell’attaccamento supera enormemente quella di altri sistemi motivazionali, come l’affiliazione al gruppo. Spezzare il legame di attaccamento per favorire, forse, l’affiliazione al gruppo è una follia. Quest’ultima, seppur importante per la sopravvivenza in società complesse, si costruisce su basi che presuppongono la sicurezza emotiva sviluppata attraverso l’attaccamento. In altre parole, l’individuo può investire in relazioni cooperative e vivere l’appartenenza al gruppo solo se la propria base affettiva primaria è solida. Senza un attaccamento sicuro, l’affiliazione rischia di diventare una ricerca ansiosa di approvazione o, al contrario, un ritiro difensivo dalle relazioni. Pertanto, l’affiliazione rappresenta un sistema derivato, secondario, che si attiva pienamente solo quando il sistema dell’attaccamento ha assicurato la regolazione emotiva e neuroendocrina di base. L’attaccamento, in sintesi, è il pilastro dei sistemi motivazionali interpersonali: regola gli ormoni dello stress, favorisce la maturazione cerebrale, modula la produzione di ossitocina e dopamina e sostiene la capacità di fidarsi dell’altro. La sua deprivazione, determina uno squilibrio profondo tra biologia e psiche, ostacolando la costruzione di relazioni sane e stabili.
La scuola italiana è una scuola pessima. Sono pessimi gli stabili che periodicamente crollano in testa agli alunni, il livello di apprendimento è pessimo, il livello di indottrinamento è spaventoso. Basti pensare che le scuole italiane hanno imposto mascherine dannose per due anni. Le nostre leggi garantiscono il diritto alla scuola parentale, ma molti giudici ritengono questo diritto sbagliato e deportano i bambini che fanno scuola parentale. Il caso della famiglia del bosco non è l’unico. È dal volto della madre che l’essere umano apprende la sicurezza e, attraverso di essa, la possibilità stessa di appartenere al mondo, quel volto che giudici e assistenti sociali vietano ai bambini deportati.
L’attaccamento è sacro. Chi lo infrange commette un crimine. Occorre una serie di leggi per impedire che giudici e assistenti sociali, tutte persone evidentemente prive degli strumenti culturali necessari a capire i danni della deportazione, magari in perfetta buona fede, distruggano la vita e il diritto alla normalità biologica di bambini e famiglie incolpevoli.
Continua a leggereRiduci







