C’è stato un grande progresso da quando alla fine del XV secolo, Leonardo Da Vinci disegnò il primo robot che nominò cavaliere automa, creato per il divertimento degli invitati nel castello Sforza, in Milano.
Oggi nelle reti digitali ci affrontiamo con poderosi sistemi d’intelligenza artificiale (IA) e /Big Data/. Gli algoritmi di IA hanno la capacità di controllare quasi tutto quello che accade nel ciberspazio.
Per questo, è necessario studiare gli elementi fondamentali che operano sia nella nostra intimità che nell’agora pubblica, per intendere come si costruisce (e si distrugge) la realtà, tra i quali il /gaslighting/,il /framing/ e l’agenda /setting/, e la combinazione dei tre risulta letale.
Cominciamo con il più intimo e devastatore. Il termine /gaslighting/, o «illuminazione di gas», proviene dalla pellicola /Gaslight/ (1944), nella
quale un marito manipola sua moglie sino a fare credere che ha perso il giudizio: abbassa la luce a gas della casa e giura che è sempre uguale e brillante, nasconde oggetti e le assicura che li ha persi.
Nell’ ecosistema digitale, il /gaslighting/ trascende nell’ambito della manipolazione interpersonale per convertirsi in un’arma di disinformazione sistemica. Il suo obiettivo non è ingannare ma erodere la capacità dell’individuo e della società d’avere fiducia nella propria percezione della realtà. Non è ottenere solo l’instabilità politica, ma è una frattura epistemologica.
Si inonda il ciberspazio con narrative contraddittorie sullo stesso fatto. Non si cerca d’imporre una menzogna, ma si vuole creare «un rumore» tale che la verità appaia irraggiungibile o una questione di opinione. Inoltre si cooptano termini e si assegnano significati opposti agli originali, come chiamare «libertà» la censura, o «pace» l’aggressione.
Prima di tutto si screditano sistematicamente i media, i giornalisti e le istituzioni che riportano una realtà incomoda, chiamandoli «falsi» «ufficia listi» o «venduti al regime». L’ obiettivo è che, quando si presentano prove, il pubblico le respinga automaticamente perché provengono da una «fonte ufficiale».
Per di più gli algoritmi delle reti sociali, priorizzando la partecipazione (/engagement/), creano bolle nelle quali la narrativa del /gaslighting/ si ripete e rinforza senza contrappeso.
Contrarrestare questa forma di manipolazione richiede una messa a fuoco multifacetica che combini la resilienza individuale con l’azione collettiva.
Il primo passo sarebbe riconoscere che il «rumore» informativo e la contraddizione costante sono una strategia deliberata.
Salire dal circolo digitale e contrastare l’informazione con l’ambiente tangibile o con dati empirici irrefutabili. Prima di condividere un contenuto chiedersi: «Da dove viene questo? Qual’è lagenda? Che prove verificabili esistono? Coltivare uno scetticismo sano.
A livello collettivo e sociale, implementare programmi educativi che insegnino non solo a scoprire notizie false, ma anche a comprendere la meccanica della manipolazione psicologica e le distorsioni cognitive nell’ambiente digitale.
Una società con istituzioni forti è più resistente all’erosione della fiducia, e per questo è importante appoggiare e difendere i media di comunicazione e gli organismi scientifici che operano con standard di metodo e trasparenza.
La miglior protezione contro una menzogna attraente è una verità ugualmente convincente. È necessario costruire e diffondere narrative proattive che offrono un senso d’appartenenza, proposito e visione del futuro.
Il /gaslighting/ nel ciberspazio sfrutta la nostra dipendenza dall’informazione digitale e la nostra vulnerabilità cognitiva. Contrarrestarlo non è solo un’azione di verifica di dati, ma un esercizio di sovranità e resilienza.
/Fonti: Victor Calef, Edward M. Weinshel, Some Clinical Consequences of Introjection: Gaslighting. The Psychoanalytic Quarterly Volume 50, 1981./





