Big data: quello che Cambridge Analytica non ci ha detto
Lo scandalo Cambridge Analytica non ci ha insegnato poi molto. Fake news, linguaggio dell’odio e manipolazione del consenso tramite i social media continuano a colpire la democrazia
Lo scandalo Cambridge Analytica non ci ha insegnato poi molto. Fake news, linguaggio dell’odio e manipolazione del consenso tramite i social media continuano a colpire la democrazia
“Un supervirus creato in laboratorio”. Con titoli simili è riemerso durante il lockdown un video del Tg3 Leonardo del 2015 che parlava di esperimenti su virus di tipo Sars in Cina. Il Covid-19 non c’entrava nulla, eppure utenti, blog e politici hanno lanciato l’allarme. Un semplice errore? Niente affatto.
Il caso Cambridge Analytica
“Di società come Cambridge Analytica ne esistono centinaia, con tecnologie ancora più avanzate rispetto alle presidenziali statunitensi del 2016. In tutto il mondo partiti e candidati continuano a sfruttare servizi per influenzare il voto attraverso disinformazione ed estremismo in rete. E il Coronavirus, costringendo tutti noi a trascorrere più tempo a contatto con le piattaforme digitali, ci ha reso più vulnerabili che mai”. Questo il quadro che ci descrive Brittany Kaiser, ex dipendente di Cambridge Analytica che ne La dittatura dei dati (HarperCollins) ha svelato il suo ruolo in diverse tornate elettorali, come quella vinta da Donald Trump. Sono passati quattro anni da allora, quando i dati su milioni di account Facebook, sottratti senza consenso, furono usati per profilare gli utenti e mostrargli contenuti che potessero condizionarne le intenzioni di voto. “Buona parte dello staff che allora seguì la campagna elettorale del candidato repubblicano lo ha fatto anche nel 2020”, spiega Kaiser. “Nonostante la consapevolezza che ne è scaturita, si è fatto troppo poco e troppo tardi. Questo vale per i giganti di internet, più interessati a fare soldi che a garantire i diritti e la sicurezza degli utenti, come anche per i governi”.
La verità è che il caso Cambridge non ci ha insegnato poi molto e che la pandemia può peggiorare le cose. Fake news, linguaggio dell’odio, manipolazione del consenso tramite i social media: ciò che l’università di Oxford definisce “propaganda computazionale” è una delle maggiori sfide per la tutela delle democrazie. I contenuti che riportano informazioni false hanno il 70% di probabilità in più di essere ritwittati rispetto a quelli veritieri e raggiungono le prime 1.500 persone sei volte più rapidamente, secondo uno studio del Mit pubblicato su Science. Twitter e Facebook hanno risposto introducendo un’etichetta che contrassegna le notizie false o non verificate, ma non riescono ancora a filtrare tutti i materiali condivisi dagli utenti e persino “il fact-checking – scrive Alice Marwick sulla Georgetown Law Technology Review – può avere l’effetto di rendere le storie più attrattive”.
Gli algoritmi dei social media
Se queste tendenze sono evidenti, quanti voti sono in grado di spostare? “Non esiste uno studio che correli un’intenzione di voto con la rete. Il punto è capire a monte quanto essa pesa nella galassia informativa, esasperando fenomeni che possono incidere sulle urne”. Matteo Flora, docente di Corporate reputation e storytelling all’università di Pavia e fondatore di The Fool Srl, studia come si modifica la percezione online. “La realtà è un oggetto socialmente negoziato: ognuno sceglie quale realtà accettare come tale. Così la distorsione della realtà può coincidere, come in effetti avviene, con la visione della realtà che molti fanno propria”. In questo i social network hanno un ruolo decisivo, perché si basano su algoritmi studiati per mostrare agli utenti contenuti interessanti. “Se tu sposi una certa narrativa delle cose, vedrai ciò che rientra in quella narrativa. Al contempo il tuo cervello tenderà a non ritenere valide interpretazioni diverse”.
Niente di nuovo fin qui: sono le cosiddette filter bubble ed echo chamber, ma c’è dell’altro. “Si fa strada l’ipotesi che i social network polarizzino le opinioni”, continua Flora. “All’interno di qualunque bolla le informazioni che si diffondono di più sono quelle più estreme. Questo dipende dal funzionamento delle piattaforme e della nostra psicologia”. Una ricerca del 2019 dell’università di Stanford ha rilevato che “la disattivazione di Facebook riduce la polarizzazione delle visioni sulla politica”. Alla stessa conclusione sarebbe giunto un report del 2018 interno a Facebook, svelato dal Wall Street Journal: “Gli algoritmi sfruttano l’attrazione del cervello umano per la divisione”.
Covid e complottismo
Il Covid è come benzina sulle fiamme. “Sta influenzando moltissimo il dibattito politico e le elezioni, perché viene cavalcato”, ci dice Alex Orlowski, esperto di propaganda online, big data e open source intelligence. “Ha creato malessere sociale e portato un maggior numero di persone ad autoinformarsi: la ricetta perfetta per i complottisti”. Con il suo tool Metatron Analytics, Orlowski ha misurato che dal 1° febbraio al 20 aprile 2020 i contenuti sospetti in lingua inglese relativi al virus hanno raggiunto quasi 160 milioni di utenti, di cui 562mila in Italia. Un humus su cui fermenta un’ultradestra molto preparata ad amplificare i propri messaggi online.
“I progressisti sono rimasti indietro, perché il consenso costruito sui social richiede tempo, soldi e responsabilità etiche che non tutti sono disposti a prendersi”, commenta Orlowski. “Un tempo i partiti erano molto “presenziali”, poi alcuni hanno iniziato a usare strategie per crescere rapidamente in rete. Una delle azioni classiche è aprire molti blog che pubblicano gli stessi contenuti sensazionalistici, non verificati o del tutto falsi, con leggere modifiche al testo apportate da software comunemente chiamati “spintext”, oppure creare account falsi che compiono azioni automatiche. Il paradosso è che queste operazioni sono vietate – almeno teoricamente – dalle piattaforme digitali ma non dalla legislazione”. Così, nel bel mezzo di un vuoto normativo, l’incontro tra queste tecnologie e il sovranismo genera mostri. Ne è una dimostrazione la “Bestia” di Matteo Salvini, una rete di pagine molto attive e account spesso anomali che amplifica la voce di community autentiche. “È sofisticata a confronto con una concorrenza quasi nulla” secondo Orlowski, tra i primi ad averla scoperta. “La sua forza sta nelle risorse umane ed economiche”.
La propaganda computazionale
Diversamente da come la si è descritta, la “Bestia” non è una meraviglia tecnologica. “È un sistema di distribuzione di contenuti ben congeniato che poche forze politiche possono permettersi”, ci dice Francesco Agostinis, cofondatore dell’agenzia Loop ed esperto di pubblicità su Facebook. “Vale lo stesso per quelli che molti hanno chiamato “hacker russi” sebbene fossero solo advertiser, che hanno avuto un ruolo importante nel fomentare i sostenitori di Brexit e Trump ma si sono limitati a comprare spazi pubblicitari”. Una narrazione analoga a quella fatta per il caso Cambridge Analytica: “Come lavoravano era noto da tempo, il loro errore è stato utilizzare dati per finalità sconosciute agli utenti e questo ne ha fatto un capro espiatorio”, che ha parzialmente offuscato le responsabilità delle altre parti in causa, da Facebook ai regolatori distratti, passando per Trump. Il punto, prosegue Agostinis, è che “tutti giocano con algoritmi fuori dal loro controllo e in assenza di regole chiare. Poi c’è grande semplificazione nell’approccio a questi temi e si ingigantiscono aspetti meno rilevanti di altri”. Prendiamo la pandemia: “Stare più sui social a causa del Covid non cambia di per sé l’opinione della gente. Se questo avviene è per difficoltà economiche e psicologiche a monte”.
Come possiamo affrontare la propaganda computazionale? Facebook e soprattutto Twitter hanno imposto una stretta alla pubblicità su temi sociali e politici, e rafforzato i sistemi di intelligenza artificiale per riconoscere i contenuti sensibili, ma non basta. Da parte delle piattaforme servono più risorse per la moderazione dei contenuti e una decisione che ancora manca. “Quando in Facebook si sono accorti di cosa faceva Cambridge Analytica, hanno chiesto all’azienda di cancellare i dati ma probabilmente questo non è mai avvenuto”, fa notare Alex Orlowski. “I colossi di internet dovrebbero anche preoccuparsi del fatto che sono un colabrodo. In Paesi come Russia e Cina ci sono squadre di hacker reclutati per sfruttare queste vulnerabilità e rubare dati”. Insomma, siamo di fronte a un problema che ha implicazioni sociali e politiche, e non può avere solo una soluzione algoritmica, proveniente da soggetti privati. “I legislatori – conclude Brittany Kaiser – hanno il dovere di lavorare con esperti per capire come la tecnologia funziona, invece c’è un’ignoranza diffusa”.
È tempo che la politica si riappropri della sovranità sulla regolamentazione in materia di big data e di moderazione di contenuti online. E deve farlo in fretta.
Questo articolo è pubblicato anche sul numero di novembre/dicembre di eastwest.
Lo scandalo Cambridge Analytica non ci ha insegnato poi molto. Fake news, linguaggio dell’odio e manipolazione del consenso tramite i social media continuano a colpire la democrazia
“Un supervirus creato in laboratorio”. Con titoli simili è riemerso durante il lockdown un video del Tg3 Leonardo del 2015 che parlava di esperimenti su virus di tipo Sars in Cina. Il Covid-19 non c’entrava nulla, eppure utenti, blog e politici hanno lanciato l’allarme. Un semplice errore? Niente affatto.
Il caso Cambridge Analytica
Questo contenuto è riservato agli abbonati
Abbonati per un anno a tutti i contenuti del sito e all'edizione cartacea + digitale della rivista di geopolitica
Abbonati per un anno alla versione digitale della rivista di geopolitica