Sono moltissimi i documenti diffusi dalla whistleblower Frances Haugen. Stavolta parliamo di falsi profili, teorie del complotto e moderazione dei contenuti: i casi di India e Stati Uniti
La quantità di informazioni che abbiamo sulla vita interna di Facebook continua a crescere grazie all’analisi delle migliaia di pagine di documenti diffusi da Frances Haugen, la whistleblower che ha testimoniato davanti al Congresso tre settimane fa e al lavoro dei media su quei documenti.
La novità sono le notizie riguardanti l’India, che somigliano tragicamente alle novità sugli Stati Uniti e il 6 gennaio, con la differenza fondamentale che nella più grande democrazia del pianeta, come in altri Paesi non occidentali, la alfabetizzazione sul web, le fake news, la diffusione di voci è più bassa. Come si è osservato in Myanmar e, molto tempo prima in Ruanda, quando le voci vennero diffuse dalla radio, le conseguenze possono essere molto più drammatiche.
Il caso dell’India
I documenti analizzati dai media raccontano come due analisti del social network abbiano creato un account falso per verificare cosa comparisse sulla bacheca di una giovane donna indiana. Quello che hanno verificato è pericoloso: nel momento in cui al confine pakistano e nella zona contesa del Kashmir scoppiarono incidenti – e senza che i due analisti di Facebook avessero messo dei like a pagine di nazionalisti indu – la bacheca della falsa ragazza cominciò a venire inondata di messaggi violenti e razzisti anti musulmani e anti pakistani e inneggianti alla violenza (“Ecco 300 cani morti”, recitava un post corredato di foto di cadaveri kashmiri). In quel periodo del 2019 il premier nazionalista indiano Narendra Modi era in campagna elettorale.
La moderazione dei contenuti
Come è possibile che i contenuti in un Paese che è il primo mercato del social network guidato da Mark Zuckerberg non vengano in alcun modo moderati? Se la guardiamo dal punto di vista della politica, quello che sappiamo è che tra Modi e Zuckerberg c’è un ottimo rapporto. Nel 2015 il premier populista e nazionalista indiano venne invitato al quartier generale per un incontro pubblico mentre nel 2017 fu la volta di un post di elogio: “Al di là del voto, la più grande opportunità è aiutare le persone a rimanere impegnate con le questioni che contano per loro ogni giorno, non solo alle urne. Possiamo aiutare a stabilire un dialogo diretto e la responsabilità tra le persone e i nostri leader eletti. In India, il Primo Ministro Modi ha chiesto ai suoi Ministri di condividere i loro incontri e le informazioni su Facebook in modo che possano ricevere il feedback dei cittadini”. Nel 2017 immaginare che Facebook potesse avere quel ruolo nel rapporto tra elettori ed eletti in un Paese da un miliardo e trecento milioni di persone non è esattamente sincera.
La ragione fondamentale per cui la moderazione non avviene in India e altrove non è però la simpatia nei confronti di Modi ma gli investimenti fatti dal social network in materia di verifica dei contenuti. Il budget investito nel 2020 per combattere la disinformazione è stato speso all’84% negli Stati Uniti, mentre per tutto il resto del mondo, ossia il 90% degli utenti, si è speso il 16%. La ragione di questo sbilanciamento è semplice: il social network temeva un nuovo disastro di immagine dopo quello del 2016, è preoccupato per le reazioni e le regole che il Congresso potrebbe imporre e sa che se e quando verrà regolato (o tassato di più) tutto partirà da Stati Uniti ed Europa. In altri Paese probabilmente basta avere buoni rapporti con la classe dirigente.
Il caso Carol Smith
Ma i test con falsi utenti non si limitano all’India. Altri documenti, analizzati in questo caso dal New York Times, rivelano come certi profili vengano immediatamente sommersi di teorie del complotto. È il caso della falsa Carol Smith, signora di mezza età con dei like a pagine come FoxNews, il network TV conservatore. Il ricercatore e dipendente di Facebook che ha condotto l’esperimento ha verificato che nel giro di un paio di settimane e senza bisogno di aver visitato pagine estremiste, l’algoritmo suggeriva alla nostra Carol immaginaria decine di pagine con contenuti relativi a QAnon, la teoria che sostiene che il mondo è guidato da un network di democratici miliardari pedofili e satanisti. Facebook ha chiuso le pagine QAnon solo nell’agosto 2020, quando il danno lo avevano già fatto. Allo stesso modo, nei giorni che precedettero e seguirono l’assalto a Capitol Hill del 6 gennaio, il monitoraggio delle pagine “Stop the Steal” (“Fermiamo il furto”) fu piuttosto blando e consentì, ad esempio, lo spam di inviti a iscriversi ai gruppi che invitavano a ribellarsi contro le presunte frodi elettorali. Dopo il 6 gennaio molti dipendenti del social network protestarono pubblicamente e internamente per la scarsa attenzione e le troppe falle del sistema di monitoraggio – che pure sostenevano, potevano essere tranquillamente individuabili.
La ricerca del Financial Times
E a proposito di filtri e moderazione dei contenuti, dall’analisi del Financial Times di altri documenti interni, scopriamo che la moderazione non vale per alcune figure di alto profilo, soprattutto conservatrici. Le ragioni sono le proteste del movimento conservatore statunitense di fronte alla chiusura delle pagine e alla censura di alcuni contenuti. Dai memo interni visualizzati dal quotidiano economico londinese scopriamo che c’erano eccezioni alla moderazione decise dall’alto, a volte dallo stesso Zuckerberg. In una nota interna del dicembre 2020, si legge che il tram di public policy ha bloccato la censura di post perché questa avrebbe potuto danneggiare figure politiche importanti. In un caso lo stesso Zuckerberg avrebbe fatto ripubblicare un video che sosteneva che l’aborto non ha mai una giustificazione medica dopo che gli erano giunte proteste da ambienti repubblicani. Niente neutralità, dunque, nonostante questa sia la policy ufficiale e sbandierata.
L’impressione, ancora una volta, è che siamo all’inizio di una nuova e difficile stagione per il social network. I documenti trasmessi da Haugen al Congresso sono molti, riguardano la politica come la pedofilia, probabilmente ne vedremo anche sui vaccini e il Coronavirus. A ogni tornante Zuckerberg e il suo team reagiranno, come stanno facendo anche in questi giorni, annunciando che implementeranno nuovi protocolli per rispondere alle sfide o che, anzi, dei passi in avanti sono già stati fatti. A ogni tornante, però, abbiamo scoperto che le azioni intraprese da Facebook non erano abbastanza.