Prendendo in esame tre casi che coinvolgono diversi contenuti di Facebook contenenti la frase “Dal fiume al mare”, il Consiglio ritiene che non abbiano violato le regole di Meta sull’incitamento all’odio, violenza e incitamento o organizzazioni e individui pericolosi. In particolare, i tre contenuti contengono segnali contestuali di solidarietà con i palestinesi, ma nessun linguaggio che inviti alla violenza o all’esclusione. Inoltre, non glorificano o fanno riferimento ad Hamas, un’organizzazione designata come pericolosa da Meta. Nel sostenere le decisioni di Meta di mantenere il contenuto, la maggioranza del Consiglio prende nota del fatto che la frase ha molteplici significati ed è utilizzata dalle persone in vari modi e con diverse intenzioni. Una minoranza ritiene che – poiché la frase appare nella carta di Hamas del 2017 e dati gli attacchi del 7 ottobre – il suo utilizzo in un post dovrebbe essere presunto come una glorificazione di un’entità designata, a meno che non vi siano chiari segnali contrari.
Secondo il Consiglio, questi tre casi evidenziano le tensioni tra la visione di Meta e la necessità di proteggere la libertà di espressione, in particolare il discorso politico durante il conflitto, garantendo valori di sicurezza e dignità di Meta al fine di proteggere le persone da intimidazioni, esclusione e violenza. L’attuale e continuo conflitto che ha seguito l’attacco terroristico di Hamas nell’ottobre 2023 e le successive operazioni militari di Israele hanno portato a proteste a livello globale e accuse contro entrambe le parti per violazione del diritto internazionale. Altrettanto rilevante è l’ondata di antisemitismo e islamofobia non solo per questi casi, ma anche per l’uso generale di “From the River to the Sea” sulle piattaforme di Meta.
Questi casi hanno nuovamente sottolineato l’importanza dell’accesso ai dati per valutare efficacemente la moderazione dei contenuti di Meta durante i conflitti, nonché la necessità di un metodo per tracciare la quantità di contenuti che attaccano le persone in base a una caratteristica protetta.
Le raccomandazioni del Consiglio esortano Meta a garantire che la sua nuova Content Library sia un sostituto efficace di CrowdTangle e ad attuare pienamente una raccomandazione del BSR Human Rights Due Diligence Report sugli impatti di Meta in Israele e Palestina.
La decisione del Consiglio di vigilanza
Il Consiglio di vigilanza conferma le decisioni di Meta di lasciare il contenuto in tutti e tre i casi.
Nel giungere alla sua decisione, la maggioranza del Consiglio nota che la frase “Dal fiume al mare” ha molteplici significati. Mentre può essere intesa da alcuni come incoraggiamento e legittimazione dell’antisemitismo e dell’eliminazione violenta di Israele e del suo popolo, è anche spesso utilizzata come un appello politico alla solidarietà, all’uguaglianza dei diritti e all’autodeterminazione del popolo palestinese e per porre fine alla guerra a Gaza. Dato questo fatto, e come dimostrano questi casi, la frase autonoma non può essere intesa come un appello alla violenza contro un gruppo in base alle sue caratteristiche protette, come un sostegno all’esclusione di un gruppo particolare o al supporto di un’entità designata, Hamas. L’uso della frase da parte di questo gruppo terroristico con espliciti intenti e azioni di eliminazione violenta non rende la frase intrinsecamente odiosa o violenta, considerando la varietà di persone che usano la frase in modi diversi. È fondamentale che fattori come il contesto e l’identificazione di rischi specifici vengano valutati per analizzare i contenuti pubblicati sulle piattaforme di Meta nel loro complesso. Sebbene la rimozione dei contenuti avrebbe potuto essere in linea con le responsabilità di Meta in materia di diritti umani se la frase fosse stata accompagnata da dichiarazioni o segnali che chiedevano esclusione o violenza, o legittimavano l’odio, tale rimozione non si baserebbe sulla frase stessa, ma piuttosto su altri elementi che violano, secondo la maggioranza del Consiglio. Poiché la frase non ha un unico significato, un divieto assoluto di contenuti che includono la frase, una regola predefinita per la rimozione di tali contenuti, o persino il suo utilizzo come segnale per innescare l’applicazione o la revisione, ostacolerebbe il discorso politico protetto in modi inaccettabili.
Al contrario, una minoranza del Consiglio ritiene che Meta dovrebbe adottare una regola predefinita che presupponga che la frase costituisca la glorificazione di un’organizzazione designata, a meno che non vi siano chiari segnali che l’utente non sostenga Hamas o gli attacchi del 7 ottobre.
Una ricerca commissionata dal Consiglio per questi casi si basava sullo strumento di analisi dei dati CrowdTangle. L’accesso ai dati della piattaforma è essenziale per il Consiglio e per altri stakeholder esterni per valutare la necessità e la proporzionalità delle decisioni di moderazione dei contenuti di Meta durante i conflitti armati. Ecco perché il Consiglio è preoccupato per la decisione di Meta di chiudere lo strumento, mentre ci sono dubbi sulla nuova Meta Content Library come sostituto adeguato.
Infine, il Consiglio riconosce che anche con gli strumenti di ricerca, c’è una capacità limitata di valutare efficacemente l’entità dell’ondata di contenuti antisemiti, islamofobi, razzisti e odiosi sulle piattaforme di Meta. Il Consiglio esorta Meta a implementare pienamente una raccomandazione precedentemente emessa dal rapporto BSR Human Rights Due Diligence per affrontare questo problema.
Il Consiglio raccomanda a Meta di:
- Assicurarsi che ricercatori qualificati, organizzazioni della società civile e giornalisti, che in precedenza avevano accesso a CrowdTangle, vengano inseriti nella nuova Meta Content Library entro tre settimane dall’invio della loro domanda.
- Assicurarsi che la sua Content Library sia un sostituto adatto di CrowdTangle, che fornisca funzionalità e accesso ai dati uguali o maggiori.
- Implementare la raccomandazione n. 16 del rapporto BSR Human Rights Due Diligence of Meta’s Impacts in Israel and Palestine per sviluppare un meccanismo per tracciare la prevalenza di contenuti che attaccano le persone in base a specifiche caratteristiche protette (ad esempio, contenuti antisemiti, islamofobi e omofobi).
In merito alla decisione si è pronunciata FOA, Fighting Online Antisemitism, che ricorda che la frase è tutt’altro che neutra. L’utilizzo storico e corrente dello slogan è collegato direttamente alle ideologie antisemite che negano il diritto di Israele ad esistere, e glorificano l’uso della violenza contro gli ebrei. Secondo FOA, il fallimento di Meta a pronunciarsi sul tema, riconoscendo la pericolosità dello slogan, rischia di alimentare ulteriormente l’antisemitismo online, con conseguenze nel mondo reale.
Permettendo la diffusione di questo slogan, in nome della libertà d’espressione, Meta sta normalizzando una retorica antisemita che potrebbe fomentare altri appelli al genocidio. Questa decisione minaccia la sicurezza delle comunità ebraiche in tutto il mondo e incoraggia coloro che propagandano odio e divisione.
FOA esorta Meta a riconsiderare questa politica dannosa. La libertà d’espressione non deve essere utilizzata per legittimare appelli alla distruzione di un popolo o di uno Stato. Il Consiglio deve riesaminare questa decisione e adottare misure più forti contro la retorica che promuove antisemitismo e violenza.
Traduzione libera a cura di Larisa Anastasia Bulgar.