Auditoria foi solicitada por conselho da própria empresa, que admite excessos de seu algoritmo e promete soluções
Relatório da consultoria “Business for Social Responsibility”, solicitado pelo Conselho de Supervisão Independente do Facebook, mostrou que a rede social removeu conteúdos postados por palestinos em suas contas sobre o conflito entre Israel e o grupo Hamas, no ano passado. Outra constatação é de que o Facebook ainda puniu mais usuários de língua árabe que falaram sobre o tema em comparação com os usuários de língua hebraica.
O documento observou que isso provavelmente ocorreu porque os sistemas baseados em inteligência artificial da Meta rastreiam termos associados a organizações terroristas estrangeiras para vetar conteúdos. Mas admitiu que o trabalho do algoritmo do Facebook pode ter retirado do ar postagens sem discurso de ódio, mas que se assemelhavam em terminologia por estarem escritas em árabe.
No Twitter, o grupo que defende os direitos digitais palestinos, “Centro Árabe para o Avanço of Social Media” destacou a importância do documento: “O relatório da BSR confirma que a censura do Meta violou o direito palestino à liberdade de expressão entre outros direitos humanos por meio de veto excessivo de conteúdo árabe em comparação com o hebraico.”
O conflito, que durou duas semanas entre Israel e o grupo Hamas, começou em maio de 2021 com as manifestações de um processo judicial polêmico da Suprema Corte que decidia se os israelenses tinham o direito de despejar famílias palestinas de suas casas em um bairro em Jerusalém.
Durante protestos, a polícia israelense invadiu a mesquita de Al Aqsa, um dos locais mais sagrados do Islã. O Hamas, que governa Gaza, respondeu disparando foguetes contra Israel, e Israel retaliou com uma campanha de bombardeio de 11 dias que deixou mais de 200 palestinos mortos. Mais de uma dúzia de israelenses também foram mortos antes que ambos os lados pedissem um cessar-fogo.
Ao longo da guerra, o Facebook e outras plataformas sociais foram elogiadas por seu papel central em compartilhar narrativas em primeira mão do conflito. Os palestinos postaram fotos de casas cobertas de escombros e caixões de crianças, levando a um clamor global pelo fim do conflito. Mas críticas sobre a moderação de conteúdo pelas redes sociais surgiram quase imediatamente.
Logo no início dos protestos, o Instagram, que também pertence à Meta, junto com o WhatsApp e o Facebook, começou a bloquear postagens contendo a hashtag “#AlAqsa”. No início, a empresa culpou o problema em um erro automatizado de implantação de software. Depois que o Washington Post publicou uma história destacando a fala de um porta-voz da Meta de que um “erro humano” causou a falha, não oferecendo mais informações.
O relatório, que foi encomendado pelo próprio conselho do Facebook, emitiu 21 recomendações para a empresa. Isso inclui alterar suas políticas de identificação de organizações e indivíduos perigosos, fornecer mais transparência aos usuários quando as postagens são penalizadas, realocar recursos de moderação de conteúdo em hebraico e árabe com base na “composição do mercado” e direcionar possíveis violações de conteúdo em árabe para pessoas que falam o mesmo idioma como o do post.
A direção de conteúdo do Facebook informou que está implementando boa parte das sugestões feitas pelo conselho, com base na pesquisa. Mas admitiu que não há solução fácil e mágica para esse tipo de problema.