O Comitê de Supervisão da Meta afirmou nesta quinta-feira (22) que a empresa errou ao manter no Facebook um vídeo que questionava os resultados das eleições brasileiras e convocava para ataques a Brasília. O órgão também demonstrou preocupação com o sistema de moderação da Meta em contextos de violência eleitoral e cobrou a adoção de critérios claros e mais transparentes para que a atuação da empresa possa ser analisada pelo público.
A decisão é resultado do julgamento sobre o caso de um post golpista publicado no dia 3 de janeiro — a poucos dias, portanto, dos atos golpistas que depredaram os Três Poderes. Nele, um usuário fazia um chamado para "sitiar" o Congresso Nacional como "a última alternativa" contra a posse do presidente Luiz Inácio Lula da Silva (PT) e questionava a confiabilidade das urnas. A publicação era acompanhada de um vídeo em que um general pedia que as pessoas fossem às ruas, ao Congresso e ao STF (Supremo Tribunal Federal).
As políticas de comunidade da Meta que tratam sobre violência e incitação proíbem convocações para a invasão de locais considerados de alto risco. Apesar disso, os diversos moderadores que analisaram o vídeo com teor golpista entenderam que ele não deveria ser removido:
- No dia seguinte à publicação, o post já tinha recebido sete denúncias de quatro usuários do Facebook;
- A primeira denúncia foi rejeitada. Após contestação do resultado, um segundo revisor de conteúdo também entendeu que o conteúdo não violava as políticas da Meta;
- Outros cinco moderadores diferentes analisaram as outras seis queixas e também concluíram que o vídeo deveria continuar no ar;
- Cinco dias após a publicação original, Brasília foi atacada.
O vídeo originalmente denunciado permaneceu no ar até o dia 20 de janeiro, quando a Meta assumiu que as decisões de não remoção haviam sido equivocadas. O mea culpa, porém, só foi feito depois de o comitê — que é financiado pela empresa, mas funciona de forma autônoma — anunciar publicamente que iria julgar o caso.
“Como a postagem era um chamado inequívoco para a entrada forçada em prédios governamentais situados na Praça dos Três Poderes em Brasília (locais "de alto risco" situados em uma "localidade temporariamente de alto risco", o Brasil), as decisões iniciais da Meta de manter esse conteúdo durante um período de violência política intensa representaram uma clara violação de suas próprias regras”, concluiu o órgão autônomo.
Nas explicações que enviou ao comitê, a Meta informou que os sete moderadores que analisaram o vídeo moram na Europa, mas são fluentes em português e têm bagagem cultural para avaliar o contexto brasileiro. No entanto, segundo a empresa, os funcionários podem não ter visto a violação no post ou não ter entendido a gravidade da mensagem devido à falta de pontuação adequada.
Em resposta, o comitê sugeriu que os moderadores podem não ter assistido ao vídeo completo, já que a empresa já havia itido no ado que essa era uma prática adotada. De acordo com o órgão, no entanto, esse procedimento precisava ser revisto “em situações de maior risco de violência”.
Apesar de a empresa ter itido seu erro em janeiro, antes do julgamento, o Aos Fatos mostrou que pelo menos cinco posts que continham o vídeo denunciado ainda estavam disponíveis no Facebook no final de março. A reportagem que fez a denúncia é citada na íntegra da decisão do Comitê de Supervisão que apontou as falhas na moderação da Meta.
FALTA DE TRANSPARÊNCIA
O órgão autônomo reconheceu que a big tech tomou medidas para avaliar e reduzir riscos durante as eleições brasileiras, mas que precisa “aumentar seus esforços”, já que suas plataformas podem ser usadas para incitar a violência.
O comitê diz que chegou a pedir informações sobre as reclamações que recebeu relacionadas ao pleito brasileiro, mas que a Meta disse não possuir esses dados. A big tech também alegou que não adota “métricas específicas para medir o sucesso de seus esforços" em garantir a integridade das eleições. O órgão recomendou, então, que a plataforma crie mecanismos para sistematizar e dar maior transparência a seus processos de análise e às suas políticas relacionadas a conteúdos e anúncios.
“É necessário reforçar a transparência para avaliar se as medidas da Meta são adequadas e suficientes em todos os contextos eleitorais. A falta de dados disponíveis para a análise do Comitê prejudicou sua capacidade de avaliar adequadamente se os erros de monitoramento nesse caso e as preocupações levantadas por diferentes partes interessadas são indicativos de um problema sistêmico nas políticas e práticas de monitoramento da empresa”, afirma a decisão.
Em nota ao Aos Fatos, a Meta afirmou que está revisando as recomendações, que promete responder em até 60 dias. Segundo a plataforma, mais de 3 milhões de conteúdos que faziam incitação à violência ou discurso de ódio foram removidos do Facebook e do Instagram entre a campanha eleitoral de 2022 e os ataques de 8 de janeiro deste ano, “incluindo chamados por subversão do Estado democrático de direito e pedidos de intervenção militar”.
Para João Victor Archegas, pesquisador sênior do ITS Rio (Instituto de Tecnologia e Sociedade), a decisão do comitê mostra que a Meta precisa ser mais transparente sobre as políticas que adota em situações de emergência e exceção, como pandemias, conflitos armados e eleições.
“O Board está trilhando um caminho interessante e exigindo que a Meta organize melhor suas políticas de exceção“, avalia o pesquisador. Archegas lembra que a própria criação pela Meta de um protocolo especial para situações de crise ocorreu após recomendações anteriores do comitê, mas que a medida não tem sido suficiente para evitar problemas.
A exigência de mais transparência nos processos adotados pelas big techs é um dos temas incluídos no PL 2.630/2020, conhecido como “PL das Fake News”, que aguarda votação na Câmara dos Deputados. O último parecer divulgado pelo deputado Orlando Silva (PC do B-SP), relator da matéria, inclui a obrigação de plataformas com mais de 10 milhões de usuários no país publicarem relatórios periódicos informando, dentre outros dados, a quantidade de denúncias recebidas e de conteúdos removidos pela moderação.
O relator do projeto está trabalhando em nova versão do texto, que espera terminar na próxima semana, conforme informou ao Aos Fatos. As novas mudanças buscam tentar destravar a tramitação do texto, que está parado desde que perdeu apoio na Câmara.