Após os ataques terroristas em Brasília no último dia 8, a Meta comunicou que realizaria ações em suas plataformas, como o Instagram e o Facebook, excluindo publicações que apoiassem as invasões antidemocráticas. Contudo, esse objetivo pode estar apresentando algumas falhas.
Facebook ainda está aceitando anúncios que incitam a violência?
Segundo a Global Witness, dos anúncios que foram encaminhados, somente dois deles não foram aprovados pelo Facebook. A ativista de ameaças digitais do grupo, Rosie Sharpe, afirma ter provado que a plataforma não está se esforçando o suficiente para garantir suas políticas de anúncios, que restringem conteúdos considerados violentos.
“Após a violência em Brasília, o Facebook disse que estava ‘monitorando ativamente’ a situação e removendo conteúdo que violasse suas políticas”, falou Sharpe, em um comunicado à imprensa. “Este teste mostra o quão mal eles são capazes de impor o que dizem. Não há absolutamente nenhuma maneira do tipo de conteúdo violento que testamos ser aprovado para publicação por uma grande rede social como o Facebook”, acrescentou.
De acordo com a Global Witness, os anúncios apresentavam mensagens alarmantes como “Morte aos filhos dos eleitores de Lula”. Para que nenhuma das postagens de teste atingisse mais pessoas, o grupo excluiu os anúncios antes que pudessem ser publicados.
Nesse contexto, a organização aponta que esse é um problema particular do Facebook, após testar o mesmo conjunto de anúncios no YouTube. Ao contrário da plataforma da Meta, o serviço de vídeos do Google tomou uma medida adicional de suspender as contas que tentem publicar esses anúncios, além de não aprovar nenhum deles.
“A resposta muito mais forte do YouTube demonstra que é possível passar no teste que estabelecemos”, argumentou Sharpe.
“É difícil ter qualquer confiança de que o Facebook tomará as medidas necessárias para combater a disseminação de desinformação e ódio em sua plataforma. Apesar das promessas de que eles levam esse assunto a sério, nossas investigações expuseram repetidas falhas”, revelou Naomi Hirst, líder da campanha de ameaças digitais da Global Witness, à Ars Technica.
Um porta-voz da Meta minimizou os resultados do teste. Ele afirma que o tamanho da amostra utilizado seria muito pequeno para representar a capacidade do Facebook de garantir suas políticas de anúncios globalmente.
“Como dissemos no passado, antes da eleição do ano passado no Brasil, removemos centenas de milhares de conteúdos que violavam nossas políticas de violência e incitamento e rejeitamos dezenas de milhares de envios de anúncios antes de serem exibidos”, disse o porta-voz da Meta, em comunicado. “Usamos tecnologia e equipes para ajudar a manter nossas plataformas protegidas contra abusos e estamos constantemente refinando nossos processos para aplicar nossas políticas em escala”, completou.
No entanto, Hirst garante que a organização mostrou a facilidade na qual anúncios que incitam violência e desinformação são aprovados pela rede social. “A democracia está em risco se o Facebook e outras empresas de mídia social não conseguirem conter a onda de divisão e violência que floresce online”, disse ela.
Informações via Ars Technica
Fonte: Olhar Digital
Comentários