Imagine que, em seu trabalho, Trevin Brownie viu mais de mil pessoas serem decapitadas. Nesse emprego, ele precisava assistir um novo vídeo do Facebook a cada 55 segundos, mais ou menos, ele conta.

Após, ele o removia e o categorizava como conteúdo nocivo e explícito. Ele recorda que, no primeiro dia de trabalho, a repulsa o fez vomitar, pois viu um vídeo no qual um homem se suicidou na frente de seu filho de três anos.

Depois, segundo ele, as coisas só pioram. Com a voz embargada, ele conta:

Você vê pornografia infantil, zoofilia, necrofilia, violência contra pessoas, violência contra animais, estupros. Como usuário, você não vê coisas como essas no Facebook. É meu trabalho, como moderador, garantir que você não veja coisas como essas.

Trevin Brownie, ex-funcionário do Facebook

Ele pontua que, após algum tempo vendo vídeos assim, eles os afeta de forma medonha. “Você chega a um ponto, depois de ter visto 100 decapitações, em que começa a torcer para que a próxima seja mais horrível. É um tipo de vício.”

Brownie está na faixa dos 20 anos, assim como a maioria das centenas de jovens recrutados pela Sama, empresa de terceirização de mão-de-obra sediada em San Francisco, para trabalhar no centro de operações mantido em Nairóbi, centro de moderação do Facebook.

Sul-africano, Brownie é um dos 184 queixosos que processaram Sama e Meta por supostas violações de direitos humanos e rescisão indevida de contratos. O processo movido é um dos maiores do mundo desse tipo. Porém, é o terceiro contra a Meta no Quênia, apenas.

Os advogados envolvidos no caso afirmam que, juntos, eles têm implicações potencialmente mundiais para as condições de emprego de dezenas de milhares de moderadores, “empregados para filtrar o material mais tóxico das redes de mídia social do planeta”.

Não é o primeiro

Em 2020, a rede social aceitou acordo, no qual pagou US$ 52 milhões para encerrar processo e prover tratamentos de saúde mental para moderadores de conteúdo estadunidenses. Moderadores irlandeses, por sua vez, buscam indenização por transtorno de estresse pós-traumático.

Os casos apresentados no Quênia são os primeiros apresentados fora dos EUA que visam mudar a maneira como moderadores de conteúdo do Facebook são tratados.

Se forem bem-sucedidos, podem levar a várias outras ações onde a Meta e demais redes sociais analisam conteúdos publicados via empresas terceirizadas, podendo melhorar as condições de milhares de trabalhadores que possuem salários que não se equiparam ao tipo de serviço desgastante e degradante que possuem.

Os advogados que cuidam das ações comparam a era industrial ao que seus clientes sofrem – da mesma forma que inalar pó de carvão destruíam os corpos dos trabalhadores naquela época, as mentes dos trabalhadores que atuam na “moderna fábrica digital” podem ser arruinadas.

A Meta foi procurada para comentar sobre as ações, mas afirmou que não comenta casos em curso. Neema Mutemi, professora da Universidade de Nairóbi que está auxiliando na divulgação do caso de Brownie, afirma que “essas são questões de primeira linha para os direitos trabalhistas nesta geração”.

Imagem: Primakov/Shutterstock

Guerra online

Nos últimos anos, a Meta sofre pressão cada vez maior para moderar conteúdos ofensivos e pejorativos, bem como a desinformação em seus serviços.

Em Mianmar, a empresa enfrentou acusações de que seus algoritmos reforçariam a retórica do ódio, e de que não conseguiam remover as postagens incitadoras de violência contra a minoria rohingya, povo que perdeu milhares de pessoas e sofreu êxodo de centenas de milhares de refugiados para Bangladesh.

Já na Índia, especialistas indicam que a empresa não conseguiu impedir a desinformação e o incitamento à violência, levando a tumultos em seu maior mercado nacional.

Em 2021, Frances Haugen vazou milhares de documentos internos, que mostram a abordagem para proteger seus usuários. Ela disse ao Senado dos EUA que o Facebook priorizava “o lucro em detrimento da segurança”.

Tais documentos indicaram que a Meta falhou em filtrar conteúdo polêmico e na proteção dos usuários nos países não ocidentais, a exemplo: Etiópia, Afeganistão e Líbia, mesmo que pesquisas internas da rede social classifiquem tais regiões como de alto risco, dado o cenário político frágil e uso frequente da retórica de ódio.

Investimentos

Ultimamente, a Meta vem investindo bilhões de dólares visando combater danos em suas plataformas, recrutando em torno de 40 mil pessoas para trabalhar nas áreas de segurança e proteção. Muitas delas são contratadas por terceirizadas, como Accenture, Cognizant e Covalen.

Desses, cerca de 15 mil são moderadores de conteúdo. Além dos EUA, a Meta tem terceirizadas em mais de 20 lugares no mundo todo, como Índia, Filipinas, Irlanda e Polônia, ajudando a filtrar conteúdo em vários outros idiomas.

A Sama começou a moderar o conteúdo da Meta em 2019. Antes, ela já rotulava dados para treinamento de software de IA para a empresa de Mark Zuckerberg e outras, como a Tesla. A assunção do novo compromisso faria parte de nova central africana, concentrada na filtragem de conteúdo em idiomas africanos.

A empresa nunca tinha feito isso antes, mas sua equipe local apoiou a ideia e trouxe pessoas de Burundi, Etiópia, Quênia, Somália, África do Sul, Uganda, entre outros.

Não deu certo: após quatro anos, a Sama saiu do setor e encerrou seu contrato com a Meta em janeiro deste ano, além de demitir alguns dos supervisores executivos. Brownie, recrutado em 2019 na África do Sul, está entre os dispensados.

A presidente-executiva da Sama, Wendy Gonzalez, disse ao Financial Times que “é um trabalho importante, mas acho que está se tornando muito, muito desafiador. Optamos por sair completamente deste negócio”. O setor era apenas 2% do faturamento da empresa.

“As coisas que você vê são indeléveis. Muitos não conseguem dormir agora”, afirma Kauna Ibrahim Malgwi, nigeriana formada em psicologia que também começou na central em 2019 moderando conteúdo em hauçá, idioma falado na África Ocidental. A moça passou a tomar antidepressivos.

Segundo Cocri Crider, diretora do Foxglove, escritório de advocacia sem fins lucrativos que apoia antigos moderadores da Sama, alega não haver proteção adequada por parte da Meta. “Policiais que investigam casos de imagens de abuso infantil contam com armada de psiquiatras e limites rígidos de materiais que podem ver.”

Já os conselheiros contratados pela Sama “não são qualificados para diagnosticar ou tratar o transtorno de estresse pós-traumático. Esses ‘coaches’ se limitam a recomendar que as pessoas façam exercícios de respiração e que pintem com os dedos. Não são profissionais”.

Por sua vez, a Sama afirmou que tais profissionais possuem qualificações conferidas pelo Quênia. No caso do processo contra as demissões, a Meta entende que os tribunais quenianos não têm jurisdição para julgá-las.

Porém, em 20 de abril, um juiz determinou que isso pode acontecer. A empresa estadunidense está recorrendo da decisão da autoridade queniana.

Se a Shell viesse e despejasse coisas na costa do Quênia, seria muito óbvio se o Quênia tem ou não jurisdição. Não se trata de algo físico, tangível. Trata-se de tecnologia. Mas o argumento é o mesmo. Eles vieram aqui para causar danos.

Mercy Mutemi, advogada queniana do Mzili and Sumbi Advocates, representante dos moderadores

Imagem: Nicoleta Ionescu/Shutterstock

Não é o primeiro – parte dois

Engana-se quem pensa que este é o único processo judicial movido em prol dos moderadores de conteúdo pelo escritório de Mutemi, com apoio do Foxglove. O primeiro é do ano passado, em nome de Daniel Motaung, sul-africano que processou Sama e Meta.

Motaung diz ter sido demitido injustamente após ter tentado formar sindicato para pressionar por melhores salários e condições de trabalho. Afirma também ter sido atraído para a vaga com pretextos, sem saber nas verdadeiras implicações do cargo.

A Sama afirma que os moderadores sabem bem o que fariam, durante os processos de contratação e treinamento, e que o reclamante foi demitido por violar os códigos de conduta da empresa. “No que diz respeito à formação do sindicato, temos normas em vigor quanto à liberdade de associação. Se um sindicato estava sendo formado, isso não seria problema”, diz Gonzalez.

Os moderadores de fora do Quênia recebem cerca de US$ 564 (taxa de câmbio de 2020), além de subsídio para expatriados. Eram turnos de nove horas, com uma hora de intervalo duas semanas durante o dia e duas semanas à noite.

Enquanto a Sama alega que o salário pago (US$ 2,20 por hora) é “significativo” – várias vezes mais altos que o salário mínimo e equivalentes aos de paramédicos e professores de nível superior no Quênia -, com dados indicando ser quatro vezes acima do mínimo, há quem contrarie. “US$ 2,20 por hora para se submeter a repetidas imagens de assassinato, tortura e abuso infantil? É uma ninharia”, defende Crider.

Este mês, moderadores de Nairóbi votara para formar o que os advogados indicam ser o primeiro sindicato de moderadores de conteúdo do mundo, com Montaung afirmando ser “momento histórico”.

A terceira ação contra o Facebook no Quênia trata-se das possíveis consequências trazidas pelo material postado na rede. A ação afirma que a falha da plataforma em lidar com a retórica de ódio e incitação à violência só piorou a intolerância étnica na guerra civil da Etiópia, que durou dois anos e acabou em novembro passado.

Para Crider, os três casos se conectam, pois o tratamento inadequado aos moderadores resulta diretamente na disseminação de conteúdo inseguro, veiculado sem controle.

Sobre a guerra civil, um dos dois autores da ação, Abrham Meareg, diz que seu pai, professor de química, foi assassinado após um post do Facebook revelar seu endereço e afirmar que ele deveria ser morto. Meareg conta que pediu várias vezes a remoção do conteúdo, sem sucesso.

À época, a Sama tinha 25 pessoas para moderar o conteúdo etiópio e em três idiomas: amárico, tigrínio e oromo. O conflito pode ter causado até 600 mil mortes.

Advogados quenianos querem um fundo indenizatório de US$ 1,6 bilhão, além de melhores condições de trabalho para os futuros moderadores e mudanças no algoritmo do Facebook para evitar mais tragédias no futuro.

Os advogados afirmam que a concorrência com outras plataformas faz o Facebook maximizar, deliberadamente, o envolvimento do usuário visando o lucro, podendo ajudar a viralizar conteúdos inseguros e perigosos.

Gonzalez admite a deficiência da regulamentação da moderação de conteúdo, afirmando que a questão deveria ser “prioritária” para líderes de empresas de mídia social.

As plataformas, e não só esta [Facebook] em particular, como outras também, estão meio que à solta. É preciso haver controles, contrapesos e proteções.

Wendy Gonzalez, presidente-executiva da Sama

inteligência artificial na medicina
Imagem: biancoblue/ Freepik

Adeus, humanos, olá IA

A Meta segue com dezenas de milhares de moderadores humanos sob contrato, mas já conta com IA capaz de fazer o mesmo. No último trimestre, ela afirmou que 98% do conteúdo violento e explícito da plataforma foi detectado via IA.

Mas críticos apontam que a tecnologia ainda é deficitária para captar nuances necessárias para moderar imagens e a fala humana, sendo prova disso a gigantesca quantidade de conteúdos nocivos online em lugares, como a Etiópia.

Além da realidade comum

Os moderadores de conteúdo são obrigados a trabalhar de forma anônima, assinando acordos de confidencialidade que os proíbem de detalhar sua vida laboral até mesmo para sua família.

Ou seja, enquanto funcionários de trabalhos comuns chegam em casa e compartilham como foi sua jornada de trabalho, os moderadores não podem exprimir sequer o que sentem, devem guardar tudo para si.

Segundo Gonzalez, isso acontece para proteger a confidencialidade de seus clientes. Já Frank Mugisha, ex-funcionário da Sama em Uganda, afirma que o motivo é outro. “Nunca tive a chance de compartilhar minha história com ninguém, porque minha situação sempre foi mantida em segredo, um segredo sujo.”

Os ex-funcionários da Sama no Quênia estrangeiros correm o risco de serem expulsos do país. Porém, um tribunal concedeu liminar provisória, que impede que Meta e Sama rescindam seus contratos até o julgamento da validade das demissões.

O problema é que, mesmo com a liminar, muitos desses ex-funcionários não recebem salários desde abril, quando houve a rescisão efetiva entre Sama e Meta, o que pode provocar o despejo de vários deles por falta de pagamento de aluguel.

Além de afirmarem não saber do que se tratava exatamente a função a ser desempenhada na Sama, os vários moderadores africanos também dizem que seus responsáveis faziam forte pressão para que cumprissem metas de ver vídeos a cada 50 ou 55 segundos.

A Meta alega não realizar tal cota e que eles “não são pressionados a tomar decisões precipitadas”, apesar de afirmar que “eficiência e eficácia” são fatores importantes no trabalho.

Outra moderadora, a etíope Fasica Gebrekidan, conseguiu emprego na Sama logo após escapar da guerra civil em seu país, ainda em 2021. Quando soube que trabalharia indiretamente para a Meta, ela pensou ser a garota mais sortuda do mundo, mas que “não esperava que todos os dias tivesse que ver corpos desmembrados por ataques de ‘drones’”.

Até agora, ela não pôde falar da natureza de seu trabalho sequer para sua mãe. “Sei que o que faço não é um trabalho normal”, diz a formada em jornalismo. “Mas me considero heroína por filtrar todo aquele material tóxico e negativo.”

Com informações de Folha