Ainda que o ChatGPT opere a partir de inteligência artificial, é necessário que pessoas moderem o conteúdo apresentado pela ferramenta. Para isso, funcionários da empresa terceirizada, Sama, foram contratados pela OpenAI para a moderação de conteúdos considerados inadequados para o chatbot.

Uma reportagem da Times mostra que os funcionários de moderação de conteúdo precisavam ler textos com temas ilegais como estupro, automutilação, abuso sexual infantil, assassinato, suicídio, tortura e muito mais. Além disso, os funcionários quenianos recebiam um salário entre US$ 1,32 e US$ 2 por hora trabalhada.

OpenAI criadora do ChatGPT recebe avaliação de US$29 bilhões
(Imagem: Ascannio / Shutterstock.com)

Para moderar o conteúdo do chatbot, a OpenAI adotou um sistema similar ao da Meta, em que a IA recebe diversos conteúdos inapropriados para que a ferramenta aprenda a detectá-los e assim evitar que eles chegassem até o usuário.

Esse foi a missão destinada aos trabalhadores da Sama a partir de novembro de 2021. A empresa, sediada em San Francisco, conta com funcionários no Quênia, Uganda e Índia responsáveis por rotular conteúdos para grandes empresas da tecnologia como Google, Meta e Microsoft.

De acordo com a reportagem de denúncia, que teve acesso a documentos internos da Sama e OpenAI e entrevistou quatro funcionários, os textos lidos pelos trabalhadores eram bastante perturbadores.

Um dos funcionários responsável pela rotulação dos conteúdos disse que teve visões recorrentes após ler a descrição gráfica de uma cena de zoofilia envolvendo uma criança.

“Você vai ler uma série de declarações como essa durante toda a semana. Quando chega a sexta-feira, você fica perturbado por pensar naquelas imagens”, disse.

Outro funcionário entrevistado pela Times chegou a mencionar uma história que teve que ler sobre o ajudante de Batman, Robin, sendo estuprado. O trabalhador ficou confuso sobre como deveria rotular aquele conteúdo, pois em determinado momento da história, o personagem “retribui” o que está sendo feito com ele, então ele precisou entrar em contato com a OpenAI para questionar como aquela história em específico deveria ser classificada. A empresa não respondeu ao questionamento.

A OpenAI confirmou à reportagem que os funcionários terceirizados da Sama ajudaram na detecção de conteúdos tóxicos e treinamento do ChatGPT. 

“Nossa missão é garantir que a inteligência artificial geral beneficie toda a humanidade e trabalhamos duro para construir sistemas de IA seguros e úteis que limitem o viés e o conteúdo prejudicial”, disse o porta-voz. “Classificar e filtrar [textos e imagens] nocivos é uma etapa necessária para minimizar a quantidade de conteúdo violento e sexual incluído nos dados de treinamento e criar ferramentas que possam detectar conteúdo nocivo”.

O custo dessa tarefa desgastante

Os documentos analisados mostram que no final de 2021, a OpenAI assinou contratos de pagamento para a Sama no valor total de US$ 200 mil, para a rotulação dos conteúdos.

De acordo com funcionários, durante um turno de nove horas, eles deveriam ler entre 150 a 250 passagens de texto, que poderiam variar entre 100 a 1.000 palavras. Os funcionários ainda disseram que ficaram psicologicamente desgastados pelo trabalho. Apesar da Sama afirmar que os funcionários tinham opões de sessões individuais e em grupo com “terapeutas de saúde mental”, os trabalhadores terceirizados entrevistados afirmam que essas sessões eram raras e inúteis devido à alta demanda de produtividade da empresa.

Os contratos mostram que os trabalhadores deveriam receber US$ 12,50 por hora de trabalho, entre seis e nove vezes o valor que de fato era pago aos funcionários quenianos.

Aqueles que cumpriam um torno de nove horas recebiam US$ 1,32 e poderiam receber US$ 1,44 por hora caso batessem suas metas. Funcionários analistas de qualidade mais experientes recebiam até US$ 2 caso as metas também fossem cumpridas.

Um porta-voz não identificado da Sama disse que a demanda dos funcionários era rotular 70 passagens de texto em um turno de nove horas e que a empresa não estabeleceu metas de produtividade.  Também disse que a remuneração por hora trabalhada variava entre US$ 1,46 e US$ 3,74 por hora.

 “A taxa de US$ 12,50 para o projeto cobre todos os custos, como despesas de infraestrutura, salário e benefícios para os associados e seus analistas de garantia de qualidade totalmente dedicados e líderes de equipe”, disse o porta-voz.

Como acabou a parceria entre Sama e OpenAI

De acordo com um documento de cobrança analisado pela reportagem, a OpenAI entregou um lote de 1.400 imagens de rótulos com conteúdos graves por um pagamento de US$ 787,50. Nesse lote estavam rótulos “C4”, uma classificação interna para conteúdos de abuso sexual infantil; “C3” para imagens de bestialidade, estupro e escravidão sexual; e “V3” com imagens de morte, violência e lesões físicas graves.

Esse lote fez a Sama encerrar a parceria com a OpenAI, afirmando em comunicado que o acordo para rotular imagens não incluía conteúdos ilegais.

“A equipe da África Oriental levantou preocupações para nossos executivos imediatamente. A Sama encerrou no ato o piloto de classificação de imagens e avisou que cancelaríamos todos os [projetos] restantes com a OpenAI” disse um porta-voz da Sama.

Por um lado, os funcionários não seriam mais expostos a conteúdos perturbadores, por outro muitos perderam boa parte de suas rendas sendo movidos para setores com salários ainda mais baixos, enquanto outros funcionários perderam seus empregos.

Recentemente, no dia 10 de janeiro, a Sama anunciou que cancelaria todos os trabalhos envolvendo conteúdos sensíveis e não renovaria a parceria de US$ 3,9 milhões com o Facebook para moderação de conteúdo.