A OpenAI, dona do ChatGPT, afirmou que a ferramenta que alimenta o chatbot, o GPT-4, pode fazer mais um trabalho humano.

No caso, a companhia alega que ele pode realizar moderação de conteúdo com muita precisão, consistência e sem o lado emocional que as pessoas acabam trazendo à tona quando são forçadas a ver conteúdos violentos e abusivos por horas a fio.

IA como moderadora?

O sistema foi modelado para trabalhar em uma série de passos no processo de identificação e remoção de conteúdos problemáticos; desde o desenvolvimento de políticas de moderação até sua implementação.

A chefe de sistemas seguros da OpenAI, Lilian Weng, afirmou à Axios que “você não precisa contratar dezenas de milhares de moderadores”. Para Weng, as pessoas podem atuar como conselheiros que podem garantir que o sistema baseado em IA está trabalhando de forma devida e julgar casos delicados.

Moderação humana no centro da polêmica

A moderação de conteúdo já era um grande desafio mesmo antes da chegada da IA generativa.

Inclusive, muitas pessoas são afetadas mentalmente pelos conteúdos que são obrigados a moderar. Em maio deste ano, moderadores do Facebook do Quênia pediram aumento e processaram a Meta por péssimas condições de trabalho e demissões.

A nova tecnologia ameaça exacerbar os desafios ao torar ainda mais fácil gerar desinformação e outros conteúdos indesejados.

Contudo, a IA já foi vista por alguns especialistas de tecnologia como a única resposta provável para o aumento esperado de desinformação por conta de sua habilidade de escalabilidade.

Empresas de mídia social já estão muito dependentes de tecnologias antigas de IA, como as de aprendizado de máquina (machine learning), para analisar conteúdos fora de suas diretrizes.