Uma investigação chocante da BBC revelou que evidências de possíveis abusos de direitos humanos estão sendo permanentemente apagadas após serem excluídas por ferramentas de inteligência artificial (IA) de empresas de tecnologia.
Embora as plataformas declarem que podem manter material gráfico quando este é de interesse público, a BBC afirma que teve uma experiência contraditória ao tentar publicar imagens documentando ataques a civis na Ucrânia. As filmagens foram rapidamente excluídas, apesar de seu valor em expor a realidade dos eventos.
A IA tem sido eficaz na remoção de conteúdo nocivo e ilegal em larga escala. No entanto, quando se trata de moderar imagens violentas de guerras, as máquinas não conseguem identificar nuances que envolvem violações de direitos humanos.
Grupos de direitos humanos argumentam que é urgente que as empresas de mídia social impeçam o desaparecimento dessas informações vitais. “É compreensível que desenvolvam máquinas para derrubar conteúdos difíceis ou traumáticos”, afirma Rusbridger.
O Conselho de Supervisão da Meta, criado por Mark Zuckerberg e conhecido como um “tribunal supremo” independente para a empresa, está sendo questionado sobre como desenvolver máquinas, sejam humanas ou de inteligência artificial, para tomar decisões mais razoáveis.
A Embaixadora dos EUA para Justiça Criminal Global, Beth Van Schaak, ressalta que não se nega o direito das empresas de tecnologia de monitorarem seu conteúdo, mas a preocupação surge quando essas informações desaparecem abruptamente.
Um ex-jornalista de viagens, Ihor Zakharenko, testemunhou esse problema na Ucrânia. Desde a invasão russa, ele tem documentado ataques a civis. No entanto, quando tentou publicar os vídeos nas redes sociais, eles foram prontamente retirados.
Para evitar a perda dessas provas cruciais, organizações de direitos humanos, como a Mnemonic, desenvolveram ferramentas para baixar e salvar automaticamente evidências de violações de direitos humanos nas mídias sociais. No entanto, elas não conseguem abranger todas as áreas de conflito no mundo.
Ativistas argumentam que é necessário estabelecer um sistema formal para coletar e armazenar com segurança o conteúdo excluído, incluindo metadados para verificar a autenticidade das evidências. É essencial que as plataformas de mídia social estabeleçam acordos com mecanismos de responsabilização em todo o mundo, a fim de preservar essas informações para possíveis futuras ações legais.
Com informações da BBC.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários