A Tech Coalition (“Coalizão Tech”, em tradução livre), grupo de empresas de tecnologia, anunciou, nesta terça-feira (07), o programa Lantern, cujo objetivo é combater a exploração e abuso infantil online (OCSEA, na sigla em inglês). A ideia é que o programa viabilize o compartilhamento de “sinais” entre plataformas online – por exemplo: Meta e Discord.
Para quem tem pressa:
Assim, o Lantern é uma tentativa de impedir que os predadores evitem a detecção ao mover potenciais vítimas para outras plataformas, segundo uma publicação da Coalizão Tech que foi ao ar nesta terça.
Entre as empresas que participam do Lantern até o momento estão: Discord, Google, Mega, Meta, Quora, Roblox, Snap e Twitch.
Programa das big techs contra abuso infantil
O Lantern funciona como um banco de dados central para empresas contribuírem com dados e verificarem suas próprias plataformas. Quando as empresas identificam “sinais” – por exemplo: endereços de e-mail ou nomes de usuário conhecidos por violar políticas de OCSEA; material de abuso sexual infantil ou palavras-chave relacionada a isso – elas podem sinalizá-los em seus próprios sistemas.
O anúncio observa que, embora esses “sinais” não provem estritamente o abuso, eles ajudam as empresas a investigar e possivelmente tomar medidas, como encerrar uma conta ou relatar a atividade às autoridades.
A Meta escreveu, numa publicação em seu blog, sobre sua participação no programa. Durante a fase piloto, o Lantern usou informações compartilhadas por um dos parceiros do programa, o Mega, para remover “mais de dez mil perfis, páginas e contas do Facebook e Instagram violadores” e denunciá-los ao Centro Nacional de Crianças Desaparecidas e Exploradas.
O anúncio da coalizão também cita John Redgrave, chefe de confiança e segurança do Discord, que diz: “O Discord também agiu com base em pontos de dados compartilhados conosco por meio do programa, o que auxiliou em muitas investigações internas”.
A iniciativa
Os membros da coalizão vêm desenvolvendo o Lantern nos últimos dois anos. E o grupo informou que, além de criar soluções técnicas, teve que submeter o programa a “avaliação de elegibilidade” e garantir que esteja em conformidade com requisitos legais e regulamentares e seja “eticamente compatível”.
Um dos grandes desafios de programas como esse é garantir que seja eficaz sem apresentar novos problemas. Em um incidente de 2021, por exemplo, um pai foi investigado pela polícia depois que o Google o denunciou por abuso sexual infantil devido a fotos da infecção na virilha de seu filho. Vários grupos alertaram que problemas semelhantes poderiam surgir com o recurso de digitalização automática do iCloud da Apple, agora cancelado.
A Coalizão Tech escreveu que encomendou uma avaliação de impacto em direitos humanos da Business for Social Responsibility (BSR) – coalizão maior de empresas voltadas para questões globais de segurança e sustentabilidade. A BSR oferecerá orientações contínuas aos envolvidos no Lantern ao longo do tempo.
A coalizão supervisionará o programa e diz ser responsável por estabelecer diretrizes claras e regras para o compartilhamento de dados. Como parte do programa, as empresas devem concluir treinamentos obrigatórios e verificações regulares. E o grupo revisará suas políticas e práticas regularmente.
Fonte: Olhar Digital
Comentários