Um novo estudo revelou que vídeos deepfake de remakes de filmes que na realidade nunca foram feitos levaram os participantes a falsamente recordarem-se dos filmes. Por outro lado, descrições simples em texto dos filmes falsos tiveram taxas de memória falsa semelhantes.

Para explorar os riscos e benefícios potenciais, Murphy e seus colegas convidaram 436 pessoas a responder a uma pesquisa online.

A pesquisa incluía assistir a vídeos deepfake de falsos remakes de filmes estrelados por diferentes atores, como Will Smith interpretando o personagem Neo — originalmente interpretado por Keanu Reeves — em Matrix e Brad Pitt e Angelina Jolie em O Iluminado. Outros remakes falsos no estudo foram Indiana Jones e Capitã Marvel.

deepfake
Will Smith apareceu como Neo de Matrix em deepfake apresentada a participantes do estudo. Imagem: Columbia Pictures

Para comparação, os participantes também assistiram a clipes de remakes reais, incluindo A Fantástica Fábrica de Chocolate, O Vingador do Futuro, Carrie, a Estranha e Tomb Raider. Além disso, em alguns casos, os participantes leram descrições em texto dos remakes em vez de assistir aos deepfakes. Os participantes não foram informados de que os vídeos eram falsos até mais tarde na pesquisa.

De acordo com estudos anteriores, os vídeos deepfakes e as descrições falsas levaram a memórias falsas dos remakes falsos, com uma média de 49% dos participantes acreditando que cada remake falso era real.

Muitos participantes relataram que se lembravam dos remakes falsos sendo melhores do que os originais. No entanto, as taxas de memória falsa das descrições em texto foram igualmente altas, sugerindo que a tecnologia deepfake pode não ser mais poderosa do que outras ferramentas na distorção da memória.

deepfake
No gráfico apresentado no estudo, participantes dizem ter visto o remake falso inteiro (cor mais escura), assistido a clipes ou trailers do remake falso (cor média) ou ter ouvido falar do remake falso (cor mais escura). Cada filme (O Iluminado, Capitã Marvel, Matrix e Indiana Jones) tem dois gráficos: o primeiro para o vídeo deepfake e o segundo para o texto falso sobre os supostos remakes. Imagem: PLOS ONE

A maioria dos participantes relatou desconforto com o uso da tecnologia deepfake para refazer filmes, citando preocupações como desrespeito à integridade artística e interrupção de experiências sociais compartilhadas dos filmes.

Essas descobertas podem ajudar a orientar o futuro design e regulamentação da tecnologia deepfake em filmes. Os autores acrescentam:

Embora os deepfakes sejam motivo de grande preocupação por muitas razões, como pornografia não consensual e bullying, o estudo atual sugere que eles não são exclusivamente poderosos na distorção de nossas memórias do passado. Embora os deepfakes tenham levado as pessoas a formar falsas memórias em taxas bastante altas neste estudo, conseguimos obter os mesmos efeitos usando texto simples. Em essência, este estudo mostra que não precisamos de avanços técnicos para distorcer a memória, podemos fazer isso muito facilmente e efetivamente usando meios não técnicos.

Trecho do artigo.

Com informações de Tech Xplore.