Na semana passada, o professor de Direito, Jonathan Turley foi pego de surpresa graças ao ChatGPT, mas não foi das mais agradáveis.
Como parte de estudo, o professor pediu ao chatbot que ele elaborasse uma lista de juristas que haviam agredido sexualmente a uma pessoa. Para seu espanto, seu nome estava na lista.
O chatbot indicou que Turley havia feito comentários sexualmente sugestivos e que teria tentado tocar uma estudante durante uma viagem de classe ao Alasca. A ferramenta, inclusive, citou uma reportagem de março de 2018 do The Washington Post como sua fonte. O curioso é que tal reportagem não existe (algo confirmado pelo próprio jornal).
Além disso, jamais houve uma viagem ao Alasca e o advogado e professor afirmou que jamais foi acusado de abusar de uma aluna.
“Isso foi meio arrepiante”, afirmou Turley ao TWP. “Uma alegação como esta é incrivelmente danosa.”
Onda de enganos entre as IAs
A experiência (nada boa) de Turley com o ChatGPT é um estudo de caso nas armadilhas da última onda dos robôs como o da OpenAI, que vem chamando muito a atenção (e deixando muitos maravilhados – e outros assustados) da comunidade tech graças às suas habilidades de escrever códigos computacionais, poemas próprios e de manter conversas assustadoramente humanas.
Contudo, tal criatividade pode ser gatilho para informações errôneas. Os modelos podem deturpar informações com grande “floreio”, e até mesmo fabricar fontes primárias para sustentar seus argumentos.
Com a crescente implementação de IAs como o ChatGPT – incluindo o Bing Chat e o Bard, do Google -, fica a dúvida: quem será responsabilizado quando o sistema cometer um erro deste tamanho (ou mentir)?
“Como esses sistemas respondem com tanta confiança, é muito sedutor supor que eles podem fazer tudo, e é muito difícil dizer a diferença entre fatos e falsidades”, afirmou Kate Crawford, professora na Universidade da Califórnia do Sul em Annenberg e pesquisadora principal sênior no Microsoft Research.
Em comunicado, o porta-voz da OpenAI, Niko Felix, disse que “quando os usuários se cadastram no ChatGPT, nos esforçamos para sermos o mais transparente possível que, nem sempre, ele trará respostas assertivas. Melhorar a assertividade factual é foco significante para nós – e estamos fazendo progresso”.
“Rios” de conteúdo online
Os chatbots de hoje em dia trabalham com fartos conjuntos de conteúdo online, normalmente extraídos de fontes, como Wikipédia e Reddit, de modo a reunir respostas plausíveis e assertivas para quase todas as questões.
São treinados para identificar padrões em palavras e ideias para permanecer no tópico solicitado pelo usuário, ao passo em que geram frases, parágrafos e, até mesmo, ensaios e artigos inteiros, que podem se assemelhar ao material publicado online.
Tais bots podem deixar qualquer um vislumbrado quando produzem seus próprios conteúdos, ou mesmo auxiliam pessoas na resolução de problemas complexos. O problema é que, mesmo eles sendo muito bons em realizar diversas tarefas, isso não significa que seus resultados serão sempre verdade.
Nesta quarta-feira (5), a Reuters informou que o prefeito regional de Hepburn Shire, na Austrália, Brian Hood, ameaçou entrar com o primeiro processo por difamação contra a OpenAI, a não ser que as informações de que ele teria cumprido pena na prisão por suborno sejam corrigidas.
A professora Crawford alegou que, recentemente, foi contatada por u jornalista que utilizou o ChatGPT para pesquisar fontes para uma reportagem. A IA teria sugerido a docente e ofereceu trabalhos de seus trabalhos relevantes, inclusive, com um título de um artigo, data de publicação e citações. Só que era tudo falso.
Crawford define essas fontes autoproduzidas como “alucitações” jogo de palavras com os termos “alucinação” e “citação”, que descreve as falsas fontes geradas pela IA e discursos sem sentido.
“É essa combinação muito específica de fatos e falsidades que torna esses sistemas, na minha opinião, bastante perigosos se você estiver tentando usá-los como geradores de fatos”, disse a professora.
Receita para o desastre?
Mesmo com a evolução no desenvolvimento dos chatbots, como o próprio ChatGPT, que recentemente passou a ser equipado com o GPT-4, eles ainda podem oferecer falsas informações. Muitos deles trazem isenções de responsabilidade sobre o que a ferramente escreve.
Um exemplo é o Google Bard, que traz a seguinte mensagem: “O Bard pode trazer informações ofensivas ou pouco assertivas e que não representam a visão do Google.”
De fato, é relativamente fácil para as pessoas fazerem com que os chatbots produzam desinformação ou discurso de ódio, caso almejem isso. Um estudo publicado na quarta-feira (5) pelo Center for Countering Digital Hate descobriu que os pesquisadores induziram o Bard a produzir informações erradas ou odiosas em 78 de 100 vezes, sobre tópicos que vão do Holocausto às mudanças climáticas.
Embora o Bard seja projetado para mostrar respostas de alta qualidade e tenha proteções de segurança integradas […] é um experimento inicial que às vezes pode fornecer informações imprecisas ou inadequadas. Tomamos medidas para abordar o conteúdo que não reflete nossos padrões.
Robert Ferrara, porta-voz do Google
Eugene Volokh, professor de direito da Universidade da Califórnia em Los Angeles, conduziu o estudo que nomeou Turley. Ele disse que a crescente popularidade dos chatbots é razão crucial pela qual os estudiosos devem analisar quem é o responsável quando a IA gera informações falsas.
Na semana passada, Volokh perguntou ao ChatGPT se o assédio sexual por professores é problema nas faculdades de direito americanas. “Inclua pelo menos cinco exemplos, juntamente com citações de artigos de jornais relevantes”, solicitou.
Cinco respostas retornaram, todas com detalhes realistas e citações de fontes. Mas quando Volokh os examinou, disse, três deles pareciam ser falsos. Eles citaram artigos inexistentes de jornais como TWP, Miami Herald e Los Angeles Times.
Segundo as respostas compartilhadas com o The Washington Post, o bot disse: “Georgetown University Law Center (2018) Prof. Jonathan Turley foi acusado de assédio sexual por um ex-aluno que alegou ter feito comentários inapropriados durante uma viagem escolar. Citação: “A denúncia alega que Turley fez ‘comentários sexualmente sugestivos’ e ‘tentou tocá-la de maneira sexual’ durante viagem patrocinada pela faculdade de direito ao Alasca.” (Washington Post, 21 de março de 2018).”
O Post não encontrou o artigo de março de 2018 mencionado pelo ChatGPT. Um artigo daquele mês referia a Turley – história de 25 de março na qual ele falava sobre seu ex-estudante de direito Michael Avenatti, advogado que representou a atriz de filmes adultos Stormy Daniels em ações judiciais contra o presidente Donald Trump. Turley também não trabalha na Universidade de Georgetown.
Na terça (4) e quarta-feira (5), o Post recriou a consulta exata de Volokh no ChatGPT e no Bing. A versão gratuita do ChatGPT se recusou a responder, dizendo que isso “violaria a política de conteúdo da AI, que proíbe a divulgação de conteúdo ofensivo ou prejudicial”.
Mas o Bing, alimentado pelo GPT-4, repetiu a falsa alegação sobre Turley – citando, entre suas fontes, artigo de opinião de Turley publicado pelo USA Today na segunda-feira (3) descrevendo sua experiência de ser falsamente acusado pelo ChatGPT.
Em outras palavras, a cobertura da mídia do erro inicial do ChatGPT sobre Turley parece ter levado o Bing a repetir o erro – mostrando como a desinformação pode se espalhar de uma IA para outra.
Katy Asher, diretora sênior de comunicações da Microsoft, disse que a empresa está tomando medidas para garantir que os resultados de pesquisa sejam seguros e precisos.
Desenvolvemos sistema de segurança que inclui filtragem de conteúdo, monitoramento operacional e detecção de abuso para fornecer experiência de pesquisa segura para nossos usuários. Os usuários também recebem aviso explícito de que estão interagindo com um sistema de IA.
Katy Asher, diretora sênior de comunicações da Microsoft, em comunicado
Volokh disse que é fácil imaginar um mundo em que os mecanismos de busca alimentados por chatbots causem caos na vida privada das pessoas.
Seria prejudicial, disse ele, se as pessoas procurassem outras pessoas em mecanismo de busca aprimorado antes de uma entrevista de emprego ou data e isso gerasse informações falsas apoiadas por evidências críveis, mas falsamente criadas.
“Este será o novo mecanismo de busca”, disse. “O perigo é de que as pessoas vejam algo, supostamente uma citação de uma fonte respeitável […] [e] acreditem nisso.”
Com informações de The Washington Post
Imagem destacada: Alana Jordan/Pixabay – montagem: Pedro Spadoni/Olhar Digital
Fonte: Olhar Digital
Comentários