Advogados envolvidos em um processo contra a companhia aérea colombiana Avianca surpreenderam ao apresentarem uma série de casos jurídicos fictícios. A origem deles? O ChatGPT. O caso foi relatado em um artigo do The New York Times.
Após a parte contrária apontar a inexistência dos casos mencionados, o juiz Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas” e determinou uma audiência para analisar possíveis sanções aos advogados responsáveis pelo erro.
O advogado Steven A. Schwartz admitiu, em um depoimento juramentado, que utilizou o chatbot da OpenAI para suas pesquisas. Buscando verificar a autenticidade dos casos, ele tomou a decisão de questionar o próprio chatbot se estava ele mentindo.
Ao solicitar uma fonte, o ChatGPT se desculpou pela confusão anterior e insistiu que o caso em questão era real, alegando que poderia ser encontrado nos bancos de dados jurídicos Westlaw e LexisNexis. Satisfeito com a resposta, Schwartz indagou se os demais casos eram falsos, e o ChatGPT manteve a posição de que todos eram reais.
A parte contrária apresentou detalhadamente à corte a questão, destacando como a petição dos advogados da Levidow, Levidow & Oberman estava repleta de mentiras.
Em um exemplo específico, foi mencionado um caso inexistente chamado Varghese v. China Southern Airlines Co., Ltd. O chatbot aparentemente se referiu a outro caso real, Zicherman v. Korean Air Lines Co., Ltd. Mas com a data está incorreta, ao afirmar que a decisão teria ocorrido 12 anos após a data original de 1996, assim como outros detalhes.
Schwartz alega que “desconhecia a possibilidade de que o conteúdo fosse falso”. Ele agora “lamenta profundamente ter utilizado inteligência artificial generativa para complementar suas pesquisas jurídicas e jamais o fará no futuro sem verificar completamente sua autenticidade”.
Vale destacar que Schwartz não possui autorização para exercer a advocacia no Distrito Sul de Nova York, mas foi o responsável por apresentar inicialmente o processo antes de ser transferido para esse tribunal. Outro advogado do mesmo escritório, Peter LoDuca, assumiu a responsabilidade pelo caso e terá que comparecer perante o juiz para explicar o que realmente aconteceu.
Mais uma vez, esse episódio evidencia o absurdo de utilizar chatbots para pesquisa sem verificar dupla ou triplamente suas fontes em outros lugares. A estreia do Bing, da Microsoft, agora está associada a mentiras e manipulação.
O chatbot de inteligência artificial da Google, chamado Bard, inventou um fato sobre o telescópio espacial James Webb em sua primeira demonstração.
Com informações de The New York Times.
Fonte: Olhar Digital
Comentários