No final de maio, um advogado estadunidense utilizou o ChatGPT para consultas em um caso judicial contra a companhia aérea Avianca. No entanto, o chatbot de IA inventou fontes falsas e o profissional confessou após ser descoberto. Agora, ele foi punido pelo uso irregular.
Relembre o caso
IA para pesquisas
O professor Juliano Maranhão, do Departamento de Filosofia e Teoria Geral do Direito da Faculdade de Direito da USP, faz parte da comissão da faculdade para definir critérios para o uso da IA.
Segundo ele, é importante lembrar que os chatbots não são ferramentas de pesquisa, como o Google — eles apenas simulam conversas humanas.
Maranhão ainda destaca que a questão é a transparência das pessoas em terem usado ou não IA como fonte, uma vez que há um excesso de confiança nela, mesmo que frequentemente erre ou invente informações.
Punição pelo uso do ChatGPT
O advogado americano não foi punido pelo erro na informação, mas sim pela falta de transparência em relação ao uso da ferramenta, que foi considerada como negligência na profissão.
E no Brasil?
Segundo Maranhão, no Brasil, a punição do advogado poderia se enquadrar no crime de falsidade ideológica, em que o profissional traz informações falsas para um órgão público.
Na comissão em que participa, o professor mencionou que a preocupação é acerca da confiança entre a tecnologia e os humanos, como quando professores temem que alunos tenham usado o ChatGPT para realizar trabalhos.
Assim, uma das primeiras medidas tomadas pela USP é realizar um levantamento para entender qual o uso do chatbot na universidade e, a partir disso, definir regras.
Não é o caso de proibir. Mas, se for utilizado, destacar que foi utilizado, como foi utilizado, porque isso traz, de novo, confiança na ferramenta que pode ser usada de forma positiva e não de forma maliciosa.
Juliano Maranhão
Com informações de Jornal da USP
Fonte: Olhar Digital
Comentários