Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.

Informações incorretas e mentiras

Advogado chegou a questionar se o caso era verídico e o ChatGPT confirmou (Imagem: SDNY)

Papel da OpenAI

A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.

Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.

Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.

Felizmente, o erro do professor do Texas foi apontado e a situação, esclarecida (Imagem: Diego Thomazini/Shutterstock)

Mecanismos de busca

Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.

Evoluções

Com informações de The Verge