Como já foi reportado diversas vezes, o ChatGPT pode errar. Na verdade, o chatbot da OpenAI erra com frequência, mas a empresa pouco está fazendo para deixar claro as limitações de seu software de Inteligência Artificial (IA). O único aviso dado pela companhia é que o programa “ocasionalmente pode gerar informações incorretas”.
Informações incorretas e mentiras
Papel da OpenAI
A OpenAI parece não ter assimilado a grandiosidade de seu chatbot e o uso que tem sido feito dele por parte dos usuários. Muitos recorrem à tecnologia por motivos de saúde, pesquisas acadêmicas ou, como foi o caso do advogado, materiais jurídicos.
Em maio, outro caso, de um professor do Texas que usou o ChatGPT para conferir se os alunos usaram a tecnologia para escrever redações, quase reprovou todos os estudantes. Isso porque o chatbot afirmou que ele tinha sido usado indevidamente, mas ele sequer tem capacidade para fazer esse tipo de verificação e apenas inventou uma resposta, que quase rendeu a reprovação de uma turma inteira.
Ainda assim, a companhia não tem esclarecido que o software mente e inventa informações ativamente, e não pode ser considerado 100% eficaz nem nas consultas.
Mecanismos de busca
Isso porque o ChatGPT não é um mecanismo de busca. Usuários usam-no como o Google justamente porque a OpenAI tem falhado em explicar que, na verdade, o chatbot é como um assistente virtual. Ele dirá qualquer informação de forma confiante, mesmo uma fabricada.
Evoluções
Com informações de The Verge
Fonte: Olhar Digital
Comentários