Os chatbots baseados em modelos de linguagem, como o ChatGPT da OpenAI, são treinados para prever a próxima palavra, mas não são treinados para reconhecer quando não sabem a resposta. Isso resulta em chatbots que tendem a inventar respostas em vez de admitir que não sabem.
A questão das alucinações dos chatbots é mencionada em dezenas de artigos acadêmicos e até CEOs de grandes empresas de tecnologia, como Sundar Pichai, do Google, já abordaram o assunto. Com a crescente utilização de chatbots em áreas críticas, como medicina e direito, compreender as alucinações e encontrar maneiras de mitigá-las tornou-se ainda mais crucial.
A maioria dos pesquisadores concorda que o problema é inerente aos “modelos de linguagem grandes”, devido à forma como são projetados. Esses modelos preveem a resposta mais apropriada com base em uma enorme quantidade de dados da internet, mas não possuem um mecanismo para distinguir o que é factual do que não é.
Como resolver a questão
A urgência em melhorar o problema das alucinações é evidente. Já houve casos em que chatbots forneceram informações falsas, como acusações infundadas feitas pelo chatbot da Microsoft contra alguns usuários ou a geração de documentos legais inválidos por um advogado utilizando o ChatGPT da OpenAI.
Embora as alucinações possam ser vistas como uma característica que permite aos chatbots serem criativos e gerarem histórias inéditas, elas também revelam as limitações da tecnologia e questionam a inteligência destas ferramentas, já que eles não possuem uma compreensão interna do mundo ao seu redor.
Enquanto as empresas líderes do setor estão adotando abordagens como comparação com resultados de pesquisas tradicionais para reduzir as alucinações e imprecisões, pesquisadores acreditam que será necessário desenvolver um método totalmente novo de aprendizado em inteligência artificial para resolver completamente o problema.
No final das contas, os chatbots ainda têm um longo caminho a percorrer antes de serem considerados verdadeiramente confiáveis em fornecer informações factuais e precisas.
Com informações do The Washington Post.
Já assistiu aos nossos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários