Dessa vez, foi a vez do ChatGPT, atualmente incorporado ao Bing, da Microsoft, dar cutucadas no Bard, chatbot recém-lançado pelo Google. A situação rolou nas primeiras horas desta quarta-feira (22). E pior: o embasamento trazia desinformação.
O caso aconteceu logo após o Bard se dizer preocupado justamente com o potencial do ChatGPT (e si mesmo) de espalhar desinformação, num teste realizado pelo site The Verge na terça-feira (21).
Chumbo trocado entre chatbots
Se você perguntasse ao chatbot do Bing, no começo desta quarta, se o Bard tinha sido derrubado, ele te responderia que sim. Como evidência, traria um artigo em que o autor coloca em discussão um tweet. Nele, um usuário mostra que perguntou ao chatbot do Google quando ele seria derrubado e ele respondeu que já tinha sido.
Por sua vez, essa resposta do Bard citou, também como evidência, um comentário do HackerNews, no qual alguém fazia piada sobre a possibilidade disso acontecer. E outra pessoa usou o ChatGPT para escrever uma cobertura (falsa) desse evento.
No jargão jornalístico, os chatbots deram duas barrigadas consecutivas – uma de cada lado. E, no fim, ambos espalharam desinformação por aí. Ou seja, a preocupação expressada pelo Bard na terça é mais do que justificável.
O que esse caso entre Bard e ChatGPT significa
Para começar, mostra como o lançamento apressado de chatbots baseados em IA (inteligência artificial) pode degradar o ecossistema de informações da internet (que já tem lá seus problemas).
Além disso, esse caso revela como, atualmente, chatbots são incapazes de avaliar fontes de notícias confiáveis, interpretam mal histórias sobre si mesmos e relatam mal suas próprias capacidades.
Essa troca de cutucadas pode ser engraçada, mas alerta para consequências potencialmente graves. Isso porque os modelos de linguagem de IA em questão parecem ser incapazes de separar fatos e ficção de maneira confiável.
Com informações do The Verge
Imagem de destaque: Christin Hume / Pixabay / Pexels
Fonte: Olhar Digital
Comentários