O Google liberou para usuários do Reino Unido e Inglaterra o acesso à versão preliminar do Bard, seu chatbot de inteligência artificial. O Olhar Digital conseguiu testar a ferramenta; confira abaixo o que achamos dele.
O Bard é a aposta do Google para o segmento de modelos de linguagem equipados com inteligência artificial, sendo a resposta da empresa ao ChatGPT da OpenAI (que foi integrado ao buscador Bing da Microsoft).
O Bard ainda é um projeto em desenvolvimento e é fácil notar. Ele é restrito no momento apenas ao idioma inglês – o chatbot diz entender outras línguas, mas não é possível perguntar nada em português – e a própria interface deixa bem claro que erros podem ocorrer. O Google ainda alerta que o chatbot pode ser “ofensivo” em alguns momentos, mas não encontrei nada do tipo durante o teste.
Bard: múltiplas opções de respostas rápidas
Ao abrir o site do Bard, o usuário entra direto em uma janela de conversa com o chatbot. É só digitar e esperar pela resposta. As respostas, aliás, surgem muito mais rapidamente do que quando conversamos com o ChatGPT, seja pelo site do modelo de linguagem, ou pelas buscas do Bing.
Outra diferença para o principal concorrente é que o Bard oferece três possibilidades de respostas: no canto superior direito da janela de conversa, é possível alterar a mensagem enviada pelo chatbot por duas outras, que são chamadas de “rascunhos”. No geral, são respostas similares, mas podem conter diferenças no tom e até nas informações exibidas.
Um exemplo: perguntei para o chatbot sobre o futebol brasileiro. Ele me disse que os nossos jogadores estão entre os mais talentosos do planeta, e citou quatro nomes. Na primeira resposta, eram Pelé, Garrincha, Ronaldo e Neymar. Na segunda, Neymar deu lugar a Kaká. Na terceira, era Zico quem completava a lista.
Ainda nos questionamentos sobre futebol, o Bard conseguiu oferecer duas respostas incorretas para uma mesma pergunta. Questionei quantas vezes o Brasil foi medalhista de ouro em futebol nas Olimpíadas. Inicialmente, o Bard disse que foram 7 vezes. Corrigi o chatbot alertando que foram apenas duas. E aí vieram mais informações incorretas: em uma das respostas, o Brasil ganhou ouro em 1958 e 2021. Em outra, em 2004 e 2008. Na terceira, nenhum ano foi citado – mas ok. Como o Brasil ganhou duas medalhas mesmo (em 2016 e 2020 – na edição realizada em 2021), omitir os anos ao menos evitou dar respostas erradas, como foram as outras duas.
Para tentar minimizar a propagação de informações erradas pelo Bard, o Google inclui um botão “Google it” para o usuário fazer uma pesquisa sobre o tema que está sendo conversado. Não é o ideal, mas ao menos algo está sendo pensado.
Chatbot é limitado, mas com potencial
Assim como no caso do ChatGPT e do Bing Chat, o Bard pode vir a ser uma ferramenta poderosa, mas, no momento, ele ainda tem muitas limitações e restrições. Além disso, a questão da desinformação precisa ser levada bastante a sério por desenvolvedores e empresas ligadas a essas ferramentas.
O Google é praticamente sinônimo em buscas hoje em dia e, mesmo assim, ainda existem casos de desinformação sendo propagada em suas páginas de respostas. Se o Bard puxa grande parte das informações das buscas do Google, é de se esperar que ele também acabe exibindo vez ou outra algo equivocado.
Resta saber o que a empresa fará para que, quando o Bard enfim for uma ferramenta completa, ele saiba lidar bem com essa questão, para impedir que ainda mais desinformação seja espalhada pela web – um problema grave que persiste há anos.
Imagem: gguy/Shutterstock
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários