Funcionários do Google fizeram duras críticas ao Bard, chatbot de IA generativa da empresa. Conforme revelam mensagens internas, alguns chegaram a pedir que ele não fosse lançado.

As informações vêm da Bloomberg, que conversou com 18 trabalhadores atuais e antigos da big tech. Eles revelaram algumas capturas de tela de conversas internas da empresa.

Um dos funcionários disse: “Bard é pior do que inútil: por favor, não lance”. A mensagem foi vista por quase 7 mil pessoas.

Outros trechos revelam que o chatbot pode apresentar informações perigosas. Um empregado disse que pediu dicas para o Bard sobre como pousar um avião. Como resposta, a IA passou diversas dicas que poderiam causar um acidente. Também há o relato de um colaborados que pediu dicas de mergulho que “provavelmente resultariam em ferimentos graves ou morte”. 

Em relato à Bloomberg, funcionários responsáveis pela segurança e ética dos produtos do Google disseram que a companhia os desencorajou de atrasar o desenvolvimento de sua IA.

Os funcionários responsáveis ​​pela segurança e pelas implicações éticas de novos produtos foram instruídos a não atrapalhar nenhuma das ferramentas generativas de IA em desenvolvimento.

Fonte ouvida pela Bloomberg

Os trabalhadores também informam que o Google reduziu sua prioridade ética de IA para lançar, o quanto antes, um chatbot que vença o ChatGPT da OpenAI.

A ética da IA ​​ficou em segundo plano. Se a ética não estiver posicionada para ter precedência sobre o lucro e o crescimento, ela não funcionará.

Meredith Whittaker, ex-gerente do Google em depoimento à Bloomberg.

Em nota ao Insider, um porta-voz do Google afirmou: “A IA responsável continua sendo a principal prioridade da empresa e continuamos investindo nas equipes que trabalham para aplicar nossos princípios de IA à nossa tecnologia”