Funcionários do Google fizeram duras críticas ao Bard, chatbot de IA generativa da empresa. Conforme revelam mensagens internas, alguns chegaram a pedir que ele não fosse lançado.
As informações vêm da Bloomberg, que conversou com 18 trabalhadores atuais e antigos da big tech. Eles revelaram algumas capturas de tela de conversas internas da empresa.
Um dos funcionários disse: “Bard é pior do que inútil: por favor, não lance”. A mensagem foi vista por quase 7 mil pessoas.
Outros trechos revelam que o chatbot pode apresentar informações perigosas. Um empregado disse que pediu dicas para o Bard sobre como pousar um avião. Como resposta, a IA passou diversas dicas que poderiam causar um acidente. Também há o relato de um colaborados que pediu dicas de mergulho que “provavelmente resultariam em ferimentos graves ou morte”.
Em relato à Bloomberg, funcionários responsáveis pela segurança e ética dos produtos do Google disseram que a companhia os desencorajou de atrasar o desenvolvimento de sua IA.
Os funcionários responsáveis pela segurança e pelas implicações éticas de novos produtos foram instruídos a não atrapalhar nenhuma das ferramentas generativas de IA em desenvolvimento.
Fonte ouvida pela Bloomberg
Os trabalhadores também informam que o Google reduziu sua prioridade ética de IA para lançar, o quanto antes, um chatbot que vença o ChatGPT da OpenAI.
A ética da IA ficou em segundo plano. Se a ética não estiver posicionada para ter precedência sobre o lucro e o crescimento, ela não funcionará.
Meredith Whittaker, ex-gerente do Google em depoimento à Bloomberg.
Em nota ao Insider, um porta-voz do Google afirmou: “A IA responsável continua sendo a principal prioridade da empresa e continuamos investindo nas equipes que trabalham para aplicar nossos princípios de IA à nossa tecnologia”
Fonte: Olhar Digital
Comentários