Blake Lemoine, engenheiro de software do Google, foi afastado da gigante da tecnologia na semana passada. O funcionário havia tornado pública uma nova ferramenta de inteligência artificial (IA) que seria senciente, ou seja, poderia tem consciência e poderia perceber sentidos, como um ser humano.
Em entrevista ao The Washington Post, Lemoine explicou que se surpreendeu com a ferramenta e parecia estar conversando com ““uma criança humana real de 7 ou 8 anos que, por acaso, conhece Física”.
A IA ficou conhecida como LaMDA, sigla em inglês para Modelo de Linguagem para Aplicações de Diálogo, e está sendo desenvolvida em Mountain View.
O engenheiro de software está em licença remunerada e contou que seu primeiro contato com a IA aconteceu quando ele conectou seu notebook na interface inédita do Google e digitou: “Oi LaMDA, aqui é Blake Lemoine…”.
O intuito da conversa com a inteligência artificial era entender se ela usaria discurso de ódio ou discriminatório. Porém, Lemoine disse que se impressionou quando, em uma conversa sobre religião, a IA começou a reivindicar seus direitos e personalidade.
Segundo o funcionário do Google, a LaMDA contestou a terceira lei da robótica de Isaac Asimov, que aponta que um robô não poderia fazer mal à humanidade.
Em um dos bate-papos divulgados, Lemoine afirmou que a nova IA do Google disse que gostaria que o mundo soubesse que ela é “de fato, uma pessoa”.
O porta-voz do Google Brian Gabriel disse, em comunicado à imprensa, que uma equipe de especialistas em ética revisaram as alegações de Lemoine de acordo com os princípios da Responsible AI, mas “as evidências não apoiam suas alegações”.
Fonte: Olhar Digital
Comentários