Blake Lemoine, engenheiro de software do Google, foi afastado da gigante da tecnologia na semana passada. O funcionário havia tornado pública uma nova ferramenta de inteligência artificial (IA) que seria senciente, ou seja, poderia tem consciência e poderia perceber sentidos, como um ser humano.  

Em entrevista ao The Washington Post, Lemoine explicou que se surpreendeu com a ferramenta e parecia estar conversando com ““uma criança humana real de 7 ou 8 anos que, por acaso, conhece Física”.  

A IA ficou conhecida como LaMDA, sigla em inglês para Modelo de Linguagem para Aplicações de Diálogo, e está sendo desenvolvida em Mountain View. 

O engenheiro de software está em licença remunerada e contou que seu primeiro contato com a IA aconteceu quando ele conectou seu notebook na interface inédita do Google e digitou: “Oi LaMDA, aqui é Blake Lemoine…”.  

O intuito da conversa com a inteligência artificial era entender se ela usaria discurso de ódio ou discriminatório. Porém, Lemoine disse que se impressionou quando, em uma conversa sobre religião, a IA começou a reivindicar seus direitos e personalidade.

Ilustração mostra uma feição humana emitindo ondas de rádio pela boca, para representar uma assistente virtual
Crédito: LuckyStep/Shutterstock

Segundo o funcionário do Google, a LaMDA contestou a terceira lei da robótica de Isaac Asimov, que aponta que um robô não poderia fazer mal à humanidade.

Em um dos bate-papos divulgados, Lemoine afirmou que a nova IA do Google disse que gostaria que o mundo soubesse que ela é “de fato, uma pessoa”.

O porta-voz do Google Brian Gabriel disse, em comunicado à imprensa, que uma equipe de especialistas em ética revisaram as alegações de Lemoine de acordo com os princípios da Responsible AI, mas “as evidências não apoiam suas alegações”.