A OpenAI, empresa dona do ChatGPT, está mais uma vez sob investigação das autoridades federais dos EUA. Desta vez, sobre o que está fazendo para impedir que a plataforma forneça respostas erradas aos usuários.

Para quem tem pressa:

Desde o seu lançamento, em novembro de 2022, muitos apontaram que embora o ChatGPT possa ser extremamente útil, às vezes também pode fornecer respostas totalmente não relacionadas, falsas ou incompletas.

A OpenAI reconheceu que o ChatGPT está longe de ser infalível, explicando que às vezes pode “alucinar” e inventar fatos. Resumindo: o ChatGPT, como qualquer outra máquina ou tecnologia, pode cometer erros.

No entanto, os reguladores dos EUA ainda estão preocupados.

ChatGPT sob investigação

Logomarca do ChatGPT sobre ilustração da geração Z
(Imagem: Pedro Spadoni/Olhar Digital)

A FTC (sigla em inglês para Comissão Federal do Comércio) enviou uma carta à OpenAI esta semana, conforme reportado pela primeira vez pelo Washington Post.

Nela, o órgão regulador solicitava informações precisas sobre como a empresa aborda o risco potencial do ChatGPT “para gerar declarações sobre indivíduos reais que são falsas, enganosas, depreciativas ou prejudiciais”.

Os reguladores dos EUA também alegam que a empresa colocou em risco a reputação e os dados pessoais, infringindo as leis de proteção ao consumidor.

No começo de 2023, o CEO da OpenAI, Sam Altman, alertou os legisladores dos EUA contra os riscos inerentes ao ChatGPT, dizendo “se essa tecnologia der errado, pode dar muito errado”.

Ele pediu ao governo que trabalhe junto da sua empresa para “evitar que isso aconteça”.

Repercussão

No entanto, Altman ficou “desapontado” com a investigação mais recente sobre sua empresa. Ele comentou sobre o caso numa rede social. Veja abaixo:

É muito decepcionante ver o pedido da FTC começar com um vazamento e não ajuda a construir confiança. Dito isso, é muito importante para nós que nossa tecnologia seja segura e pró-consumidor, e estamos confiantes de que seguimos a lei. É claro que vamos trabalhar com o FTC.

Construímos o GPT-4 com base em anos de pesquisa de segurança e passamos mais de seis meses depois de terminarmos o treinamento inicial, tornando-o mais seguro e preciso antes de lançá-lo. Protegemos a privacidade do usuário e projetamos nossos sistemas para aprender sobre o mundo, não indivíduos particulares.

Somos transparentes sobre as limitações de nossa tecnologia, especialmente quando falhamos. E nossa estrutura de lucros limitados significa que não somos incentivados a obter retornos ilimitados.

Outro questionamento

Pessoa pedindo para ChatGPT criar texto acadêmico em celular com logomarca do ChatGPT ao fundo
(Imagem: Bloomberg)

Os questionamentos das autoridades dos EUA para a empresa apoiada pela Microsoft não param nas respostas ocasionalmente erradas do ChatGPT.

A FTC também está analisando como a empresa aborda a privacidade de dados e como obtém dados para treinar e informar seu chatbot de IA.

Em abril, a Itália proibiu o uso do ChatGPT por questões de privacidade e só liberou seu uso após a OpenAI fornecer mais informações sobre sua política de privacidade. Uma ferramenta para verificar a idade dos usuários também foi adicionada.

Com informações de Euronews

Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!