Como tudo nessa vida, o ChatGPT tem seus prós e contras, sendo verdadeira “faca de dois gumes”. A ferramenta da OpenAI tem tido diversos usos bons, mas também escorrega em situações complicadas.

A mais recente “presepada” do chatbot foi ter inventado uma mentira sobre um radialista, levando a OpenAI aos tribunais.

Esse é o primeiro caso envolvendo difamação envolvendo a OpenAI que chega à Justiça. O processo está sendo acompanhado por especialistas em direito e tecnologia, já que pode estabelecer parâmetros judiciais nos EUA acerca da responsabilidade de informações obtidas via ChatGPT.

A inverdade contada pela IA foi atribuída a uma “alucinação”, termo que indica momentos em que o chatbot se comporta de forma imprevisível e inexplicada.

Qual o contexto da nova polêmica envolvendo o ChatGPT?

Motivações para o ChatGPT mentir

As “alucinações” podem acontecer porque as IAs generativas são treinadas para prever a próxima palavra que deve ser inserida em sequência lógica para replicar como os humanos escrevem.

Contudo, não dá para dizer que elas saibam o que estão falando e nem que diferem fato de ficção. Isso diminui a credibilidade da informação passada (a Wikipédia acaba sendo mais confiável, às vezes!), e dificultam como o robô chegou ao raciocínio.

O CEO da OpenAI, Sam Altman, já admitiu que o ChatGPT realmente tem problemas com alucinações. Por sua vez, o advogado de Walters, John Monroe, disse ao Gizmodo que é “irresponsável” a mãe do chatbot liberar ao público sistemas como o ChatGPT, “sabendo que ele fabrica informações que podem causar danos”.

OpenAI pode ser condenada?

Mais de seis meses após seu lançamento ao público, o ChatGPT acumula polêmicas similares. A mais sonante foi a de Brian Hood, político australiano que ameaçou processar a OpenAI depois que a IA o acusou de envolvimento em escândalo de corrupção.

O escândalo realmente aconteceu, mas Hood foi um dos delatores do caso de suborno a diplomatas estrangeiros com dinheiro do banco central australiano, mas o chatbot afirmou que o político teria sido um dos responsáveis pela tentativa de suborno. Porém, o caso não foi adiante.

Os dois citados nesses casos, Hood e Walters, são pessoas públicas, que zelam por sua reputação. Contudo, especialistas judiciais ouvidos pelo Gizmodo são céticos sobre as chances de sucesso do radialista.

Para eles, Walters precisaria demonstrar, na prática, como sua reputação foi manchada com as falsas informações geradas pelo ChatGPT.

O professor de direito da Universidade da Califórnia, Eugene Volokh, afirmou que o radialista precisa, também, provar que a OpenAI “agiu com conhecimento de falsidade ou desconsideração imprudente de possibilidade de falsidade”.

Com informações de UOL