A OpenAI está assumindo a responsabilidade de combater as “alucinações” de sua IA no ChatGPT, anunciou a empresa na quarta-feira, 31 de maio, com um método mais recente para treinar modelos de inteligência artificial.
A pesquisa vem em um momento em que a desinformação proveniente de sistemas de IA é mais debatida do que nunca, em meio ao boom da IA generativa e à preparação para as eleições presidenciais dos EUA em 2024.
As alucinações da IA ocorrem quando modelos como o ChatGPT da OpenAI ou o Bard do Google fabricam informações, agindo como se estivessem transmitindo fatos.
Alguns exemplos:
Até mesmo os modelos de última geração têm a tendência de produzir falsidades — eles exibem uma tendência de inventar fatos em momentos de incerteza. Essas alucinações são particularmente problemáticas em domínios que exigem raciocínio de várias etapas, uma vez que um único erro lógico é suficiente para desviar uma solução muito maior.
Pesquisadores da OpenAI no relatório
Nova abordagem
A potencial nova estratégia da OpenAI para combater as fabricações: treinar modelos de IA para se recompensarem por cada etapa de raciocínio individual correta quando estão chegando a uma resposta, em vez de apenas recompensar uma conclusão final correta.
A abordagem é chamada de “supervisão de processo”, em oposição à “supervisão de resultado”, e pode levar a uma IA mais explicável, de acordo com os pesquisadores, uma vez que a estratégia incentiva os modelos a seguir mais uma abordagem de “pensamento” semelhante ao humano.
Detectar e mitigar os erros lógicos ou alucinações de um modelo é um passo crítico para a construção de uma IA geral alinhada. A motivação por trás desta pesquisa é abordar as alucinações para tornar os modelos mais capazes de resolver problemas complexos de raciocínio.”
Karl Cobbe, pesquisador de matemática da OpenAI, ao CNBC
A OpenAI lançou um conjunto complementar de dados com 800.000 rótulos humanos usados para treinar o modelo mencionado no artigo de pesquisa, disse Cobbe.
Avanços da OpenAI são positivos, mas há ceticismo
Ben Winters, consultor sênior do Electronic Privacy Information Center e líder de seu projeto de IA e direitos humanos, expressou ceticismo, afirmando em entrevista ao CNBC que gostaria de examinar o conjunto de dados completo e os exemplos correspondentes.
“Eu simplesmente não acho que isso, por si só, mitiga significativamente as preocupações com desinformação e resultados incorretos… quando está sendo usado na prática”, disse Winters. Ele acrescentou: “Certamente importa se eles planejam implementar o que encontraram por meio desta pesquisa [em seus produtos], e se não o fizerem, isso levanta algumas questões bastante sérias sobre o que eles estão dispostos a disponibilizar ao público.”
Como não está claro se o artigo da OpenAI foi revisado por pares ou revisado em outro formato, Suresh Venkatasubramanian, diretor do centro de responsabilidade tecnológica da Brown University, disse ao CNBC que vê a pesquisa mais como uma observação preliminar do que qualquer outra coisa.
Isso terá que ser avaliado pela comunidade de pesquisa antes de podermos afirmar algo certo sobre isso. Neste mundo, há muitos resultados que são publicados com muita regularidade, e devido à instabilidade geral de como os grandes modelos de linguagem funcionam, o que pode funcionar em um cenário, modelo e contexto pode não funcionar em outro cenário, modelo e contexto.
Suresh Venkatasubramanian, ao CNBC
Venkatasubramanian acrescentou: “Algumas das coisas alucinatórias com as quais as pessoas estão preocupadas são [modelos] inventando citações e referências. Não há evidências neste artigo de que isso funcione para isso… Não estou dizendo que não funcionará; estou dizendo que este artigo não fornece essa evidência.”
Cobbe disse que a empresa “provavelmente enviará [o artigo] para uma conferência futura para revisão por pares.” Segundo o CNBC, a OpenAI não respondeu a um pedido de comentário sobre quando, se algum dia, a empresa planeja implementar a nova estratégia no ChatGPT e em seus outros produtos.
É certamente bem-vindo ver empresas tentando ajustar o desenvolvimento de seus sistemas para tentar reduzir esse tipo de erro — acho que o mais importante é interpretar isso como pesquisa corporativa, à luz das muitas barreiras que existem para formas mais profundas de responsabilização.
Sarah Myers West, diretora administrativa do AI Now Institute, ao CNBC
West acrescentou: “[A OpenAI está] lançando um pequeno conjunto de dados de feedback humano com este artigo, mas não forneceu detalhes básicos sobre os dados usados para treinar e testar o GPT-4. Portanto, ainda há uma quantidade tremenda de opacidade que dificulta os esforços significativos de responsabilização no campo da IA, mesmo quando esses sistemas já estão afetando diretamente as pessoas.”
Com informações do CNBC.
Fonte: Olhar Digital
Comentários