A inteligência artificial está transformando a pesquisa por informações com respostas humanizadas. Alguns testes já mostraram a capacidade das IAs de passar em provas complexas, escrever livros e matérias como jornalistas. Mas nem sempre a informação é foco dos chatbots de IA. Muitos usuários usam o chatbot para interações mais descontraídas.

Quem nunca ficou pensando por um tempo após um amigo contar uma piada? Às vezes, a piada pode ter sido tão ruim que não teve graça – ou você não tem o contexto necessário para entender. O Google deve trazer uma solução para essa situação.

Um recente artigo do buscador mostra que a equipe de pesquisa está treinando o modelo de linguagem PaLM (Scaling Language Modeling with Pathways) para entender e explicar piadas.

Conforme relata a Vice, a equipe de IA do Google mostra a capacidade do modelo de linguagem de realizar o raciocínio lógico e outras tarefas complexas de linguagem que dependem de contexto.

A técnica utilizada pelos pesquisadores tentou simular a forma de raciocínio humano a partir de uma cadeia de pensamento que melhora o desempenho do sistema ao analisar problemas lógicos.

Em uma das piadas, os pesquisadores disseram à IA:

Eu ia viajar para visitar minha família no dia 6 de abril. Minha mãe disse : ‘Ótimo, a leitura de poesia do seu padrasto é nesta noite’. Então eu viajarei em 7 de abril.

O PaLM explicou:

Essa piada é sobre a mãe do orador que está tentando que ele vá para a leitura de poesia do seu padrasto. Mas o orador não quer ir, então eles estão mudando o voo para o dia seguinte a leitura de poesia.

Um dos resultados mostra que o modelo de linguagem conseguiu entender uma piada “anti-piada”.

Piada:

Qual é a diferença entre uma zebra e um guarda-chuva? Um é um animal listrado relacionado a cavalos, outro é um dispositivo que você usa para impedir que a chuva caia sobre você.

Explicação da IA:

Esta piada é uma anti-piada. A piada é que a resposta é óbvia, e a piada é que você esperava uma resposta engraçada.

O Google explica que a capacidade do PaLM em analisar essas situações o torna um dos maiores modelos de linguagem já desenvolvido. A pesquisa afirma que ele conta com mais de 540 bilhões de parâmetros, um número significantemente maior que o sistema usado pelo seu concorrente GPT-3, da OpenAI, no ChatGPT – são 175 bilhões de parâmetros.

O elevado número de parâmetros permitiu que os pesquisadores produzissem resultados com mais qualidade sem precisar treinar a IA com pesquisas específicas em cenários individuais. O estudo mostra que o desempenho do modelo de linguagem é medido pelo número de parâmetros usados, o que possibilita o aprendizado de diversas funções complexas com pouco treinamento.

Com informações de Vice.

Imagem destaque: tunasalmon/ Shutterstock