A inteligência artificial está transformando a pesquisa por informações com respostas humanizadas. Alguns testes já mostraram a capacidade das IAs de passar em provas complexas, escrever livros e matérias como jornalistas. Mas nem sempre a informação é foco dos chatbots de IA. Muitos usuários usam o chatbot para interações mais descontraídas.
Quem nunca ficou pensando por um tempo após um amigo contar uma piada? Às vezes, a piada pode ter sido tão ruim que não teve graça – ou você não tem o contexto necessário para entender. O Google deve trazer uma solução para essa situação.
Um recente artigo do buscador mostra que a equipe de pesquisa está treinando o modelo de linguagem PaLM (Scaling Language Modeling with Pathways) para entender e explicar piadas.
Conforme relata a Vice, a equipe de IA do Google mostra a capacidade do modelo de linguagem de realizar o raciocínio lógico e outras tarefas complexas de linguagem que dependem de contexto.
A técnica utilizada pelos pesquisadores tentou simular a forma de raciocínio humano a partir de uma cadeia de pensamento que melhora o desempenho do sistema ao analisar problemas lógicos.
Em uma das piadas, os pesquisadores disseram à IA:
Eu ia viajar para visitar minha família no dia 6 de abril. Minha mãe disse : ‘Ótimo, a leitura de poesia do seu padrasto é nesta noite’. Então eu viajarei em 7 de abril.
O PaLM explicou:
Essa piada é sobre a mãe do orador que está tentando que ele vá para a leitura de poesia do seu padrasto. Mas o orador não quer ir, então eles estão mudando o voo para o dia seguinte a leitura de poesia.
Um dos resultados mostra que o modelo de linguagem conseguiu entender uma piada “anti-piada”.
Piada:
Qual é a diferença entre uma zebra e um guarda-chuva? Um é um animal listrado relacionado a cavalos, outro é um dispositivo que você usa para impedir que a chuva caia sobre você.
Explicação da IA:
Esta piada é uma anti-piada. A piada é que a resposta é óbvia, e a piada é que você esperava uma resposta engraçada.
O Google explica que a capacidade do PaLM em analisar essas situações o torna um dos maiores modelos de linguagem já desenvolvido. A pesquisa afirma que ele conta com mais de 540 bilhões de parâmetros, um número significantemente maior que o sistema usado pelo seu concorrente GPT-3, da OpenAI, no ChatGPT – são 175 bilhões de parâmetros.
O elevado número de parâmetros permitiu que os pesquisadores produzissem resultados com mais qualidade sem precisar treinar a IA com pesquisas específicas em cenários individuais. O estudo mostra que o desempenho do modelo de linguagem é medido pelo número de parâmetros usados, o que possibilita o aprendizado de diversas funções complexas com pouco treinamento.
Com informações de Vice.
Imagem destaque: tunasalmon/ Shutterstock
Fonte: Olhar Digital
Comentários