Uma grande preocupação com o surgimento de modelos de linguagem de IA é que a internet em breve será imersa por onda de spam automatizado.
Até agora, essas previsões ainda não aconteceram (se é que se provaram verdadeiras), mas estamos vendo os primeiros sinais de que ferramentas, como ChatGPT, estão sendo usadas para alimentar bots, gerar avaliações falsas e encher a web com textos de baixa qualidade.
Uma prova é tentar pesquisar no Google ou no Twitter a frase “como um modelo de linguagem de IA” (ou “as an AI language model”, em inglês). Ao falar com o ChatGPT, o sistema costuma usar essa expressão como uma isenção de responsabilidade, geralmente quando é solicitado a gerar conteúdo proibido ou opinar sobre algo subjetivo e particularmente humano.
Agora, porém, “como um modelo de linguagem de IA” tornou-se um lema para o spam de aprendizado de máquina, revelando onde as pessoas configuraram bots automatizados ou copiaram e colaram conteúdo de IA sem prestar atenção à saída.
Pesquise a frase no Twitter, por exemplo, e você encontrará inúmeros exemplos de spambots com defeito (mas preste atenção aos resultados mais recentes, que tendem a ser piadas, com a consciência crescente da frase transformando-a em espécie de meme).
Os tuítes são fascinantes, pois geralmente apontam para o propósito e as táticas de um bot. Em alguns exemplos, podemos ver como os bots foram solicitados a gerar opiniões sobre figuras de destaque, como Kim Kardashian, e fofocas sobre “influenciadores ou publicações de tendências de criptomoedas”.
Algumas das mensagens com defeito até parecem repreensões silenciosas do operador do bot, que parece estar pedindo ao sistema para produzir conteúdo inflamatório. “Minha programação me proíbe de gerar tuítes prejudiciais e odiosos para indivíduos ou grupos de pessoas” é a resposta do sistema de IA.
Conforme observado pelo engenheiro de segurança Daniel Feldman, a frase pode ser pesquisada em praticamente qualquer site com avaliações de usuários ou uma seção de comentários, revelando a presença de bots.
Feldman dá o exemplo da Amazon, onde a frase aparece em análises falsas de usuários, como em revisão de um Aspirador de pó sem fio. O sistema usado para gerar a crítica falsa é consciencioso e aberto em sua decepção, afirmando: “Como um modelo de linguagem AI, eu não usei pessoalmente este produto, mas com base em seus recursos e avaliações de clientes, posso dar classificação de cinco estrelas”.
Em outros lugares da Amazon, a frase surge em análises reais sobre produtos de má qualidade gerados por IA. Respondendo a um livro sobre a Internet das Coisas, um crítico observa que o título foi escrito por IA, pois um parágrafo começa com a frase “como um modelo de linguagem de IA, não consigo”.
Vender esse tipo de produto de IA de baixa qualidade é agir de má-fé, mas não necessariamente ilegal, e existe toda uma cultura de “vigaristas” do GPT-4 que encorajam tais esquemas como forma de gerar renda passiva.
Variações dessa frase também aparecem em todos os outros contextos. Conforme observado por um comentarista do Hacker News, ele aparece em todo o site de uma loja de eletrônicos finlandesa.
A loja aparentemente tentou usar IA para traduzir produtos em inglês para finlandês, mas, em vez disso, ficou com itens chamados “desculpe, como um modelo de linguagem IA, não posso traduzir esta frase sem nenhum contexto”.
No site de uma agência de marketing de influenciadores, a frase aparece no título de uma postagem de blog: “Desculpe, como um modelo de linguagem de IA, não posso prever eventos ou tendências futuras”. Está em diretório de shoppings no Catar, bem como em perfil de usuário na plataforma freelancer Upwork.
Outras frases também indicam uso desatento de IA, como “resposta regenerada”, que aparece como opção na interface do usuário do ChatGPT.
Pesquise essas duas palavras no LinkedIn, por exemplo, e você encontrará inúmeras postagens que foram evidentemente copiadas e coladas do gerador de linguagem da OpenAI.
Claro, esses exemplos devem ser colocados em contexto. Embora mostrem que a IA está sendo usada para gerar spam e outros textos de baixa qualidade, não está claro o quão difundida é essa prática ou como ela mudará os ecossistemas online.
Certamente, os primeiros sinais não são bons (vários sites que solicitam conteúdo gerado pelo usuário de uma forma ou de outra proibiram envios de IA, por exemplo), mas isso não garante necessariamente que essa prática não “implodirá” a internet.
Por exemplo, embora a busca pela frase no Yelp revele muitos acessos no Google, em investigações próprias do The Verge, parece que os comentários em questão já foram removidos do site.
Por outro lado, o problema real nesta equação são as incógnitas desconhecidas. A frase “como um modelo de linguagem de IA” possibilita detectar spam de IA, mas é precisamente o texto que não pode ser facilmente detectado que é o desafio.
Softwares para detectar textos gerados por IA não existem e podem até ser matematicamente impossíveis. E a paranoia sobre a falsificação do aprendizado de máquina é tão desenfreada que pessoas reais agora são acusadas de serem IA.
Todos os exemplos citados aqui foram obtidos pelo The Verge – e são preocupantes (e hilários!).
Com informações de The Verge
Fonte: Olhar Digital
Comentários