Mensagens de criminosos tentando se passar por agências bancárias ou serviços de pagamento é algo recorrente e, para identificar essas tentativas de golpe, existem alguns cuidados que devem ser tomados na hora de clicar em links ou responder o contato. No entanto, em alguns golpes menos elaborados, às vezes é possível identificar a farsa pelos erros de gramática na mensagem. E agora, os golpistas estão usando o ChatGPT para não cometerem, literalmente, esse erro.
Na verdade, o problema é tão grande que já está virando uma questão legal. A Europol, a agência de aplicação da lei da União Europeia, emitiu um alerta sobre o potencial abuso do ChatGPT por golpistas, como noticiado pelo Olhar Digital. A preocupação é que a capacidade de escrever textos complexos e formais da IA possa trazer um tom mais “profissional”, para o golpe.
ChatGPT usado em golpes
“Como as capacidades de LLMs como o ChatGPT estão sendo ativamente aprimoradas, a exploração potencial desses tipos de sistemas de IA por criminosos oferece uma perspectiva sombria”, disse a Europol, conforme citado pela Reuters.
A preocupação é genuína já que, além de escrever textos sem erros, essas ferramentas também podem ser usadas para mensagens em outros idiomas e também poupam tempo dos criminosos, que podem criar um acervo ainda maior de golpes.
De acordo com a empresa de cibersegurança britânica Darktracel, “cada vez mais e-mails de phishing estão sendo escritos por chatbots. Isso não é bom, pois esses LLMs tendem a sintetizar uma prosa convincente em um estilo autoritário”.
A nota da Europol completa ainda dizendo que “capacidade de redigir textos altamente realistas é uma ferramenta útil para fins de phishing”. Se o ChatGPT coloca algumas profissões em risco, aparente “golpista” não é uma delas.
Mas brincadeiras à parte, mesmo com sistemas de IA, o cuidado para não cair em golpes segue o mesmo. Sempre evitar links estranhos, verificar se o número que está entrando em contato é oficial da empresa e outros alertas são importantes.
Fonte: Olhar Digital
Comentários