Em um esforço para alertar sobre como o uso de chatbots pode permitir má conduta acadêmica, um grupo de professores da Universidade Plymouth Marjon (PMU), na Inglaterra, submeteu à revisão por pares um trabalho de pesquisa escrito inteiramente pelo ChatGPT.
A intenção era testar se um artigo secretamente redigido pelo recurso da OpenAI poderia passar despercebido pelo processo. E, sim, poderia. Tanto é que passou – e foi publicado na revista científica Social Science Research Network, com o sugestivo título “Chat e trapaça. Garantir a integridade acadêmica na era do ChatGPT”.
Como relata o The Guardian, os pesquisadores conseguiram publicar com sucesso o artigo, sob seus próprios nomes, sem revelar que ele foi totalmente escrito por uma máquina – burlando softwares de detecção de plágio e enganando quatro revisores humanos no processo.
“Queríamos mostrar que o ChatGPT está escrevendo em um nível muito alto”, disse Debby Cotton, diretora de prática acadêmica da PMU e “falsa autora” principal do artigo. “A tecnologia está melhorando muito rápido e vai ser difícil para as universidades superá-la”.
A verdadeira autoria do artigo só foi informada quando os professores da PMU notificaram pessoalmente os editores da revista científica. Isso representa um forte alerta para o sistema acadêmico, que está lutando para lidar com a amplitude do impacto do ChatGPT.
Embora existam “macetes” para deduzir se um ser humano ou um chatbot escreveu algo – o ChatGPT geralmente cita fontes falsas, por exemplo – nenhum software de plágio existente pode sinalizar de forma confiável a escrita gerada por Inteligência Artificial (IA), nem qualquer um dos chamados programas de detecção de IA que surgiram desde que o recurso foi introduzido pela primeira vez.
Isso quer dizer que, apesar do fato de que os sistemas de ensino ameacem penalizar e até expulsar os alunos que usarem os robôs para “trapacear”, o fato é que ainda é bastante complicado realmente policiar esse tipo de fraude, especialmente em larga escala.
“Meus colegas já estão encontrando casos [de trapaça assistida por IA] e lidando com eles”, disse Irene Glendinning, chefe de integridade acadêmica da Universidade de Coventry, na Inglaterra, ao Guardian. “Não sabemos quantos estamos perdendo, mas estamos pegando casos”.
Já assistiu aos nossos novos vídeos no YouTube? Inscreva-se no nosso canal!
Fonte: Olhar Digital
Comentários