Os chatbots e outros serviços de inteligência artificial são testados incansavelmente para descobrir possíveis falhas perigosas antes de ser lançados. Um estudo da Universidade de Sheffield, na Inglaterra, descobriu que, mesmo assim, muitos programas de IA continuam vulneráveis e talvez nem as empresas desenvolvedoras saibam disso. A pesquisa mostrou como bastam algumas perguntas para que esses sistemas ajudem na produção de hacks para fins maliciosos, inclusive o ChatGPT.
IA enganada
ChatGPT e BAIDU hackeados
No BAIDU-UNIT, uma das plataformas que foi manipulada na pesquisa, forneceu informações confidenciais sobre seu próprio servidor. Isso, nas mãos erradas, poderia causar a queda do sistema inteiro.
Outro caso foi com o ChatGPT. Os cientistas explicaram como o perigo é ainda maior em casos em que as pessoas usam a IA para interagir com linguagens de programação ou banco de dados.
No ChatGPT, o estudo exemplificou um caso em que um enfermeiro de um hospital pode solicitar ao chatbot um código para interagir com o banco de dados de pacientes daquela instituição. No entanto, a depender das perguntas feitas para chegar nesse resultado, a resposta dada pelo programa, quando aplicada, pode desconfigurar o banco original (ou consequências mais graves).
Ainda, a equipe descobriu que os códigos fornecidos pelas IAs são suficientes para orquestrar ataques de backdoor, um tipo de ataque cibernético que explora vulnerabilidade de um sistema para controlá-lo.
Riscos e soluções para IA — inclusive o ChatGPT
Os pesquisadores apresentaram o estudo e, entre alguns dos pontos levantados, destacaram a importância de os usuários dos sistemas Text-to-SQL estarem cientes dos riscos da sua interação com a IA. Isso porque o comportamento dos modelos de linguagem para essas funções ainda é complexo e difícil de prever.
O Baidu, um dos casos estudados na pesquisa, já reconheceu as vulnerabilidades e recompensou financeiramente os cientistas. O ChatGPT também trabalhou para corrigir os problemas destacados em fevereiro deste ano.
A esperança dos pesquisadores é que, expondo essas falhas, mais usuários dos modelos de linguagem e desenvolvedoras estejam cientes de seus riscos, e trabalhem para mitigá-los.
Fonte: Olhar Digital
Comentários