Os chatbots de inteligência artificial, como ChatGPT da OpenAI e Bard do Google, têm avançado rapidamente, gerando preocupações sobre privacidade e segurança dos usuários. Especialistas afirmam que o impacto dessas tecnologias na privacidade depende do treinamento dos bots e do nível de interação planejada com os usuários. Esses chatbots têm acesso a grandes volumes de dados, como os do repositório Common Crawl, tornando difícil filtrar completamente as informações utilizadas.
Ocorreram casos em que os chatbots divulgaram informações pessoais, como números de telefone. Embora seja improvável que a OpenAI colete informações sensíveis intencionalmente, a possibilidade de dados privados serem incorporados aos modelos é real.
A OpenAI não se manifestou sobre medidas de proteção à privacidade e não explicou como lida com informações pessoais identificáveis em seus conjuntos de treinamento. Por outro lado, o Google afirma ter programado medidas de segurança no Bard para evitar o compartilhamento de informações pessoais identificáveis durante as conversas.
O uso do software também pode representar riscos à privacidade. As políticas da OpenAI e do Google mencionam várias categorias de informações coletadas sobre os usuários, algumas potencialmente identificáveis.
Além disso, o ChatGPT informa que as conversas podem ser revisadas por seus treinadores de IA para melhorar os sistemas. A transparência nas políticas de privacidade e nos procedimentos de proteção de dados é essencial para construir e manter a confiança dos usuários.
Cuidado com os dados que você compartilha com os chatbots
Apesar de existir a opção de “limpar conversas”, isso não exclui os dados dos usuários de forma definitiva dos chatbots. A única maneira de remover informações pessoais identificáveis fornecidas ao ChatGPT, por exemplo, é excluir a conta do usuário, o que resultaria na remoção permanente de todos os dados associados. No caso do Google, os usuários podem excluir as conversas e informações dadas através da plataforma.
A segurança das informações armazenadas é uma preocupação válida. Em março, o ChatGPT ficou offline devido a um erro de programação que revelou informações sobre o histórico de bate-papo dos usuários. Ainda é incerto se os registros de bate-papo dessas IAs se tornarão alvos valiosos para atores mal-intencionados no futuro.
Especialistas aconselham tratar os chatbots com a mesma cautela aplicada a outros produtos tecnológicos. Os usuários devem estar cientes de que qualquer interação com esses modelos pode ser utilizada pelas empresas para seu próprio benefício.
A privacidade e a segurança continuarão sendo pontos críticos à medida que essas tecnologias avançam e se popularizam. Assim, essa discussão ainda deve prolongar bastante, assim como a regulamentação de plataformas e ferramentas baseadas em IA.
Fonte: Engadget
Fonte: Olhar Digital
Comentários