Cada vez mais trabalhadores dos EUA estão usando o ChatGPT para auxiliar na realização de tarefas básicas, o que gera uma certa apreensão por parte de empregadores, especialmente ao considerar que gigantes como Apple e Samsung já proibiram o uso de inteligências artificiais entre seus funcionários.
De acordo com uma pesquisa feita pela Reuters/Ipsos, entre 11 e 17 de julho deste ano 28% dos entrevistados disseram usar o ChatGPT regularmente como ferramenta de trabalho, mas apenas 22% dizem que foram autorizados por seus chefes para usar a IA.
O estudo ainda aponta que 10% dos entrevistados foram proibidos pelos chefes de usar a ferramenta para ajudar no trabalho, e 25% não sabem dizer se é permitido ou não o uso do ChatGPT em suas empresas.
Entre as tarefas que a inteligência artificial é usada para ajudar estão a elaboração de e-mails, resumos de documentos e pesquisas iniciais.
Empresas ao redor do planeta ainda estão avaliando quais são as melhores formas de incorporar ferramentas como o ChatGPT no fluxo de trabalho. Questões de segurança estão entre as principais preocupações, especialmente para o risco de vazamentos de informações internas ou até mesmo violação de propriedade intelectual.
ChatGPT pode causar vazamentos não-intencionais
Inteligências Artificiais como o ChatGPT são treinadas a partir de dados, inclusive os de usuários que testam o serviço. Assim, ao digitar informações internas de uma empresa no chatbot, é possível que isso seja usado no futuro para auxiliar no desenvolvimento da tecnologia.
Isso pode causar vazamentos não-intencionais: uma informação sigilosa digitada no ChatGPT pode acabar parando em um texto gerado para alguém que não deveria ter acesso aos dados em questão.
À Reuters, a OpenAI não comentou sobre os riscos de funcionários individuais usarem o ChatGPT, mas destacou uma postagem em um blog interno dizendo que os dados de parceiros corporativos não são usados no treinamento do chatbot, a não ser com autorização prévia.
Fonte: Olhar Digital
Comentários