A inteligência artificial generativa promete concretizar avanços na área da tecnologia e mudar o dia a dia prático de muitas pessoas. Um dos principais argumentos a favor da automatização de algumas atividades, por exemplo, é que a IA poderia se dedicar ao trabalho massivo enquanto o ser humano pensa em questões estratégicas, éticas e criativas. No entanto, a inovação no setor vem acompanhada de riscos à privacidade, segurança e proteção de dados, como o próprio vice-presidente global de engenharia em privacidade, proteção e segurança do Google admite.
Para Royal Hansen, a IA está se transformando em um ritmo rápido, mas os riscos são menores do que as garantias de uma equipe atualizada.
Vice-presidente do Google reconhece riscos de IA
Desinformação e regulação da IA
Quando questionado se a IA não pioraria o problema da desinformação (o ChatGPT, um dos chatbots mais famosos, é comprovadamente um mentiroso), o vice-presidente do Google admitiu que esse é um problema constante e que exige a colaboração de outras empresas do setor.
O uso desses grandes modelos de linguagem para detectar informações violentas ou desinformação é uma das áreas mais avançadas da minha equipe. Estamos analisando marcas d’água para conteúdo criado por IA, mas ainda é cedo para saber como isso pode funcionar. O que é importante para mim aqui é que o setor reúna diferentes atores para trabalhar nesses problemas, porque não será suficiente que o Google faça isso. É preciso fazer isso na web como um todo.
Royal Hansen, vice-presidente de engenharia em privacidade, proteção e segurança do Google
Já quanto a regulação da IA, Hansen reforçou que a tecnologia está em constante transformação e que a imposição de regras deve passar por um debate contínuo. Isso porque estabelecer normas gerais não basta, uma que em questão de pouco tempo a inteligência artificial pode se atualizar e, consequentemente, desatualizar uma legislação.
Ainda segundo o vice-presidente, nenhuma empresa conseguirá prevenir todas as implicações da IA.
Google e IA no Brasil
Google está usando informações pessoais para treinar IA?
Atualmente, as informações do Google e de outras desenvolvedoras, como a própria OpenAI, sobre a forma com que a IA está sendo treinada não é clara. Por exemplo, não é possível saber se as empresas estão usando conteúdos da internet sob direitos autorais ou mesmo de publicações de pessoas físicas.
Recentemente, o Google atualizou os termos de uso para indicar um possível aproveitamento de dados “acessíveis ao público” no treinamento de IA. Questionado o porquê essa alteração foi feita e se isso não violaria a privacidade dos usuários, Royal Hansen novamente declarou que a tecnologia está em constante alteração e que a questão do treinamento é, atualmente, um problema de engenharia do produto. Ele completou que “não é fácil para uma pessoa comum entender todos os detalhes do que está implícito nessas coisas”.
No entanto, o vice-presidente assegurou que dados contidos na área de trabalho pessoal de um usuário do Google, o Workspace (compreende o Gmail, Docs, Drive e Planilhas), não são usados para treinar IA.
Fonte: Olhar Digital
Comentários