Grandes empresas de tecnologia, como Google, Meta e Microsoft, estão no centro de uma preocupante prática que envolve o uso dos dados pessoais de seus usuários para treinar suas inteligências artificiais. Essas corporações coletam conversas, fotos e documentos de milhões de indivíduos, com o intuito de alimentar suas IA, capacitando-as a realizar desde tarefas de escrita até a criação artística.
Essa prática, que abrange serviços amplamente utilizados, como Gmail, Instagram e Bing, está em constante expansão, gerando crescentes preocupações sobre a violação da privacidade e o controle dos dados pessoais dos usuários, como mostra uma reportagem do jornal Washington Post.
Uso de seus dados para treinar IAs
Riscos de privacidade
Atualmente, não compreendemos completamente os riscos que esse comportamento representa para a privacidade ou reputação das pessoas, mas há muito pouco a fazer para evitá-lo. Às vezes, essas empresas lidam com seus dados com cautela, mas em outras ocasiões, seu comportamento vai de encontro às expectativas comuns sobre o que acontece com suas informações, incluindo aquelas que você considerava privadas.
Recentemente, o Zoom acendeu o alerta ao afirmar que poderia usar o conteúdo privado das videochamadas para aprimorar seus produtos de IA, antes de recuar. Nos últimos meses, o Google atualizou sua política de privacidade para afirmar que poderia usar qualquer “informação publicamente disponível” para treinar sua IA.
Perdido na coleta de dados está o fato de que a maioria das pessoas não tem como tomar decisões verdadeiramente informadas sobre como seus dados estão sendo usados para treinar IA. Isso pode parecer uma violação de privacidade.
A IA representa um salto de geração em geração. Este é o momento apropriado para parar e pensar: o que está em jogo aqui? Estamos dispostos a abrir mão de nosso direito à privacidade, de nossos dados pessoais, para essas grandes empresas? Ou a privacidade deve ser a regra?
Nicholas Piachaud, diretor da Mozilla Foundation, ao WP
Corrida da IA levanta mais preocupações
Não é novidade que as empresas de tecnologia usem seus dados para treinar produtos de IA. A Netflix utiliza o que você assiste e avalia para gerar recomendações. A Meta utiliza suas interações, curtidas, comentários e até mesmo o tempo que você gasta para treinar sua IA a organizar seu feed de notícias e exibir anúncios.
No entanto, a IA generativa é diferente. A corrida da IA de hoje exige uma quantidade massiva de dados. Ben Winters, advogado sênior do Centro de Informações de Privacidade Eletrônica (EPIC), que tem estudado os prejuízos da IA generativa, disse ao Washington Post:
Todos estão agindo como se houvesse esse destino manifesto de ferramentas tecnológicas construídas com os dados das pessoas. Com o aumento do uso de ferramentas de IA, surge esse incentivo distorcido de coletar o máximo de dados possível desde o início.
Ben Winters, advogado do Centro de Informações de Privacidade Eletrônica (EPIC)
Isso traz riscos exclusivos para a privacidade. Treinar uma IA para aprender tudo sobre o mundo significa que ela também acaba aprendendo coisas íntimas sobre indivíduos, desde detalhes financeiros e médicos até fotos e escritos pessoais.
Empresas de tecnologia e segurança de dados
Algumas empresas de tecnologia até reconhecem isso em suas letras miúdas. Quando você se inscreve para usar os novos recursos de escrita e geração de imagens da IA do Google no Workspace Labs, a empresa adverte: “não inclua informações pessoais, confidenciais ou sensíveis.”
O processo real de treinamento de IA pode ser um pouco assustador. As empresas contratam seres humanos para revisar parte do que fazemos com produtos como a nova pesquisa alimentada por IA chamada SGE do Google. Em sua letra miúda para o Workspace Labs, o Google adverte que pode manter seus dados vistos por revisores humanos por até quatro anos, de uma forma não diretamente associada à sua conta.
Ainda pior para sua privacidade, a IA às vezes vaza dados. IA generativa, que é notoriamente difícil de controlar, pode regurgitar informações pessoais em resposta a um novo prompt, às vezes inesperado.
Isso até aconteceu com uma empresa de tecnologia. Funcionários da Samsung estavam supostamente usando o ChatGPT e descobriram em três ocasiões diferentes que o chatbot divulgou segredos da empresa. A empresa então proibiu o uso de chatbots de IA no trabalho. Apple, Spotify, Verizon e muitos bancos fizeram o mesmo.
As grandes empresas de tecnologia disseram ao WP que se esforçam para evitar vazamentos. A Microsoft afirma que desidentifica os dados do usuário inseridos no Bing Chat. O Google afirma que remove automaticamente informações pessoalmente identificáveis dos dados de treinamento. A Meta afirma que treinará a IA generativa para não revelar informações privadas, de modo que ela possa compartilhar o aniversário de uma celebridade, mas não de pessoas comuns.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários