A OpenAI conseguiu apaziguar autoridades italianas e suspender a proibição do ChatGPT no país. Foi uma aparente vitória para a empresa. Mas sua luta contra reguladores europeus está longe de terminar. Isso porque episódio é apenas um vislumbre do que está por vir tanto para OpenAI quanto empresas que desenvolvem outras plataformas de IA (inteligência artificial) geradoras de conteúdo.

ChatGPT na Itália

Tela do bot de bate-papo ChatGPT vista no smartphone e bandeira da Itália ao fundo
Itália foi o primeiro país da UE a proibir ChatGPT e exigir mudanças (Imagem: Ascannio/Shutterstock)

No começo de 2023, o chatbot da OpenAI trombou num obstáculo legal: proibição na Itália. A GPDP (Autoridade Italiana de Proteção de Dados) acusou a empresa de violar regras de proteção de dados da UE (União Europeia). E a empresa concordou em restringir acesso à ferramenta na Itália enquanto tentava corrigir o problema.

Em 28 de abril, o ChatGPT voltou a funcionar no país, com a empresa abordando preocupações do GPDP sem fazer grandes mudanças em seu serviço. E o GPDP disse que “congratula-se” com as mudanças feitas. Foi uma aparente vitória.

No entanto, questões legais relacionadas à OpenAI – e outras empresas que desenvolvem plataformas semelhantes ao ChatGPT – provavelmente estão apenas começando.

Isso porque reguladores em vários países estão investigando como essas ferramentas de IA coletam e produzem conteúdo, citando uma série de preocupações, desde coleta de dados de treinamento não licenciados pelas empresas até tendência dos chatbots de espalhar desinformação.

Na UE, eles tem aplicado o GDPR (Regulamento Geral de Proteção de Dados), uma das estruturas legais de privacidade mais fortes do mundo, cujos efeitos provavelmente chegarão muito além da Europa. Enquanto isso, legisladores do bloco econômico estão elaborando uma lei que abordará especificamente a IA. Isso, provavelmente, vai inaugurar nova era de regulamentação para sistemas como o ChatGPT.

Chatbot da OpenAI e outras IAs generativas

Par de mãos robóticas sobre teclado
ChatGPT é o exemplo mais popular de IA generativa (Imagem: Reprodução/Harvard Gazette)

O ChatGPT é um dos exemplos mais populares de IA generativa – termo geral que abrange ferramentas que produzem texto, imagem, vídeo e áudio com base nas solicitações do usuário.

Serviço se tornou um dos aplicativos de consumo de crescimento mais rápido da história, depois de atingir 100 milhões de usuários ativos mensais apenas dois meses após seu lançamento, em novembro de 2022 (OpenAI nunca confirmou esses números).

As pessoas o usam para traduzir textos, escrever ensaios universitários e gerar código. Mas críticos – inclusive, reguladores – destacaram resultados não confiáveis do ChatGPT, questões confusas de direitos autorais e práticas obscuras de proteção de dados.

A Itália foi o primeiro país a fazer uma mudança. Em 31 de março, país destacou quatro maneiras pelas quais acreditava que a OpenAI infringia o GDPR:

Então, país ordenou que a OpenAI parasse imediatamente de usar informações pessoais coletadas de cidadãos italianos em seus dados de treinamento para o ChatGPT. Nenhum outro país tomou tal medida.

Preocupações

Celular com logomarcas da OpenAI e ChatGPT na tela e logomarca da OpenAI ao fundo
Atualmente, países tanto da UE quanto de outros blocos econômicos (e continentes) investigam o ChatGPT (Imagem: Fabio Principe/Shutterstock)

Porém, desde março de 2023, pelo menos três nações da UE – Alemanha, França e Espanha – lançaram suas próprias investigações sobre o ChatGPT. Enquanto isso, do outro lado do Atlântico, Canadá avalia questões de privacidade sob sua Pipeda (Lei de Proteção de Informações Pessoais e Documentos Eletrônicos).

O EDPB (Conselho Europeu de Proteção de Dados) até estabeleceu uma força-tarefa dedicada para ajudar a coordenar investigações. E se essas agências exigirem mudanças da OpenAI, elas podem afetar a forma como o serviço é executado para usuários em todo o mundo.

As preocupações dos reguladores podem ser amplamente divididas em duas categorias: de onde vêm os dados de treinamento do ChatGPT e como a OpenAI fornece informações aos seus usuários.

O ChatGPT usa LLMs (Modelos Grandes de Linguagem) GPT-3.5 e GPT-4, da OpenAI. Eles são treinados em grandes quantidades de texto produzido por humanos. A OpenAI é cautelosa sobre exatamente qual texto de treinamento é usado, mas diz que se baseia em “uma variedade de fontes de dados licenciadas, criadas e disponíveis publicamente, que podem incluir informações pessoais disponíveis publicamente”.

Regras

Bandeira da União Europeia
As leis especificamente projetadas para regular IA podem não entrar em vigor na Europa até o final de 2024 (Imagem: Shutterstock)

Isso potencialmente representa grandes problemas sob o GDPR. A lei, promulgada em 2018, abrange os serviços que coletam ou processam dados de cidadãos da UE, independentemente da sede da organização responsável.

Assim, as regras do GDPR exigem que empresas tenham consentimento explícito antes de coletar dados pessoais, justificativa legal para o motivo da coleta e transparência sobre como estão sendo usados ​​e armazenados.

Os reguladores europeus afirmam que o sigilo em torno dos dados de treinamento da OpenAI significa que não há como confirmar se informações pessoais inseridas nele foram inicialmente fornecidas com o consentimento do usuário. E o GPDP argumentou especificamente que a OpenAI “não tinha base legal” para coletá-lo em primeiro lugar.

Por ora, a dona do ChatGPT e outras se safaram com pouco escrutínio. Mas essa afirmação adiciona um grande ponto de interrogação aos futuros esforços de coleta de dados.

Com informações de The Verge

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!