A presidente da Comissão Europeia, Ursula von der Leyen, propôs a criação de um painel global para avaliar os riscos e benefícios da inteligência artificial. A ideia é desenvolver um sistema semelhante ao Painel Intergovernamental sobre Mudanças Climáticas (IPCC), que é utilizado com base para a formulação de políticas relacionadas ao clima. Esse é mais um esforço na tentativa de regulamentar a IA. E a União Europeia não está sozinha nessa difícil missão.
Leia mais
Os legisladores da UE concordaram, em junho deste ano, com mudanças no texto parcial da Lei de IA do bloco. Eles agora terão que discutir essas alterações com os países membros antes que as regras entrem em vigor.
Os pontos mais sensíveis dizem respeito ao reconhecimento facial e a vigilância biométrica. Alguns legisladores querem uma proibição total desses sistemas, enquanto outros defendem uma exceção para fins de segurança nacional, defesa e militares.
E dentro do próprio bloco europeu há discordâncias. A França, por exemplo, abriu uma investigação sobre o ChatGPT por supostas violações das regras de privacidade. No entanto, a Assembleia Nacional do país aprovou, em março, o uso de videomonitoramento por IA durante os Jogos Olímpicos de Paris, em 2024.
A Itália foi além e baniu o uso do ChatGPT alegando preocupações em relação a proteção de dados. Autoridades italianas afirmaram que planejam revisar as plataformas de inteligência artificial.
Confira em que ponto a discussão sobre a regulamentação da IA está em outros países.
Reino Unido
As autoridades britânicas estabeleceram uma lista com os princípios para o uso seguro da IA. O objetivo é impedir condutas anticompetitivas pelas empresas responsáveis pela tecnologia.
EUA
O Congresso dos Estados Unidos realizou audiências sobre IA entre 11 e 13 de setembro e um fórum sobre o assunto com a presença do CEO da Meta, Mark Zuckerberg, e com o CEO da Tesla, Elon Musk, que pediu a criação de um “árbitro para a IA”.
Os legisladores americanos disseram que havia um consenso universal sobre a necessidade de regulamentação governamental da tecnologia.
Já em 12 de setembro, a Casa Branca disse que a Adobe, IBM, Nvidia e outras cinco empresas assinaram um compromisso voluntário para uso da IA junto ao presidente Joe Biden (confira mais detalhes clicando aqui).
A Comissão Federal de Comércio dos EUA (FTC) abriu em julho uma investigação sobre a OpenAI. A entidade alega que a empresa entrou em conflito com as leis de proteção ao consumidor.
China
A China emitiu um conjunto de medidas temporárias em vigor a partir de 15 de agosto, exigindo que os provedores de serviços apresentem avaliações de segurança e recebam autorização antes de lançar produtos de IA de mercado em massa.
E pela primeira vez em três anos, representantes do país e da União Europeia se reuniram para discutir a regulamentação da inteligência artificial (saiba mais sobre o assunto clicando aqui).
Japão
O governo do Japão espera introduzir até o final de 2023 normas sobre o uso da IA. As regras, no entanto, não devem ser muito rígidas e têm despertado algumas críticas no país.
Em junho, o órgão de vigilância de privacidade japonês alertou a OpenAI para que não coletasse dados confidenciais sem a permissão das pessoas.
Brasil e a inteligência artificial
No Brasil, ao menos quatro projetos de lei que procuram criar regras sobre o desenvolvimento, a implementação e o uso de sistemas de IA tramitam no Congresso Nacional e devem ser discutidos ainda em 2023.
O PL 2338/23 é considerado o mais completo. Ele propões a criação de dois níveis de grau de risco da IA: o excessivo, cujas aplicações serão proibidas; e de alto risco, que deve ser avaliado e monitorado antes e durante seu uso.
G7 e ONU também discutem regulamentação da IA
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários