Os legisladores da UE (União Europeia) concordaram, na quarta-feira (14), com mudanças para redigir regras voltadas para a IA (inteligência artificial). Eles votaram para incluir a proibição do uso da tecnologia em vigilância biométrica e regras para a produção e divulgação de conteúdo em plataformas como o ChatGPT.
Para quem tem pressa:
As emendas à lei histórica, proposta pela Comissão da UE, destinada a proteger os cidadãos dos perigos da tecnologia podem criar um conflito com os países do bloco econômico que se opõem à proibição total do uso de IA na vigilância biométrica.
Agora, os legisladores agora terão que discutir sobre detalhes com os países da UE antes que o projeto de lei se integre à legislação do bloco econômico.
IA na Europa e no mundo
A rápida adoção do ChatGPT da OpenAI, agora apoiada pela Microsoft, e de outros chatbots levou os principais cientistas de IA e executivos de empresas – entre eles, Elon Musk, CEO da Tesla, e o próprio Sam Altman, CEO da OpenAI – a levantar os riscos potenciais desse tipo de tecnologia para a sociedade.
Enquanto as grandes empresas de tecnologia estão soando o alarme sobre suas próprias criações, a Europa foi adiante e propôs uma resposta concreta aos riscos que a IA está começando a representar.
Brando Benifei, co-relator do projeto de lei
Entre outras mudanças, os legisladores da União Europeia querem que qualquer empresa que use ferramentas com IA generativa divulgue o material protegido por direitos autorais usado para treinar seus sistemas.
Além disso, eles propuseram que empresas que trabalham em “aplicações de alto risco” façam uma avaliação de impacto nos direitos fundamentais e avaliem o impacto ambiental.
Regras mais rígidas
Sistemas como o ChatGPT teriam que divulgar que o conteúdo foi gerado por IA, ajudar a distinguir as chamadas imagens deepfake das reais e garantir salvaguardas contra conteúdo ilegal.
A Microsoft e a IBM acolheram o último movimento dos legisladores da União Europeia. Mas esperavam um refinamento maior da legislação proposta.
Acreditamos que a IA requer proteções legislativas, esforços de alinhamento em nível internacional e ações voluntárias significativas de empresas que desenvolvem e implantam IA.
Porta-voz da Microsoft
‘IA é intrinsecamente boa’
Embora a maioria das grandes empresas de tecnologia reconheçam os riscos representados pela IA, outras – por exemplo, a Meta, dona do Facebook e do Instagram – descartaram os alertas sobre os perigos potenciais.
A IA é intrinsecamente boa, porque o efeito dela é tornar as pessoas mais inteligentes.
Yann LeCun, principal cientista de IA da Meta, numa conferência em Paris, na quarta
No atual projeto de lei da UE, sistemas de IA que poderiam ser usados para influenciar os eleitores e o resultado das eleições e sistemas usados por plataformas de rede social com mais de 45 milhões de usuários foram adicionados à lista de alto risco.
Meta e Twitter se enquadram nessa classificação.
A IA levanta muitas questões – social, ética e economicamente. Mas agora não é hora de apertar um ‘botão de pausa’. Pelo contrário, trata-se de agir rápido e assumir responsabilidades.
Thierry Breton, chefe da indústria da UE
Ele disse que viajaria para os Estados Unidos na próxima semana para se encontrar com o CEO da Meta, Mark Zuckerberg, e Altman, da OpenAI, para discutir o rascunho da Lei de IA.
Com informações da Reuters
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários