A OpenAI publicou nessa segunda-feira, 22 de maio, um comunicado onde propôs a criação de um órgão internacional para regulamentação da inteligência artificial (IA).

Na postagem, o fundador da OpenAI, Sam Altman; o presidente, Greg Brockman; e o cientista-chefe, Ilya Sutskever, dizem que nos próximos dez anos, as IAs terão a mesma capacidade produtiva que as maiores corporações atuais, para isso é necessário “administrar o risco” dessas tecnologias.

Com as crescentes preocupações sobre a IA, os executivos deram três sugestões para regulamentá-la: 

Para criar um regulador internacional, a publicação cita a Agência Internacional de Energia Atômica (AIEA) como um exemplo a ser seguido. A AIEA é um órgão oficial da ONU que conta com colaboração internacional para assuntos de energia nuclear.

Para a OpenAI, esse órgão seria responsável por:

Inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança, etc.

OpenAI em comunicado

A empresa explica que esse órgão não seria responsável por definir, por exemplo, o que a IA poderia ou não falar, mas sim por conduzir trabalhos de “redução do risco existencial” dos sistemas.

Acreditamos que as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões dos sistemas de IA. Ainda não sabemos como projetar tal mecanismo, mas planejamos experimentar seu desenvolvimento. Continuamos a pensar que, dentro desses limites amplos, os usuários individuais devem ter muito controle sobre como a IA que usam se comporta.

OpenAI em comunicado

OpenAI viaja pelo mundo para discutir IA

A OpenAI está em uma espécie de turnê pelo mundo para discutir sobre os sistemas de IA. Até o momento a empresa passou por Toronto (Canadá), Washington (EUA) e no Rio de Janeiro na última semana.

No evento realizado no Museu do Amanhã, no Rio de Janeiro, Altman também falou sobre a necessidade de uma regulamentação internacional da tecnologia. Também defendeu o estabelecimento de padrões de segurança pelas empresas e realização de auditorias externas, responsáveis por verificar a aplicação segura de ferramentas como o ChatGPT e Bard.

Com informações de Techcrunch e OpenAI.

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!