A OpenAI publicou nessa segunda-feira, 22 de maio, um comunicado onde propôs a criação de um órgão internacional para regulamentação da inteligência artificial (IA).
Na postagem, o fundador da OpenAI, Sam Altman; o presidente, Greg Brockman; e o cientista-chefe, Ilya Sutskever, dizem que nos próximos dez anos, as IAs terão a mesma capacidade produtiva que as maiores corporações atuais, para isso é necessário “administrar o risco” dessas tecnologias.
Com as crescentes preocupações sobre a IA, os executivos deram três sugestões para regulamentá-la:
Para criar um regulador internacional, a publicação cita a Agência Internacional de Energia Atômica (AIEA) como um exemplo a ser seguido. A AIEA é um órgão oficial da ONU que conta com colaboração internacional para assuntos de energia nuclear.
Para a OpenAI, esse órgão seria responsável por:
Inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança, impor restrições aos graus de implantação e níveis de segurança, etc.
OpenAI em comunicado
A empresa explica que esse órgão não seria responsável por definir, por exemplo, o que a IA poderia ou não falar, mas sim por conduzir trabalhos de “redução do risco existencial” dos sistemas.
Acreditamos que as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões dos sistemas de IA. Ainda não sabemos como projetar tal mecanismo, mas planejamos experimentar seu desenvolvimento. Continuamos a pensar que, dentro desses limites amplos, os usuários individuais devem ter muito controle sobre como a IA que usam se comporta.
OpenAI em comunicado
OpenAI viaja pelo mundo para discutir IA
A OpenAI está em uma espécie de turnê pelo mundo para discutir sobre os sistemas de IA. Até o momento a empresa passou por Toronto (Canadá), Washington (EUA) e no Rio de Janeiro na última semana.
No evento realizado no Museu do Amanhã, no Rio de Janeiro, Altman também falou sobre a necessidade de uma regulamentação internacional da tecnologia. Também defendeu o estabelecimento de padrões de segurança pelas empresas e realização de auditorias externas, responsáveis por verificar a aplicação segura de ferramentas como o ChatGPT e Bard.
Com informações de Techcrunch e OpenAI.
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários