Centenas de pesquisadores de IA (inteligência artificial), cientistas da computação e executivos assinaram mais uma carta sobre riscos dela. Esta, divulgada na terça-feira (30), alertava que a tecnologia pode ameaçar a existência do mundo como o conhecemos. Agora, críticos questionam se as figuras públicas que assinaram esses documentos estão agindo de boa fé.

Para quem tem pressa:

A carta mais recente, criada pelo Center for AI Safety, diz: “Mitigar o risco de extinção pela IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

Resta saber se cartas como essa do Center for AI Safety causarão mudanças materiais no ritmo em que pesquisadores de empresas como OpenAI e Google estão desenvolvendo seus sistemas de IA.

Questionamentos

Pessoa digitando em notebook com desenho colorido de aprendizado de inteligência artificial em cima
(Imagem: NicoElNino/Shutterstock)

Atualmente, há quem duvide das intenções dos signatários – especificamente, se estão agindo de boa fé.

Saberemos que não é apenas teatro quando eles deixarem seus empregos, desconectarem os data centers e realmente agirem para impedir o desenvolvimento da IA.

Meredith Whittaker, pesquisadora de IA que foi expulsa do Google em 2019 e é agora presidente da Signal Foundation

Ainda segundo a pesquisadora, essas cartas pedindo “alguém para agir” são assinadas por algumas das poucas pessoas no mundo que têm poder de realmente agir para interromper ou redirecionar os esforços do desenvolvimento de IA. “Imagine um presidente dos EUA fazendo uma declaração com o efeito de ‘alguém poderia, por favor, emitir uma ordem executiva?’”, questionou.

Whittaker acredita que tais declarações concentram o debate sobre as ameaças de longo prazo que os futuros sistemas de IA podem representar, enquanto desviam a atenção da discussão sobre os danos reais que os atuais sistemas de IA podem causar.

Mãos robóticas sobre teclado
(Imagem: Thinkstock)

Entre esses, estão: deslocamento de trabalhadores, violação de direitos autorais e violações de privacidade, para citar algumas questões. A pesquisadora aponta que um corpo significativo de pesquisas já mostra os danos da IA ​​no curto prazo – e a necessidade de regulamentação.

Concentrar o debate nos danos “existentes” de longo prazo dos sistemas avançados de IA também pode dar a empresas como a OpenAI e o Google a cobertura de que precisam para continuar avançando no desenvolvimento de sistemas de IA cada vez mais inteligentes, de acordo com o professor de direito da Universidade de Washington, Ryan. Calo.

“Se a IA ameaça a humanidade, é acelerando as tendências existentes de riqueza e desigualdade de renda, falta de integridade nas informações e exploração de recursos naturais”, escreveu ele, numa rede social.

Donos da IA

Logomarca do ChatGPT com ilustração de homem expandindo mente ao fundo
(Imagem: Pedro Spadoni/Olhar Digital)

Em seu recente depoimento ao Senado dos EUA sobre como o governo pode desempenhar um papel na mitigação dos riscos da IA, Sam Altman, CEO da OpenAI, foi longe ao sugerir que o governo deveria emitir licenças para empresas de tecnologia desenvolverem IA, mas apenas se elas puderem provar que têm os recursos para fazê-lo com segurança.

Por outro lado, Altman ameaçou retirar os serviços da OpenAI da União Europeia se a IA fosse “superregulamentada” lá. A UE está avançando com sua Lei de IA, que pode se tornar a primeira estrutura regulatória com foco global para sistemas de IA.

Talvez, como sugeriu Whittaker, Altman seja a favor da regulamentação que aborde o risco mais teórico e de longo prazo da IA ​​(ou seja, regulamentação que o Congresso não está equipado para entregar tão cedo). Mas muito menos confortável com a regulamentação que aborda riscos a curto prazo e que podem interferir nos planos de desenvolvimento e modelo de negócios atuais da OpenAI.

Com informações da Fast Company

Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!