Chegamos ao “Exterminador do Futuro” da vida real? A OpenAI, criadora do ChatGPT, está criando uma superequipe para prevenir a tecnologia emergente de IA de se tornar desonesta e impulsionar a extinção da humanidade – algo verdadeiramente temido pela companhia de Sam Altman.

A empresa firma que a IA irá empoderar a nova superinteligência que irá ajudar a resolver os problemas mais importantes do planeta e ser a tecnologia mais consequente já inventada pelos humanos.

Além disso, os programadores Ilya Sutskever e Jan Leike, ambos da OpenAI, alertaram que nós, humanos, não estão preparados para lidar com tecnologias mais inteligentes do que nós.

O vasto poder da superinteligência poderia, inclusive, ser muito perigoso, e poderia levar ao desempoderamento da humanidade, ou, mesmo, à extinção humana. Enquanto a superinteligência parece longe atualmente, acreditamos que ela pode chegar nesta década.

Ilya Sutskever e Jan Leike, em post no blog da OpenAI

Se a IA capaz de alimentar o apocalipse está logo na esquina, as mentes mais brilhantes da OpenAI afirmam não ter planos para pará-la.

Hoje em dia, não possuímos soluções para direcionar ou controlar uma potencial IA superinteligente e prevenir que ela se torne desonesta. Nossas técnicas atuais para alinhamento da IA, como reforçar o aprendizado com feedbacks humanos, dependem da habilidade de humanos para supervisionar a IA. Mas os humanos não serão capazes de supervisionar de forma confiável sistemas de IA mais inteligentes que nós.

Ilya Sutskever e Jan Leike, em post no blog da OpenAI

Há esperança?

Apesar de um eventual fim da humanidade ser algo horrível, os chefões da OpenAI têm esperanças de que resolverão o problema.

Enquanto há incrível meta ambígua e não estamos certos de que seremos bem-sucedidos, estamos otimistas que um esforço focado e concentrado pode resolver esse problema. Há muitas ideias que se mostraram promissoras em experimentos preliminares, nós temos, cada vez mais, métricas úteis para progredirmos, e podemos utilizar os modelos atuais para estudar muito desses problemas empiricamente.

Ilya Sutskever e Jan Leike, em post no blog da OpenAI

Sutskever e Leike afirmaram que pretendem compartilhar os resultados de seu trabalha de forma ampla. Disseram ainda que a OpenAI está contratando engenheiros de pesquisa, cientistas e gerentes que querem ajudar que as novas tecnologias sem precedentes criadas pela humanidade se voltem contra ela.

Medo também na política

Legisladores de Washington também estão muito preocupados com o perigo da IA. O líder do Senado, Charles E. Schummer, pediu novas leis para governar a tecnologia, e o Comitê Judiciário do Senado se tornou o centro de audiências sobre fiscalização de IA.

A investigação crescente sobre a IA do comitê incluiu exames de que a IA poderia liberar ataques cibernéticos, desestabilização policial e a implantação de armas de destruição em massa.

Sam Altman pediu regulamentações quando testemunhou no subcomitê de privacidade, tecnologia e lei do Judiciário do Senado em maio. O CEO da OpenAI afirmou ter receios acerca do abuso potencial das ferramentas de IA para manipular pessoas.

O líder do Judiciário do Senado, Richard J. Durbin, expressou interesse em criar “regime de prestação de contas da IA” para incluir potenciais responsabilidades federais e estaduais para quando as ferramentas de IA provocarem danos.

As big techs também pediram novas regulamentações para a IA; o governo dos EUA está analisando. A administração de Joe Biden está ocupada criando uma estratégia nacional de IA que o Escritório de Políticas de Ciência e Tecnologia da Casa Branca tem propagado como abordagem “de toda a sociedade”.

Com informações de The Washington Times