Um grupo composto por engenheiros, pesquisadores e CEOs do mercado de tecnologia voltou a emitir um alerta sobre a ameaça que o avanço desenfreado da IA (inteligência artificial) representa para o futuro da humanidade.

A declaração oficial publicada pela ONG ‘Center for AI Safety’ diz basicamente que, assim como guerras e pandemias, “deve ser uma prioridade global” conter “o risco de extinção” em massa por uso indevido da inteligência artificial.

O comunicado foi assinado por nomes importantes da indústria, como o CEO do Google DeepMind, Demis Hassabis, o CEO da OpenAI, Sam Altman, bem como Geoffrey Hinton e Youshua Bengio, dois pesquisadores premiados da área de IA — curiosamente, Yann LeCun, novo cientista-chefe de IA da Meta, não assinou.

A nova declaração reforça a preocupação com segurança em meio ao surgimento de tantas ferramentas alimentadas por IA. Vale lembrar que no início de 2023, outra carta aberta assinada por figurões da tecnologia como Elon Musk pedia uma espécie de pausa de seis meses no desenvolvimento da IA.

Dan Hendrycks, diretor-executivo da organização, disse ao The New York Times que desta vez o comunicado não sugere nenhuma maneira de mitigar o problema. Hendrycks descreve a mensagem como uma “apresentação” para figuras do setor preocupadas com os riscos da IA. 

Há um equívoco muito comum, mesmo na comunidade de IA, de que há apenas um punhado de pessimistas (…) na verdade, muitas pessoas expressam suas preocupações sobre essas coisas

Dan Hendrycks, diretor-executivo da ONG Center for AI Safety

O que pode acontecer

Com informações do The Verge

Já assistiu aos nossos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!