Especialistas em inteligência artificial (IA) expressaram preocupação após seu trabalho ter sido citado em uma carta aberta do Instituto Future of Life assinada por Elon Musk exigindo uma pausa urgente na pesquisa. A carta, que tem mais de 1.800 assinaturas até agora, pediu uma pausa de seis meses no desenvolvimento de sistemas “mais poderosos” do que o novo GPT-4 da OpenAI, apoiada pela Microsoft.
A carta alerta que sistemas de IA com “inteligência competitiva humana” representam riscos profundos para a humanidade. Grupos da sociedade civil nos EUA e na UE pressionaram legisladores para conter a pesquisa da OpenAI desde então.
A carta aberta também alertou que ferramentas de IA generativa poderiam ser usadas para inundar a internet com “propaganda e mentiras”.
O Instituto Future of Life (FLI), organização por trás da carta, foi criticada por priorizar cenários apocalípticos imaginados em detrimento de preocupações mais imediatas sobre a IA, como preconceitos racistas ou sexistas sendo programados nas máquinas.
Entre as pesquisas citadas estava “On the Dangers of Stochastic Parrots”, um conhecido artigo coautorado por Margaret Mitchell, que anteriormente supervisionava a pesquisa de IA ética no Google. Mitchell, agora cientista ética-chefe na empresa de IA Hugging Face, criticou a carta, dizendo que não estava claro o que contava como “mais poderoso do que o GPT-4”.
Ao tratar muitas ideias questionáveis como dadas, a carta afirma um conjunto de prioridades e uma narrativa sobre a IA que beneficia os apoiadores da FLI. Ignorar os danos ativos agora é um privilégio que alguns de nós não têm.
Margaret Mitchell
Shiri Dori-Hacohen, professora assistente na Universidade de Connecticut, discordou de seu trabalho ter sido mencionado na carta. No ano passado, ela foi coautora de um artigo argumentando que o uso atual de sistemas de IA poderia influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais.
A IA não precisa atingir a inteligência humana para exacerbar estes riscos. Existem riscos não existenciais que são muito, muito importantes, mas não recebem o mesmo tipo de atenção em nível de Hollywood.
Shiri Dori-Hacohen
Dan Hendrycks, diretor do Center for AI Safety na Califórnia, defendeu o conteúdo da carta, dizendo à agência de notícias Reuters que era sensato considerar eventos que parecem improváveis, mas teriam consequências devastadoras.
A FLI disse que a campanha não era uma tentativa de prejudicar a vantagem corporativa da OpenAI.
É bastante hilário. Eu vi pessoas dizerem, ‘Elon Musk está tentando desacelerar a competição’. Isso não é sobre uma única empresa.
Max Tegmark, presidente da FLI
Segundo a Reuters, Elon Musk e o Twitter não responderam a pedidos para comentar o tema.
Fonte: Olhar Digital
Comentários