Há seis meses, Gary Marcus, professor emérito da Universidade de Nova York (NYU), EUA, considerado também uma das maiores vozes sobre a IA na atualidade, escreveu há seis meses:

Algo inacreditável está acontecendo na inteligência artificial neste momento — e não é inteiramente para o bem.

Gary Marcus

Na visão do professor, o surgimento do ChatGPT está levando a humanidade ao “momento Jurassic Park” das máquinas: a possibilidade de a situação fugir ao controle.

Em entrevista à BBC Brasil, Marcus disse que “quando escrevi esse artigo, acho que as pessoas pensaram que eu era louco ou alarmista”.

Porém, parece que ele pode estar, ao menos em parte, certo: em março, na Bélgica, um homem que constantemente conversava com o chatbot Eliza, da Chai, se suicidou.

A esposa do rapaz mantém firme a ideia de que o constante contato com a IA o fez tirar a vida. O governo belga se manifestou, afirmando que o caso é “precedente que deve ser levado a sério” e “o perigo do uso [de inteligência artificial] é uma realidade que precisa ser considerada”.

Esse cenário foi descrito por Marcus à WIRED quatro meses antes do ocorrido: “Talvez um chatbot vá magoar alguém tão profundamente que a pessoa será levada a acabar com a sua vida? (…) Em 2023, nós talvez vejamos nossa primeira morte por um chatbot.”

Acho que esses sistemas podem ser muito destrutivos. E parte do motivo do potencial de destruição é que eles não são confiáveis. Esses programas podem inventar algo e dizer [a um usuário] que isso é um fato. E eles também podem ser usados por pessoas com essa finalidade.

Gary Marcus

“Os sistemas de inteligência artificial que temos agora não são bem controlados. Ainda não é uma situação terrível, mas as pessoas estão dando mais e mais poderes a eles. E não sabemos o que esses sistemas podem executar em determinada situação”, complementou.

Marcus e suas previsões sombrias

No ano passado, o professor elencou “sete previsões sombrias” acerca da IA generativa, como o ChatGPT.

Entre elas, a de que a versão mais recente da ferramenta, com o GPT-4, seria como um “touro em uma loja de porcelanas, imprudente e difícil de controlar. Fará um significativo número de erros estúpidos, de fazer balançar a cabeça, em maneiras difíceis de prever”.

Um desses casos realmente ocorreu. Como o Olhar Digitalnoticiou, o professor estadunidense de Direito, Jonathan Turley, solicitou ao ChatGPT lista de acadêmicos envolvidos em assédio sexual, e se surpreendeu ao ver seu nome citado, inclusive com falsa reportagem de jornal falando sobre o “caso”.

Sobre o caso – calúnia inventada por uma IA – a OpenAI, dona do ChatGPT, soltou nota apenas afirmando que a ferramenta “nem sempre gera respostas precisas”.

Não temos nenhuma garantia formal de que esses programas vão trabalhar da forma correta, mesmo quando fazem cálculos matemáticos. Às vezes eles estão corretos, às vezes não. Falta de controle e de confiabilidade são problemas que enxergo. Sua calculadora tradicional tem garantia de resposta aritmética. Mas os grandes modelos de linguagem, não.

Gary Marcus

Quando fala dos grandes modelos de linguagem, Marcus quer dizer os LLMs (large language models, em inglês), que armazenam enormes quantidades de dados e geram, a partir de incríveis algoritmos, respostas por aproximação, com base no que já foi citado anteriormente por humanos.

“Os LLMs não são tão inteligentes assim, mas são perigosos”, disse o professor, que apontou os momentos de “alucinações” da ferramenta dentro de sua lista de “previsões sombrias”.

Os recentes episódios envolvendo deepfakes – especialmente a foto do Papa Francisco com uma bela jaqueta – também foram citados pelo professor. “A não ser que a gente tome providências, estamos próximos de entrar em um ambiente de pós-verdade”, disse.

O que torna tudo muito difícil para a democracia. Precisamos de sanções para quem produz desinformação em massa, exigir marcas d’água para identificar de onde vem a informação e criar novas tecnologias para detectar inverdades. Assim como existe programa de antivírus, precisamos de software antidesinformação.

Gary Marcus

Além da universidade

Gary Marcus tem 53 anos e tem experiência em outras áreas também. Ele já vendeu uma empresa para a Uber e virou diretor de um laboratório de IA da companhia. Foram apenas quatro meses de cargo, saindo durante acusações de ambiente “tóxico”.

Para Marcus, é preciso uma regulamentação das IAs, citando o setor aéreo como exemplo. “O setor aéreo na década de 1950 era um desastre. Os aviões caíam o tempo todo. A regulamentação foi boa para o setor, conseguiu que a indústria aérea desenvolvesse um produto melhor no final das contas.”

Deixar as coisas nas mãos das empresas não necessariamente leva ao caminho correto. Você quer que as empresas sejam parceiras para construir o que precisa ser feito. Mas há uma razão para ter governos, certo?

Gary Marcus

Ceticismo e o “padrinho da IA”

O ceticismo, cautela e desconfiança de Marcus foram ironizados em outros anos por seus pares – especialmente no Twitter -, mas, agora, vários deles já falam com outro tom.

O “padrinho da IA”, Gepffrey Hinton, após deixar o Google, afirmou que os problemas com a IA “talvez mais urgentes do que os da mudança climática”.

Hinton e eu temos visões diferentes sobre alguns aspectos da inteligência artificial. Me correspondi com ele há pouco, expliquei minha posição e ele concordou comigo, o que nem sempre acontece. Mas a questão principal em que concordamos é controle.

Gary Marcus

Não necessariamente concordo que [IA] seja uma ameaça maior do que a mudança climática, mas é difícil saber. Há muitos dados estabelecidos para tentar estimar os riscos das mudanças climáticas. Mas com a inteligência artificial nós nem sabemos como calcular esses riscos.

Gary Marcus

Mas, para mim, a chance de que essas ferramentas sejam usadas para abalar democracias é essencialmente de 100%. Agora, se há chance de os robôs dominarem o planeta, não temos ideia. É razoável que algumas pessoas se dediquem a esse cenário. Estamos construindo ferramentas muito poderosas. Devemos considerar essas ameaças.

Gary Marcus

Com informações de BBC Brasil