A inteligência artificial (IA) é algo alienígena – um sistema inteligente sobre o qual as pessoas têm pouco entendimento. Os humanos são em grande parte previsíveis para outros porque compartilham a experiência humana. Mas isso não se estende à IA, mesmo que pessoas a tenham criado.

Para quem tem pressa:

Essa é a tese defendida por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), num artigo publicado no The Conversation. Segundo o especialista, os sistemas de IA têm uma limitação significativa: grande parte de seu funcionamento interno é impenetrável.

Isso os torna fundamentalmente inexplicáveis e imprevisíveis. Além disso, construir sistemas de IA que se comportam da maneira que as pessoas esperam é um desafio significativo.

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Confiança e IA

Mãos robóticas sobre teclado
(Imagem: Thinkstock)

A confiança se baseia na previsibilidade. Ela depende da sua capacidade de antecipar o comportamento dos outros. Por exemplo, se você confia em alguém e essa pessoa não faz o que você espera, então sua percepção da confiabilidade nela diminui.

Muitos sistemas de IA são construídos em redes neurais de aprendizado profundo, que em alguns aspectos emulam o cérebro humano. Essas redes têm “neurônios” interconectados com variáveis ou “parâmetros” que afetam a força das conexões entre os neurônios.

À medida que uma rede ingênua é apresentada a dados de treinamento, ela “aprende” a classificar os dados ajustando esses parâmetros. Dessa forma, o sistema de IA aprende a classificar dados que não viu antes. Ele não memoriza o que cada dado é, mas sim prevê o que pode ser.

Muitos dos sistemas de IA mais poderosos contém trilhões de parâmetros. Por causa disso, os motivos pelos quais os sistemas de IA tomam as decisões que tomam muitas vezes são opacos. Esse é o problema da explicabilidade da IA – a caixa-preta impenetrável da tomada de decisão da IA.

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Comportamento e expectativas

Robô humanóide, IA
(Imagem: thinkhubstudio/Shutterstock)

A confiança depende não apenas da previsibilidade, mas também de motivações normativas ou éticas. Normalmente, você espera que as pessoas ajam não apenas como você assume que vão agir, mas também como deveriam agir. Os valores humanos são influenciados pela experiência comum e o raciocínio moral é um processo dinâmico, moldado por padrões éticos e pelas percepções dos outros.

Ao contrário dos humanos, a IA não ajusta seu comportamento com base em como é percebida pelos outros ou ao aderir a normas éticas, segundo Bailey. Para o especialista, a representação interna do mundo pela IA é em grande parte estática, determinada pelos dados de treinamento.

Seu processo de tomada de decisão é fundamentado em um modelo imutável do mundo, indiferente às interações sociais dinâmicas e matizadas que constantemente influenciam o comportamento humano. Pesquisadores estão trabalhando na programação de ética na IA, mas isso está se mostrando desafiador.

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Sistemas cruciais

Mão robótica pressionando tecla de notebook
(Imagem: sdecoret/Adobe Stock)

Para o professor, uma maneira de reduzir a incerteza e aumentar a confiança é garantir que as pessoas participem das decisões tomadas pelos sistemas de IA. Este é o enfoque adotado pelo Departamento de Defesa dos Estados Unidos, por exemplo, que exige que em todas as tomadas de decisões de IA, um ser humano deve estar ou “no processo” ou “em cima do processo”.

“No processo” significa que o sistema de IA faz uma recomendação, mas um ser humano é necessário para iniciar uma ação. “Em cima do processo” significa que, enquanto um sistema de IA pode iniciar uma ação por conta própria, um monitor humano pode interrompê-la ou alterá-la.

Embora manter os humanos envolvidos seja um ótimo primeiro passo, não estou convencido de que isso será sustentável a longo prazo. À medida que empresas e governos continuam a adotar a IA, o futuro provavelmente incluirá sistemas de IA aninhados, nos quais a tomada de decisões rápidas limita as oportunidades para as pessoas intervirem.

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation

Para Bailey, é importante resolver os problemas de explicabilidade e alinhamento antes que o ponto crítico seja alcançado – no qual a intervenção humana se torne impossível. “Nesse ponto, não haverá outra opção senão confiar na IA”, escreveu.

Evitar esse limiar é especialmente importante porque a IA está sendo cada vez mais integrada em sistemas críticos – por exemplo: redes elétricas, internet e sistemas militares.

Em sistemas críticos, a confiança é primordial, e comportamentos indesejados podem ter consequências fatais. À medida que a integração da IA se torna mais complexa, torna-se ainda mais importante resolver problemas que limitam a confiabilidade.

Trecho do artigo escrito por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), e publicado no The Conversation