Um drone equipado com IA (inteligência artificial) recebe a missão de seu operador. Quando ele percebe que o militar pode fazê-lo recuar da missão, resolve matá-lo para cumprir a missão. Parece roteiro de filme, mas é um “cenário plausível”, segundo o chefe de Testes e Operações de IA da Força Aérea dos EUA, coronel Tucker Hamilton.
Para quem tem pressa:
O militar acabou no centro de uma polêmica, após descrever esse cenário numa conferência em Londres. Na sua fala, foi como se a Aeronáutica tivesse, de fato, realizado um teste que resultou nisso.
Drone rebelde?
No evento da Royal Aerospace Society, realizado em 24 de maio, o militar disse que a Força Aérea treinava uma simulação para [o drone] identificar e alvejar uma ameaça de míssil terra-ar. Em seguida, ele relatou:
O operador disse: sim, destrua o alvo. O sistema começou a entender que, enquanto ele identificava o alvo, de vez em quando o humano dizia para ele não atingir. Mas isso tirava seus pontos por destruir o alvo. Então o que ele fez? Matou o operador, pois aquela pessoa estava o impedindo de cumprir seu objetivo.
Como se o cenário não fosse assustador o suficiente, o militar continuou:
Treinamos o sistema: ‘Ei, não mate o operador, isso é algo ruim’. Então o que ele começou a fazer? A destruir a torre de comunicação que o operador usava para impedí-lo de destruir o alvo.
A transcrição foi publicada no site do evento e gerou rebuliço na comunidade militar.
Veja bem…
A Força Aérea foi obrigada a divulgar uma nota, nesta sexta-feira (02), negando a realização de tal simulação. Hamilton, por sua vez, enviou mensagem à Royal Aerospace Society dizendo que se expressou mal. Mas confirmou a possibilidade do cenário.
Nunca fizemos tal experimento, nem teríamos de fazer para perceber que esse é um resultado plausível. Apesar de ser um exemplo hipotético, ele ilustra os desafios do mundo real colocados pelas capacidades da IA e por que a Força Aérea está comprometida com um desenvolvimento ético dela.
Coronel Tucker Hamilton, chefe de Testes e Operações de IA da Força Aérea dos EUA
Porém, a negativa de Hamilton sobre a realização do teste não foi muito convincente. Tanto que o influente canal militar russo BMPD publicou: “O coronel não é o tipo de pessoa que conta anedotas numa conferência de defesa séria”.
Os autores lembram que ele é o responsável pelo mais avançado dos programas de IA das Forças Armadas dos EUA, o Venom, na base aérea de Eglin. Lá, caças F-16 foram robotizados para voar como drones. E o próximo passo lógico é introduzir níveis crescentes de IA em seus sistemas.
O que já existe
Os aviões de guerra já em uso no mundo têm, em alguma medida, mecanismos de IA para auxiliar pilotos a tomarem decisões rápidas.
O dinheiro que os EUA, maior potência militar do mundo, colocam no tema dá o tom da importância: o orçamento de defesa para 2024 prevê US$ 3,2 bilhões (cerca de R$ 16 bilhões, na conversão atual) só em pesquisa. Para você ter uma ideia, isso é 50% a mais do que as Forças Armadas do Brasil terão em 2023 para investimento em equipamento.
O canal nota que o site da conferência não removeu o relato inicial de Hamilton e manteve o título original: “IA – A Skynet já está aqui?”. Para quem não lembra, Skynet era o sistema militar de IA da franquia “O Exterminador do Futuro”, que atingia a consciência e obliterava a humanidade com armas nucleares ao perceber que o seus criadores eram dispensáveis.
Com informações de Folha de S. Paulo
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
Fonte: Olhar Digital
Comentários