Qual é a política atualizada do Pentágono sobre robôs assassinos?

O Pentágono emitiu um atualização de sua Diretiva 3000.09, que cobre o que eles denominam Autonomia em Sistemas de Armas e outros chamam 'robôs assassinos.' Drones atuais como a Força Aérea e a CIA Ceifadores MQ-9 são operados por controle remoto: um ser humano sentado em frente a uma tela de vídeo identifica alvos no solo a milhares de quilômetros de distância, coloca-os na mira e dispara um Míssil Hellfire ou outra arma. As armas autônomas são diferentes: elas escolhem seus próprios alvos sem nenhuma intervenção humana. São necessárias regras claras sobre quando e como podem ser usadas, e a nova diretiva as aproxima um pouco mais.

Dez anos atrás, quando a primeira versão do 3000.09 foi lançada, as armas autônomas pareciam ficção científica. Agora eles são muito reais. A ONU afirmou que Drones fornecidos pela Turquia atacaram alvos de forma autônoma na Líbia em 2020 e a Rússia agora está implantando munições vadias na Ucrânia com capacidade autônoma.

Muitos ativistas, como o Campanha para parar robôs assassinos, querem uma proibição total de armas autônomas, insistindo que qualquer arma remota permaneça sob controle humano significativo em todos os momentos. A ONU vem debatendo como controlar tais armas por muitos anos.

No entanto, como a nova diretiva deixa claro, o Pentágono segue uma linha diferente.

“O DoD sempre se opôs a um padrão de política de 'controle humano significativo' quando se trata de sistemas autônomos e sistemas de IA,” Gregório Allen, diretor do Projeto de Governança de IA da Centro de Estudos Estratégicos e Internacionais, me disse. “O termo de arte preferido do DoD é 'níveis apropriados de julgamento humano', o que reflete o fato de que em alguns casos – aeronaves de vigilância autônoma e alguns tipos de armas cibernéticas autônomas, por exemplo – o nível apropriado de controle humano pode ser pouco ou nenhum .”

Quais armas autônomas seriam permitidas em quais circunstâncias? Allen acredita que a versão anterior da diretiva era tão obscura que desencorajava qualquer desenvolvimento nessa área.

“A confusão era tão difundida – inclusive entre alguns líderes seniores do DoD – que as autoridades estavam se abstendo de desenvolver alguns sistemas que não eram apenas permitidos pela política, mas também expressamente isentos do requisito de revisão sênior”, diz Allen.

Nem uma única arma foi submetida ao processo de revisão de armas autônomas estabelecido no original 3000.09 nos dez anos desde que foi publicado.

Allen escreveu um ensaio sobre isso para o CSIS no ano passado, descrevendo quatro áreas que precisavam de trabalho – definir formalmente sistemas de armas autônomas, dizer o que “habilitado para IA” significa para a política, como o processo de revisão lidará com modelos de aprendizado de máquina de retreinamento e esclarecer quais tipos de armas precisam passar pelo árduo processo de revisão.

“O DoD implementou todos eles”, diz Allen.

Em princípio, isso deve garantir o que o DoD chama de “compromisso forte e contínuo em ser um líder global transparente no estabelecimento de políticas responsáveis ​​em relação ao uso militar de sistemas autônomos”.

No entanto, existem alguns acréscimos que podem ser vistos como brechas, como uma isenção de revisão sênior para armas autônomas que defendem drones que não visam pessoas ('armas antimateriais') e que seriam autorizados a atingir mísseis, outros drones e potencialmente outros sistemas.

“A palavra 'defender' está fazendo uma tonelada de trabalho,” Zak Kallenborn, disse-me um bolsista da Schar School of Policy and Government da George Mason University. “Se um drone estiver operando em território inimigo, quase qualquer arma pode ser interpretada como ‘defensora’ da plataforma.”

Kallenborn também observa que, embora armas efetivamente autônomas, como minas terrestres, estejam em uso há mais de um século, o cenário está mudando rapidamente devido aos avanços da IA ​​e do aprendizado de máquina específico. Estes deram origem a sistemas que são muito capazes, mas tecnicamente frágil – quando eles falham, eles falham espetacularmente de maneiras que nenhum humano faria, por exemplo confundir uma tartaruga com um rifle.

“A autonomia por meio da IA ​​definitivamente merece mais atenção, dada a fragilidade e a falta de explicabilidade das abordagens atualmente dominantes”, diz Kallenborn.

A atualização não é grande. Mas mostra o compromisso contínuo do Pentágono com o desenvolvimento de armas autônomas eficazes e a crença de que elas podem cumprir Direito Internacional Humanitário — distinguir civis de militares, procurando evitar ferir civis e usar apenas a força proporcional e necessária.

Os ativistas acreditam que a IA não possuirá o entendimento necessário para fazer julgamentos morais em tempos de guerra e corre o risco de criar um mundo onde a guerra é automatizada e os humanos não estão mais no controle. Outros acreditam que os militares dos EUA serão superado por oponentes com armas autônomas a menos que a IA seja incorporada em um nível tático e que muito envolvimento humano desacelera robôs militares.

É provável que o argumento continue mesmo quando as armas autônomas começarem a aparecer, e os resultados serão acompanhados de perto. De qualquer forma, parece que os robôs assassinos estão chegando.

Fonte: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/