UM DRONE TOTALMENTE AUTÔNOMO PARECE TER SELECIONADO E ATACADO ALVOS SEM A SUPERVISÃO DO OPERADOR.
Fonte: Axios
Um comício em Berlim em 2019 para pressionar pelo banimento de armas autônomas. Crédito: Wolfgang Kumm / imagem aliança via Getty Images
A era dos robôs assassinos totalmente autônomos, capazes de identificar e engajar alvos sem supervisão humana, parece ter começado.
Um pequeno drone kamikaze de fabricação turca chamado STM Kargu-2 atacou soldados em retirada durante um conflito civil na Líbia, de acordo com um relatório recente do Conselho de Segurança das Nações Unidas pelo Painel de Peritos na Líbia. O relatório implica, mas não diz explicitamente, que o robô matou soldados humanos. Como Axios observa , o desenvolvimento nos leva a uma nova era preocupante em que a supervisão humana não é mais tecnicamente necessária para travar a guerra e acabar com vidas.
O relatório da ONU se refere ao drone Kargu-2 como uma “munição ociosa”, o que significa que estava pairando no local até que detectou um possível alvo. Nesse sentido, o drone autônomo foi implantado quase como uma mina terrestre aérea, pois poderia atacar um alvo que se aproximasse de uma certa proximidade sem supervisão humana.
“Comboios de logística e retirada [das Forças Afiliadas de Haftar] foram posteriormente caçados e remotamente envolvidos pelos veículos aéreos de combate não tripulados ou os sistemas de armas autônomas letais, como o STM Kargu-2 ... e outras munições vagabundeando", diz o relatório da ONU. “Os sistemas de armas autônomas letais foram programados para atacar alvos sem exigir conectividade de dados entre o operador e a munição: na verdade, uma verdadeira capacidade de 'atirar, esquecer e encontrar'.”
A ascensão de drones assassinos totalmente autônomos é alarmante, mas não surpreendente, já que vários militares poderosos, incluindo os dos EUA , Rússia , China e Reino Unido têm trabalhado em busca de robôs assassinos por anos - apesar do clamor de especialistas e especialistas em ética em todo o mundo .
O que eles estão dizendo: "Se a nova tecnologia tornar a dissuasão impossível, ela pode nos condenar a um futuro em que todos estarão sempre ofendidos", escreve o economista Noah Smith em um post assustador sobre o futuro da guerra. Conclusão: organizações humanitárias e muitos especialistas em IA pediram uma proibição global de armas autônomas letais, mas vários países - incluindo os EUA - ficaram no caminho.
Comments