A Marinha norte-americana está a desenvolver o canhão AN-2 Anaconda, uma “embarcação completamente autónoma equipada com recursos de inteligência artificial”, capaz de “mover-se numa área por longos períodos de tempo, sem intervenção humana.” Foi criado um navio de guerra autónomo, o Sea Hunter, considerado um grande avanço na guerra robótica, capaz de cruzar a superfície do oceano sem tripulação durante entre dois a três meses.
Já na Rússia, o tanque T-14 Armata está a ser trabalhado para ser completamente autónomo e não tripulado, de forma a que possa responder a ataques de fogo sem a intervenção de ninguém.
Segundo o "The Guardian", tudo isto são exemplos de “robôs assassinos”, armas autónomas, criadas a partir de sistemas complexos de inteligência artificial (IA)
Laura Nolan, uma ex-engenheira de software da Google, está preocupada com esta nova geração de armas autónomas. Diz que, acidentalmente, poderão iniciar “uma guerra ou causar atrocidades em massa”, cita o jornal inglês.
A mulher, que renunciou ao seu cargo na Google como forma de protesto contra o facto de ter sido enviada para trabalhar num projeto que pretende melhorar “drasticamente” a tecnologia militar dos drones dos Estados Unidos, pediu que todas as máquinas de IA não operadas por humanos fossem proibidas — considera que estes robôs não guiados pelo controle remoto humano deveriam ser ilegais, ao abrigo do mesmo tipo de tratado que não autoriza as armas químicas, diz o jornal britânico.
Segundo o “The Guardian”, Nolan alertou a Organização das Nações unidas em Nova Iorque e em Genebra, na Suíça, para os perigos destas armas: “A probabilidade de um desastre é proporcional à quantidade de máquinas presentes numa área específica de uma só vez. O que estamos a observar são possíveis atrocidades e assassinatos ilegais, mesmo sob as leis da guerra, especialmente se centenas ou milhares dessas máquinas forem implantadas”, diz.
“Pode haver acidentes em larga escala, porque estas coisas [os robôs] vão começar a comportar-se de formas inesperadas. É por isso que qualquer sistema avançado de armas deve estar sujeito a um controlo humano significativo. De outra forma, eles precisam de ser banidos porque são imprevisíveis e perigosos demais. ”
Nolan foi recrutada pela Google para integrar o Projeto Maven, em 2017, criado para trabalhar para o Departamento de Defesa dos Estados Unidos. Nos quatro anos anteriores, a mulher já pertencia à gigante tecnológica, altura em que se transformou numa principais engenheiras de software na Irlanda.
Eticamente, relata, começou a ficar cada vez mais preocupada com o papel no projeto Maven, cujo objetivo era acelerar exponencialmente a tecnologia de reconhecimento de vídeo, através de drones. A ideia passava por ganhar tempo: através de máquinas de IA que fossem capazes de diferenciar pessoas de objetos a grande velocidade, os militares já não precisavam de passar horas a gravar vídeos de potenciais alvos e inimigos.
“A minha experiência no Google passava por garantir que os nossos sistemas e infra-estruturas continuassem a funcionar, e era com isso que eu deveria ajudar o Maven. Embora não estivesse diretamente envolvida na aceleração do reconhecimento de imagens de vídeo, percebi que ainda fazia parte da cadeia de assassinatos; que isso levaria a que mais pessoas fossem alvejadas e mortas pelos militares dos EUA em lugares como o Afeganistão.”
Embora tenha abandonado o projeto, a sua maior preocupação está fora dele: mais do que nos drones com controlo remoto, reside nas armas autónomas.
O mais grave nestes sistemas complexos de IA prende-se com o fator imprevisibilidade. “Pode haver um cenário em que armas autónomas enviadas para fazer um trabalho se confrontem com sinais inesperados numa área em que estão a operar; pode haver clima que não foi incluído no software ou eles podem deparar-se com um grupo de homens armados que parecem inimigos, mas que na realidade estão sem armas à procura de comida. A máquina não tem o discernimento ou o senso comum que o toque humano possui”, diz.
“Outra coisa assustadora sobre os sistemas de guerra autónomos é que podemos realmente testá-los, implementando-os numa zona de combate real. Talvez isto esteja a acontecer com os russos atualmente, na Síria, quem sabe? O que sabemos é que na ONU, a Rússia se opôs a qualquer tratado e muito menos à proibição dessas armas.” E questiona: "Como é que a máquina de matar lá fora, por conta própria, distingue entre o combatente de 18 anos e o de 18 anos que está a caçar coelhos?”
Nolan apela ao governo irlandês, para que este adote decisões no apoio à proibição destas armas.