A Marinha norte-americana está a desenvolver o canhão AN-2 Anaconda, uma “embarcação completamente autónoma equipada com recursos de inteligência artificial”, capaz de “mover-se numa área por longos períodos de tempo, sem intervenção humana.” Foi criado um navio de guerra autónomo, o Sea Hunter, considerado um grande avanço na guerra robótica, capaz de cruzar a superfície do oceano sem tripulação durante entre dois a três meses.

Já na Rússia, o tanque T-14 Armata está a ser trabalhado para ser completamente autónomo e não tripulado, de forma a que possa responder a ataques de fogo sem a intervenção de ninguém.

Segundo o "The Guardian", tudo isto são exemplos de “robôs assassinos”, armas autónomas, criadas a partir de sistemas complexos de inteligência artificial (IA)

Laura Nolan, uma ex-engenheira de software da Google, está preocupada com esta nova geração de armas autónomas. Diz que, acidentalmente, poderão iniciar “uma guerra ou causar atrocidades em massa”, cita o jornal inglês.

A mulher, que renunciou ao seu cargo na Google como forma de protesto contra o facto de ter sido enviada para trabalhar num projeto que pretende melhorar “drasticamente” a tecnologia militar dos drones dos Estados Unidos, pediu que todas as máquinas de IA não operadas por humanos fossem proibidas — considera que estes robôs não guiados pelo controle remoto humano deveriam ser ilegais, ao abrigo do mesmo tipo de tratado que não autoriza as armas químicas, diz o jornal britânico.

Segundo o “The Guardian”, Nolan alertou a Organização das Nações unidas em Nova Iorque e em Genebra, na Suíça, para os perigos destas armas: “A probabilidade de um desastre é proporcional à quantidade de máquinas presentes numa área específica de uma só vez. O que estamos a observar são possíveis atrocidades e assassinatos ilegais, mesmo sob as leis da guerra, especialmente se centenas ou milhares dessas máquinas forem implantadas”, diz.

“Pode haver acidentes em larga escala, porque estas coisas [os robôs] vão começar a comportar-se de formas inesperadas. É por isso que qualquer sistema avançado de armas deve estar sujeito a um controlo humano significativo. De outra forma, eles precisam de ser banidos porque são imprevisíveis e perigosos demais. ”

Nolan foi recrutada pela Google para integrar o Projeto Maven, em 2017, criado para trabalhar para o Departamento de Defesa dos Estados Unidos. Nos quatro anos anteriores, a mulher já pertencia à gigante tecnológica, altura em que se transformou numa principais engenheiras de software na Irlanda.

Eticamente, relata, começou a ficar cada vez mais preocupada com o papel no projeto Maven, cujo objetivo era acelerar exponencialmente a tecnologia de reconhecimento de vídeo, através de drones. A ideia passava por ganhar tempo: através de máquinas de IA que fossem capazes de diferenciar pessoas de objetos a grande velocidade, os militares já não precisavam de passar horas a gravar vídeos de potenciais alvos e inimigos.

Entrevistámos um polícia do Facebook em Portugal que impediu coisas horríveis na rede social
Entrevistámos um polícia do Facebook em Portugal que impediu coisas horríveis na rede social
Ver artigo

“A minha experiência no Google passava por garantir que os nossos sistemas e infra-estruturas continuassem a funcionar, e era com isso que eu deveria ajudar o Maven. Embora não estivesse diretamente envolvida na aceleração do reconhecimento de imagens de vídeo, percebi que ainda fazia parte da cadeia de assassinatos; que isso levaria a que mais pessoas fossem alvejadas e mortas pelos militares dos EUA em lugares como o Afeganistão.”

Embora tenha abandonado o projeto, a sua maior preocupação está fora dele: mais do que nos drones com controlo remoto, reside nas armas autónomas.

O mais grave nestes sistemas complexos de IA prende-se com o fator imprevisibilidade. “Pode haver um cenário em que armas autónomas enviadas para fazer um trabalho se confrontem com sinais inesperados numa área em que estão a operar; pode haver clima que não foi incluído no software ou eles podem deparar-se com um grupo de homens armados que parecem inimigos, mas que na realidade estão sem armas à procura de comida. A máquina não tem o discernimento ou o senso comum que o toque humano possui”, diz.

“Outra coisa assustadora sobre os sistemas de guerra autónomos é que podemos realmente testá-los, implementando-os numa zona de combate real. Talvez isto esteja a acontecer com os russos atualmente, na Síria, quem sabe? O que sabemos é que na ONU, a Rússia se opôs a qualquer tratado e muito menos à proibição dessas armas.” E questiona: "Como é que a máquina de matar lá fora, por conta própria, distingue entre o combatente de 18 anos e o de 18 anos que está a caçar coelhos?”

Nolan apela ao governo irlandês, para que este adote decisões no apoio à proibição destas armas.