A presença da tecnologia, nomeadamente dos robôs assassinos, tem um sabor agridoce. Por um lado, a máquina assusta-nos. Por outro, somos muito mais eficazes com a ajuda da tecnologia. Mas se esperamos de um soldado humano um comportamento robótico, por que não nos livramos do humano e ficamos apenas com a máquina? É o enigma ético que se impõem.
De acordo uma declaração recente do Departamento de Defesa dos Estados Unidos, os seres humanos tomarão sempre a decisão final sobre se os robôs armados podem ou não disparar. Este esclarecimento surge após ter sido conhecido o programa ATLAS, que usará Inteligência Artificial em veículos de combate.
Apesar de as pessoas se sentirem, de certa forma, desconfortáveis com o termo “robôs assassinos”, a verdade é que eles não são nenhuma novidade – robôs SWORDS com metralhadoras foram implementados no Iraque, em 2017.
Mas a nossa relação com robôs militares é até mais remota, uma vez que quando dizemos “robô” referimo-nos a qualquer tecnologia com um elemento autónomo que permita realizar uma tarefa sem a necessidade se um ser humano intervir diretamente – e este tipo de tecnologia já existe há muito tempo.
Durante a II Guerra Mundial, por exemplo, o fusível de proximidade foi desenvolvido para explodir projéteis de artilharia a uma distância predeterminada do alvo, tornando as bombas muito mais eficazes do que teriam sido.
Desta forma, a questão que se impõem não é se deveríamos usar sistemas de armas autónomos em batalha (porque já os usamos há muito tempo), mas sim concentrarmo-nos na forma como os usamos e o papel que a intervenção humana deve tomar.
Na II Guerra Mundial, o matemático Norbert Wiener lançou as bases da cibernética e, ao estudar os desvios entre o movimento previsto de uma aeronave e o seu movimento real, Wiener e seu colega Julian Bigelow criaram o conceito de “ciclo de retroalimentação”, no qual os desvios poderiam ser introduzidos no sistema a fim de corrigir outras previsões.
A teoria de Wiener foi, portanto, muito mais além, na medida em que a tecnologia cibernética poderia ser usada para antecipar decisões humanas – removendo o humano falível do circuito e tornando os sistemas de armas mais eficazes.
Segundo uma análise recentemente publicado no Phys.org, escrita pelo jornalista Myke Ryder, o próximo passo é eliminar por completo o humano e, assim, maximizar os resultados militares, ao mesmo tempo que se minimiza o custo político associado à perda de vidas aliadas.
Foram estes argumentos que levaram ao uso de drones militares pelos Estados Unidos. Apesar de ser uma decisão controversa, em termos militares, ela prova ser uma boa escolha. Mas uma das questões mais controversas relacionadas com a “guerra de drones” é o papel do piloto do drone.
Um piloto de drone, ou operador, não toma uma decisão humana. Em vez disso, limita-se a fazer o trabalho que estão destinados a fazer. Isto é, se o computador diz para matar, existe algum motivo que faça esse piloto de drone recuar?
O mesmo se aplica aos soldados modernos, que carregam um sistema de navegação GPS e vários outros dispositivos que os condicionam. Mas é aqui também que entra em jogo o enigma ético – se o objetivo do soldado é seguir as ordens da máquina, então por que existem soldados humanos?
As máquinas acabam por ser muito mais eficientes do que os seres humanos e não sofrem de fadiga nem stress, por exemplo. Se esperamos de um soldado humano um comportamento robótico, por que não nos livramos do humano e ficamos apenas com a máquina?
Segundo o Phys.org a resposta é simples: o ser humano não passa de um álibi ou uma forma de “cobertura ética” para aquilo que é, na realidade, um ato robótico quase totalmente mecânico. O papel do ser humano no novo sistema ATLAS do Departamento de Defesa norte-americano é simplesmente servir de cobertura ética no caso de as coisas correrem mal.
Na verdade, a tecnologia não é tão nova assim. Os sistemas autónomos estão há muito tempo incorporados nas forças armadas e devemos estar preparados para as consequências – quer sejam elas éticas, físicas ou morais.
fonte: ZAP