Por mais falível que um ser humano seja, foi nele que sempre confiamos para tomar decisões de vida e de morte num cenário de conflito. Mas o que o futuro nos reserva com a integração de inteligência artificial (IA) em sistemas de guerra é uma incógnita que preocupa especialistas e devia assustar-nos a todos. Se Barack Obama gerou um grande debate ético, quando deu início a uma nova era de combate com bombardeamentos "cirúrgicos" a milhares de quilómetros de distância e guiados por um controlo remoto, agora a reflexão tem de ser mais profunda.

Num futuro próximo podemos viver numa distopia em que a componente humana é completamente eliminada da decisão "matar ou não matar", como já é teorizado numa escola militar chinesa, segundo a "Foreign Affairs", mas o que hoje já vivemos em cenários como a Ucrânia e Gaza não nos pode deixar descansados. Segundo o "The Guardian", Israel usa em Gaza o até agora desconhecido sistema "Lavender", que cria uma lista de alvos com base na possibilidade de serem combatentes do Hamas. No início do mês, seriam 36 mil alvos criados pelo algoritmo de IA e em que o operador humano não faz mais do dar um "ok" final ao que a máquina decidiu. Um processo bem diferente do debate e ponderação para decidir a pertinência de um alvo. Casas destruídas e mais de uma dezenas de vítimas colaterais são até consideradas aceitáveis, para matar militantes de baixo nível, explica o jornal britânico. IA de apoio à chacina.

Na Ucrânia, já são testados drones com a capacidade de sair em missão, encontrar alvos, decidir atacar e voltar. Por enquanto, a maior parte do uso dos sistemas de IA prende-se com uma maior capacidade de processamento de informação no apoio aos decisores, mas, a certa altura, o Homem será ultrapassado por manifesta incapacidade em acompanhar a máquina. Quem será responsável por estas decisões, mortes e erros, que inevitavelmente vão acontecer? Quem criou o sistema? Quem o ligou? Quem o alimentou com os dados que utilizou para aprender a matar?

Dezenas de países e instituições pedem que haja uma regulação preventiva da utilização de máquinas de matar autónomas, mas este está longe de ser um acordo fácil de obter. E estamos a pensar apenas em Estados de boa-fé (perdoem-me a inocência). E se grupos terroristas como o Estado Islâmico ou um país como a Coreia do Norte obtiverem um destes sistemas? E armas nucleares autónomas? Longe de ser algo parecido com especialista em IA ou guerra, parece-me que a Humanidade está cada vez mais próxima da implosão.

Depois de um falso alarme quase ter espoletado uma guerra nuclear entre os EUA e a URSS em novembro de 1979, Harold Brown, então Secretário da Defesa norte-americano, assegurou a Jimmy Carter que falsos alarmes seriam inevitáveis, mas que as "salvaguardas humanas" evitariam uma crise. Quem nos vai valer quando os computadores controlarem o gatilho?

QOSHE - Quem nos vai valer quando os computadores controlarem o gatilho? - Luís Pedro Carvalho
menu_open
Columnists Actual . Favourites . Archive
We use cookies to provide some features and experiences in QOSHE

More information  .  Close
Aa Aa Aa
- A +

Quem nos vai valer quando os computadores controlarem o gatilho?

64 1
22.04.2024

Por mais falível que um ser humano seja, foi nele que sempre confiamos para tomar decisões de vida e de morte num cenário de conflito. Mas o que o futuro nos reserva com a integração de inteligência artificial (IA) em sistemas de guerra é uma incógnita que preocupa especialistas e devia assustar-nos a todos. Se Barack Obama gerou um grande debate ético, quando deu início a uma nova era de combate com bombardeamentos "cirúrgicos" a milhares de quilómetros de distância e guiados por um controlo remoto, agora a reflexão tem de ser mais profunda.

Num futuro próximo podemos viver numa distopia em que a componente humana é completamente eliminada da decisão "matar ou não matar", como já é teorizado numa escola........

© Jornal de Notícias


Get it on Google Play