Segunda-feira, 09/03/26

Guerra no Irã consolida Oriente Médio como laboratório de uso de IA em conflitos

Guerra no Irã consolida Oriente Médio como laboratório de uso de IA em conflitos
Guerra no Irã consolida Oriente Médio como laboratório de uso – Reprodução

MAURÍCIO MEIRELES
FOLHAPRESS

A guerra contra o Irã tem consolidado a transformação do Oriente Médio em um laboratório de uso de IA em conflitos. A nova tecnologia tem sido usada na interpretação de dados de inteligência, análise de imagens de satélite e identificação de alvos, entre outras aplicações -tudo diante de debates éticos ainda abertos sobre quando o uso da inteligência artificial é, literalmente, uma questão de vida ou morte.

O emprego da IA nos ataques ao regime iraniano é a eclosão de um processo que começou em 2017, quando o Departamento de Defesa dos Estados Unidos criou o chamado Projeto Maven, a fim de aplicar aprendizado de máquina na análise de imagens de drones. Desde então, o projeto foi evoluindo com contratos assinados entre o governo americano e big techs.

O Maven Smart System (MSS) é desenvolvido pela Palantir, do bilionário republicano Peter Thiel. Segundo anúncios públicos do Pentágono, o uso dessa ferramenta foi expandido no governo do republicano, e hoje ela é usada por mais de 20 mil militares.

O governo americano também já informou que, desde 2024, o sistema está integrado ao Claude, modelo de linguagem desenvolvido pela Anthropic. Sim, é a mesma empresa hoje em confronto com o presidente Donald Trump, que ordenou o cancelamento de contratos com a companhia horas antes de começar a bombardear o Irã.

Analistas atribuem à dupla Maven e Claude a capacidade de atingir 1.000 alvos no Irã já no início do conflito. Em um comunicado em vídeo depois dos primeiros ataques, o almirante Brad Cooper, que lidera o Comando Central dos Estados Unidos, lembrou as operações de “choque e horror” que iniciaram a guerra contra o Iraque, em 2003; e acrescentou que a escala dos de agora é duas vezes maior.

“É evidente que a rapidez desses ataques causa certas preocupações, é a primeira vez que uma operação militar de grande porte utiliza a IA de forma tão central”, diz Oliver Stuenkel, pesquisador do Belfer Center na Harvard Kennedy School (HKS).

Para planejar um ataque, os militares precisam atravessar um amontoado de informações de inteligência. Não são só imagens de satélite, mas também dados de informantes e horas de escutas interceptadas, entre outros tipos de informação.

Fontes militares têm dito à imprensa americana que, antes dessas ferramentas, só era possível processar no máximo 4% dos dados coletados sobre o inimigo, atrasando o processo de transformar inteligência em ataques reais. Mas isso mudou.

“Uma questão importante é o reconhecimento automático de alvos, usando visão computacional para reconhecer objetos no campo de batalha. Isso ajuda a acelerar as decisões”, diz Vitelio Brustolin, professor de relações internacionais da Universidade Federal Fluminense.

De fato, o que se aponta é que antes os soldados precisavam identificar alvos a olho nu nas imagens de satélite, cruzando-as com outras informações de inteligência para evitar erros. E a dupla Maven e Claude conseguiria apontar veículos, radares, lançadores de foguetes etc., ajudando a pular uma etapa.

Já há pesquisas mensurando o ganho de eficiência. Um estudo do Center for Security and Emerging Technology, da Universidade Georgetown, por exemplo, avaliou o uso do sistema Maven em exercícios militares em 2024. E concluiu que a tecnologia permitiu que uma célula militar tivesse, com 20 pessoas, um desempenho semelhante ao de unidades que, na guerra do Iraque, exigiam mais de 2.000 soldados.

Ferramentas assim se tornam cruciais num contexto em que a tecnologia também ajuda a aumentar e muito a quantidade de informação coletada. O jornal americano Financial Times, por exemplo, revelou que a inteligência israelense hackeou as câmeras de trânsito de Teerã antes do ataque que matou o aiatolá Ali Khamenei.

Aliado dos Estados Unidos, Israel já vinha colocando em prática seus próprios experimentos, no conflito contra o Hamas na Faixa de Gaza. Uma investigação do jornal britânico The Guardian, em 2024, mostrou que um sistema de IA indicou 37 mil palestinos que teriam ligações com o Hamas. Na ocasião, o Exército do país rebateu dizendo que a ferramenta não era uma lista de alvos já confirmados e que não usa a IA para identificar terroristas.

Essa aplicação da nova tecnologia tem gerado preocupação entre quem debate a ética da IA. Os críticos apontam que, ao acelerar a cadeia de decisões entre detectar um alvo e atacá-lo, aumenta a probabilidade de erros -e questionam até responsabilidade legal em casos assim. Os ataques de 28 de fevereiro a Teerã, por exemplo, mataram ao menos 165 civis ao atingir uma escola. E, desde então, acumulam-se evidências de que os responsáveis foram os EUA.

Na prática, o debate em pauta é sobre os riscos de automatizar decisões de vida ou morte. Já em 2018, funcionários do Google iniciaram um protesto ao descobrir que a empresa estava colaborando com o projeto Maven, levando a companhia a anunciar que não renovaria o contrato com o Pentágono e a criar novas diretrizes éticas.

Na polêmica de agora com a Anthropic, a empresa se recusou a suspender salvaguardas do Claude, impedindo o uso da ferramenta para vigilância de cidadãos e construção de armas autônomas (estas são uma das maiores preocupações de quem atua no campo da segurança da IA). Isso levou Trump a decidir punir a empresa, suspendendo seus contratos.

Diante de polêmicas assim, o governo americano tem argumentado que seu uso de IA é feito com “a human in the loop”, um ser humano no processo; mas isso não tem sido suficiente para aplacar as críticas.

Para o pesquisador Oliver Stuenkel, o aumento dessa velocidade não é a única preocupação. Ele diz que essas ferramentas tornam mais fácil iniciar uma guerra, ao diminuir o ônus de quem decide atacar.

“A combinação de drones e inteligência artificial reduz muito o custo financeiro e humano de ações militares”, afirma. “Isso é muito preocupante, porque esse custo sempre foi um dos fatores [que levava países] a pensar duas vezes antes de iniciar um ataque. E pode incentivar ainda mais essa tendência de tentar resolver conflitos atingindo rivais só com bombardeios aéreos e drones.”

Para se ter uma base de comparação, estudos de diferentes centros de pesquisa têm mostrado que, na Ucrânia, os ataques por drones são responsáveis por mais de 70% das mortes.

“A IA vai diminuir o número de exércitos, porque no fundo eles são cada vez menos necessários. E agora estamos falando de uma guerra convencional. Diria que esse conflito no Irã é um marco do ponto de vista tecnológico na história da guerra e vai ter influência em outros conflitos”, diz Stuenkel.

T LB

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *