O ataque de Trump ao Irão e a nova geração de guerras de IA significam que as bombas podem cair mais rápido do que a velocidade do pensamento

A IA entrou na sala de guerra, e os especialistas dizem que não vai a lugar algum tão cedo.

Vídeo Recomendado


Apesar do presidente Donald Trump ter ordenado às agências federais e contratantes militares que cessassem negócios com a Anthropic, o exército dos EUA teria utilizado o modelo de IA da empresa, Claude, em seu ataque ao Irã, de acordo com o Wall Street Journal.

Agora, alguns especialistas estão levantando preocupações sobre o uso de IA em operações de guerra. “A máquina de IA está fazendo recomendações sobre o que atacar, o que na verdade é muito mais rápido, em alguns aspectos, do que o próprio pensamento,” disse Craig Jones, autor de The War Lawyers: The United States, Israel, and Juridical Warfare, que examina o papel dos advogados militares na guerra moderna, ao Guardian.

Em uma conversa com a Fortune, Jones, professor na Universidade de Newcastle sobre guerra e conflito, afirmou que a IA acelerou enormemente a “cadeia de morte”, comprimindo o tempo desde a identificação inicial do alvo até a destruição final. Ele disse que os ataques dos EUA e de Israel ao Irã, que resultaram na morte do aiatolá Ali Khamenei, talvez não tivessem acontecido sem a IA.

“Seria impossível, ou quase impossível, fazer dessa forma,” disse Jones à Fortune. “A velocidade com que foi realizado, e a magnitude e volume dos ataques, acho que são possibilitados pela IA.”

O Pentágono recrutou empresas de IA para acelerar e aprimorar o planejamento de guerra, entrando numa parceria com a Anthropic em 2024, que desmoronou na semana passada devido a desacordos sobre o uso do modelo de IA da empresa, Claude. Mas a OpenAI rapidamente fechou um acordo com o Pentágono, e a xAI de Elon Musk firmou um acordo para usar o modelo de IA da empresa, Grok, em sistemas classificados. O Exército dos EUA também utiliza o software da Palantir, especializada em mineração de dados, para obter insights habilitados por IA para tomada de decisão.

IA no campo de batalha

Jones afirmou que a Força Aérea dos EUA usa há anos a “velocidade do pensamento” como referência para o ritmo de tomada de decisão. Ele disse que o tempo desde a coleta de inteligência, como reconhecimento aéreo, até a execução de uma missão de bombardeio, podia levar até seis meses durante a Segunda Guerra Mundial e a Guerra do Vietnã. A IA reduziu significativamente esse prazo.

O papel principal das ferramentas de IA na sala de guerra é analisar rapidamente grandes volumes de dados. “Estamos falando de terabytes e mais terabytes de dados,” disse Jones, “de imagens aéreas, inteligência humana, inteligência da internet, rastreamento de telefones móveis, tudo e qualquer coisa.”

Amir Husain, coautor de Hyperwar: Conflict and Competition in the AI Century, afirmou que a IA está sendo usada para comprimir o quadro de decisão do exército dos EUA, conhecido como ciclo OODA — observar, orientar, decidir e agir. Ele disse que a IA já desempenha um papel importante na observação, na interpretação de dados de satélites e eletrônicos, na tomada de decisão tática, e na fase de “ação”, especialmente através de drones autônomos que devem operar sem orientação humana quando sinais são bloqueados. Alguns desses drones são cópias dos próprios drones autônomos Shahed do Irã.

A IA também apareceu em outros campos de batalha. Israel teria usado IA para identificar alvos do Hamas durante a guerra Israel-Hamas. E drones autônomos estão na linha de frente na guerra Rússia-Ucrânia, com ambos os lados empregando alguma variação de tecnologia autônoma.

Multiplicação de riscos

No entanto, Jones alertou para várias preocupações em relação à guerra habilitada por IA. “O problema ao adicionar IA é que você multiplica, por ordens de magnitude, os erros,” disse Jones.

Para garantir, Jones afirmou que o erro humano existe com ou sem tecnologia de IA, citando a invasão dos EUA ao Iraque em 2003, uma guerra baseada em inteligência falha. Mas ele disse que a IA poderia agravar esses erros devido à quantidade de dados que a tecnologia analisa.

Há também uma série de questões éticas levantadas pela guerra com IA, principalmente sobre responsabilidade, algo que Husain disse que as Convenções de Genebra e as leis de conflito armado já exigem que os Estados cumpram. Com a IA borrando as linhas entre decisão de máquina e decisão humana, ele afirmou que a comunidade internacional deve garantir que a responsabilidade humana seja atribuída a todas as ações no campo de batalha.

“As leis de conflito armado exigem que responsabilizemos a pessoa,” disse Husain. “A pessoa deve ser responsabilizada, independentemente do nível de automação usado no campo de batalha.”

Participe conosco na Cúpula de Inovação no Local de Trabalho da Fortune, de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o manual antigo está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar