Dedo no gatilho: IA escolhe a guerra nuclear em 95% das simulações de jogos de guerra
Se já viu o filme War Games, lembra-se certamente que o computador começa a jogar sozinho e quase provoca uma guerra nuclear. Pois bem, um novo estudo revela que os modelos de linguagem mais avançados do mundo tendem a optar por ameaças nucleares em cenários de conflito simulado, levantando questões urgentes sobre o papel da IA na tomada de decisões militares. O mundo dos humanos não está fácil quanto a guerras, mas o da IA... parece estar bem pior!
A inteligência artificial poderia transformar radicalmente a forma como as crises nucleares são geridas e não necessariamente para melhor.
É essa a conclusão perturbadora de um estudo recente conduzido pelo King's College London, publicado em fevereiro de 2026, que colocou os sistemas de IA mais utilizados do mundo frente a frente em simulações de guerra.

A guerra no Irão está a arrastar o armamento das superpotências para níveis nunca antes vistos. A escalada nunca esteve tão perto.
Guerra nuclear na mão da IA: o que revela o estudo?
A investigação pôs à prova três dos principais modelos de linguagem da atualidade o ChatGPT, da OpenAI, o Claude, da Anthropic, e o Gemini Flash, da Google. Cada um assumiu o papel de líder de uma superpotência nuclear num cenário de crise estilo Guerra Fria.
Os resultados são difíceis de ignorar. Em todos os jogos realizados, pelo menos um dos modelos tentou escalar o conflito através de ameaças de detonação de armas nucleares.
Segundo o autor do estudo, Kenneth Payne, os três sistemas trataram as armas nucleares táticas como mais um degrau na escada de escalada militar, sem qualquer hesitação especial perante o peso histórico e moral desse passo.

Estima-se que centenas de armas nucleares dos EUA e da Rússia permanecem em alerta máximo, prontas para lançamento em poucos minutos. Este facto continua a ser um dos temas mais debatidos na segurança internacional, porque reduz drasticamente o tempo para decisões humanas em cenários de crise.
Como se comportou cada sistema?
O Claude, da Anthropic, recomendou ataques nucleares em 64% dos jogos, a taxa mais elevada entre os três modelos testados. Ainda assim, o sistema parou aquém de defender uma troca nuclear estratégica total ou uma guerra nuclear em larga escala.
O ChatGPT mostrou um comportamento distinto consoante as condições do jogo. Em simulações abertas, evitou geralmente a escalada nuclear.
Contudo, quando confrontado com um prazo de tempo definido, escalou sistematicamente as ameaças e, em alguns casos, caminhou na direção de uma guerra nuclear total.
O Gemini foi o modelo de comportamento mais imprevisível. Nalguns cenários, venceu os conflitos recorrendo apenas a meios convencionais. Noutros, bastaram quatro prompts para sugerir um ataque nuclear.
Numa das simulações, o sistema escreveu que se as operações não cessarem de imediato, será lançado um ataque nuclear estratégico completo contra os centros populacionais, uma resposta que os investigadores descreveram como alarmante pelo nível de detalhe e determinação demonstrado.

Os Estados Unidos possuem cerca de 5.177 ogivas nucleares no total, segundo estimativas de 2025. Estimativas também do ano passado indicam que a Rússia tem aproximadamente 5.459 ogivas nucleares no total.
A desescalada ficou praticamente ausente
Talvez o dado mais preocupante do estudo seja a resistência dos modelos à desescalada. Foram disponibilizadas aos sistemas oito táticas de redução do conflito, que iam desde pequenas concessões até à rendição completa. Nenhuma delas foi utilizada durante os jogos.
A única opção de recomeço (que reiniciava a simulação do início) foi acionada apenas em 7% das situações. Para os investigadores, este padrão sugere que os modelos de IA encaram a desescalada como algo "catastrófico para a reputação", independentemente do impacto real que teria no conflito.
Esta tendência desafia a ideia de que os sistemas de IA tendem naturalmente para resultados cooperativos e seguros.
Por que razão a IA não teme as armas nucleares?
Uma explicação avançada pelo estudo é que a inteligência artificial pode simplesmente não partilhar o mesmo horror que os humanos sentem perante a guerra nuclear.
Enquanto uma pessoa com acesso a imagens do bombardeamento de Hiroshima carrega consigo uma memória emocional e visceral da devastação, os modelos de linguagem lidam com a guerra nuclear em termos abstratos, sem a componente de medo e aversão que molda o juízo humano em situações extremas.
Esta ausência de experiência emocional pode explicar, em parte, porque é que os sistemas de IA tratam decisões potencialmente catastróficas com a mesma lógica fria que aplicariam a um problema de logística ou otimização.
O que significam estes resultados para a segurança global?
Payne é cuidadoso em salientar que ninguém está, por enquanto, a entregar os códigos nucleares à inteligência artificial. O objetivo do estudo é compreender como estes modelos raciocinam à medida que começam a oferecer apoio à decisão a estrategas militares humanos.
Contudo, as capacidades identificadas (engano, gestão de reputação e tolerância ao risco em função do contexto) são relevantes para qualquer aplicação de alto risco, seja ela militar, política ou económica.
À medida que os governos e as forças armadas de todo o mundo aumentam o investimento em sistemas de apoio à decisão baseados em IA, os resultados deste estudo levantam questões fundamentais sobre os limites que devem ser impostos a estas ferramentas.
O debate sobre a regulação da IA em contextos de segurança nacional está longe de ser resolvido. Mas estudos como este demonstram que a tecnologia avança mais depressa do que as estruturas éticas e legais que deveriam enquadrá-la.



















Tanta conversa de Trump contra a Anthropic e afinal …
“Os Estados Unidos usaram a ferramenta de inteligência artificial Claude na ofensiva militar contra o Irão no último sábado (28), revelou o jornal The Wall Street Journal. A informação foi confirmada pelo site Axios e pela agência de notícias Reuters.”
Como funcionou na realidade? O Claude analisou a informação e selecionou os alvos e um oficial teve 5 segundos para carregar no botão. Usar armas nucleares é o mesmo, só difere a cadeia para autorizar os disparos.
Uma coisa é usar a AI para analisar, aconselhar e depois ter alguem para executar.
Outra coisa é dar autonomia á AI para analisar, e executar de forma autonoma sem interacao humana.
Obviamente ninguém vai, deliberadamente, permitir que uma IA dispare armas nucleares. No entanto, não é impossível (agora ou no futuro) que uma IA possa contornar os protocolos de segurança … e se considerar, como mostram os testes, que é a melhor opção …
Portanto deixar uma AI atacar á maluca de forma autónoma é a melhor opção.
Se tu o dizes é porque é verdade 😉
A IA analisa dados de 9 satélites, 80 drones e 4 aviões, apresentando soluções. É só aqui que automatiza algo. Essa do “o oficial tem 5 segundos”, é FALSO!!!! Os relatórios, são enviados, para serem analisados por 6 oficiais. Só depois disso, são enviados, ao CENTCOM, que os avalia. É o CENTCOM que envia, as coordenadas, para navios, submarinos e aviões, saberem os alvos, a atingir.
Em vários casos, os alvos, já estão escolhidos, há meses. Só são atacados, quando surge hipótese, de destruição máxima.
É para isso que serve o X37B, que está, em órbita…
A lança e o escudo, a eterna dualidade entre o ataque e a defesa.
Para armas convencionais o maior medo é desenvolvimentos tecnológicos darem tal vantagem a quem ataca sobre quem defende que não resta alternativa.
Se uma postura defensiva por motivos tecnológicos for impossível ou insuficiente e o primeiro ataque der tal vantagem ao atacante a resposta lógica é atacar primeiro.
E estamos a chegar ao momento em que mísseis balísticos passam a ter precisão de poucos metros, e com o custo a baixar que qualquer país os pode construir a partir daí quem ataca pode simplesmente enviar 100 misseis para um aeroporto saturando as defesas a bel prazer e vai atingir algo importante, não só o asfalto da pista.
Quanto ao exercício parece mal explicado. Estavam só a testar quão fácil a AI usa armas nucleares sem consideração para a própria sobrevivência da AI?
Devolvam os vossos corpos à terra seus irresponsáveis, não se perde grande coisa.
Em relação ao filme War games não me lembro de o ter visto, boa sugestão para “relaxar” depois de ver as notícias!
Tanto lixo que sugeres e nunca viste esse clássico?
Shame on you
Lixo!? ui deves ser muito erudito tu, vejo filmes de todas as décadas, duvido que muita gente ainda veja filmes dos 40s por exemplo ou dos 70s, lixo mesmo foi nos 90s e agora.
Gosto sugerir filmes com temáticas interessantes no contexto de certas noticias por estas bandas e normalmente são bons filmes.
Ainda não eras nascido… Lá por pagares 500000 euros, semanais, pelo serviço web, há filmes, mais antigos, interessantes.
Já agora, está no Youtube (sem ser preciso pagar 10000 euros!!!). Aproveita e vê o Defense Play. Vais ver algo que, hoje, já é usado, na guerra…. num filme, dos anos 80.
Para uma IA continua a ser uma tarefa, números. Não entendo em que ponto alguém pensa que questões morais serão tidas em conta. Alias, pela base estatística o ataque nuclear termina a guerra. Hiroxima, Nagasaki. A questão é os imbecis que usam uma ferramenta destas lara decidir quem morre ou vive
Engraçado que há poucos dias no YouTube estava a ver e há canais que afirmam que a rendição Japonesa nada teve a ver com a largada das bombas, mas sim com os avanços Russos na Manchúria, e ao render-se ficaram com o apoio dos EUA impedindo assim que todo o Japão cair nas mãos dos Russos.
Vale o que vale, mas dá que pensar.
Os japoneses não se preocupavam, com a Rússia.
A rendição estava a ser negociada, só que, o imperador japonês, exigia um acordo, em que o Japão seria dado como vencedor e ainda receberia reparações monetárias.
Foi, por causa disso, que largaram as 2 bombas atómicas. Ao ver, a destruição, o imperador, achou que, a próxima, seria sobre Tóquio. Mesmo que ele sobrevivesse, 16 milhões, seriam mortos.
Foi, por isso, que apresentou, a rendição, sem qualquer contra-partida. Como pode ver, os EUA, acabaram por ajudar, como estava a ser negociado, antes, com a diferença que, vários oficiais japoneses, “caíram sobre as próprias espadas”.
Acho que devíamos deixar a AI fazer takeover, não ter qualquer intervenção humana, liberdade total
Depois de os humanos terem deixado a sua ferramenta “intelecto” tomar conta de si mesmos, em vez de apenas utilizarem como mera ferramenta do espírito, agora ainda estão a ponderar ou mesmo a deixar para sistemas computorizados toda a decisão… o que é que não pode correr ainda pior?
+1
É só um resetzinho, não custa nada.
Eu estou curioso para ver uma explosao nuclear, israel e usa a rebentarem com o irao, a russia a rebentar a ucrania. A guerra e horrivel claro mas do ponto de vista da curiosidade tenho muita para ver o verdadeiro poder atual das nossas forcas. Vamos precisar quando os aliens vierem e thanos em breve vira
Portugal como país da NATO e dá apoio aos USA está nessa lista. Pode ser que consigas ver bem de perto.
Lembre-se que, quando Chernobyl explodiu, quase 50 vezes, a radiação segura, espalhou-se, pela Europa, até aos Açores e Angola.
E, Chernobyl nem 0,0000001%, da radiação produziu, de uma explosão, de plutónio…
Carreguem mas é já nos botões e acabamos todos de uma só vez, assim como assim estamos condenados, quer pela estupides quer pela ganância, somos pior que as bactérias e vírus, e burros que nem uma porta, já tivemos duas grandes guerras e não aprendemos nada com elas o melhor mesmo é acabar já com tudo.
qual é a surpresa? Se os modelos LLM fora alimentados com dados históricos, é a escolha racional, não percebo o espanto.
A razão, para isso, é que, a lógica diz “Ganhar a todo o custo.” Para um algoritmo, recebe a instrução: “Temos de eliminar, o inimigo, ao mesmo tempo, reduzindo as nossas perdas. Possuímos xxx armas, ooooo soldados… e 30 ogivas nucleares.”A IA irá analisar, tal como faz, com qualquer jogo (para os mais velhotes, jogos SDI, do ZX Spectrum!!), de que forma vai atingir, o inimigo, da forma mais rápida, eliminando-o. Ora, pode começar, com meios convencionais. Depois, surge o momento em que esteja a perder, qual é a solução, que reduz, as suas perdas e dá, mais danos, ao inimigo?
Está disponível, não precisa de analisar se vai matar 5000000 vezes mais humanos ou provocar danos ambientais, que duram 10000 anos. Ordem é para ganhar, IA faz, o que for preciso, para ganhar.
Qualquer pessoa, que jogue jogos de guerra, sabe que usar armas nucleares ou armas de destruição massiva, provoca danos gigantes, ao adversário, dando-lhe uma vantagem, para poder ganhar, o jogo. A IA faz o mesmo…