Exército dos EUA usa a IA Claude para atacar a Venezuela e capturar Maduro
A guerra mudou! Segundo o Wall Street Journal, o Claude, a IA da Anthropic, participou na operação militar norte-americana contra Nicolás Maduro, em Caracas. Esta terá sido a primeira vez que uma IA comercial é usada num ataque classificado. Estará aberta a caixa de Pandora?
Não podemos comentar a utilização do Claude, nem de qualquer outro modelo de IA, no âmbito de uma operação específica, classificada ou não.
Declarou um porta-voz da Anthropic. O Departamento de Defesa também recusou comentar.
Todos mantêm silêncio, mas o Claude terá sido utilizado durante bombardeamentos destinados a capturar o antigo presidente venezuelano e a sua esposa. E foi a Palantir, empresa de Peter Thiel que equipa o exército norte-americano com software de análise há vinte anos, que terá tornado isso possível.
Ora, a política de utilização da Anthropic proíbe explicitamente três usos:
- facilitar a violência;
- desenvolver armas;
- conduzir operações de vigilância.
Um ataque militar com bombardeamentos preenche, pelo menos, dois desses três critérios.

A missão para capturar Maduro e a sua esposa incluiu o bombardeamento de vários locais em Caracas no mês passado. Os Estados Unidos prenderam Maduro numa operação no início de janeiro e transportaram-no para Nova Iorque para responder a acusações de tráfico de drogas.
Um contrato de 200 milhões que contorna a política pública
A Anthropic assinou um contrato de 200 milhões de dólares com o Departamento de Defesa. Dario Amodei, o diretor-executivo, tinha expressado publicamente reservas quanto ao uso da IA em operações letais autónomas e na vigilância interna. Dois pontos de discórdia nas negociações.
Uma cláusula permite à Anthropic “adaptar as restrições de utilização” para certos clientes governamentais se as “garantias contratuais forem suficientes”.
O que a política proíbe ao público em geral, um contrato militar pode autorizar em privado. Este duplo padrão explica como o Claude pode ter participado numa operação militar letal.
Pete Hegseth, secretário da Defesa, anunciou em janeiro, durante o anúncio de uma parceria com a xAI que acabou por não avançar, que o Pentágono não iria trabalhar com “modelos de IA que o impeçam de fazer a guerra”. A observação visava diretamente a Anthropic.
A administração Trump acusa a empresa de travar a sua estratégia de desregulação ao pedir salvaguardas e limites à exportação de chips. A Anthropic terá ultrapassado essa linha com o contrato de 200 milhões. Ainda assim, ninguém sabe exatamente onde começa e onde termina o uso do Claude nesta operação.

Segundo relatos recentes, a Anthropic resistiu a pedidos do Pentágono para permitir o uso irrestrito dos seus modelos em desenvolvimento de armas, operações no campo de batalha e vigilância. A empresa manteve restrições, especialmente quanto a armas autónomas e monitorização em massa.
Síntese de informação ou ataque direto? A ambiguidade técnica total
O Wall Street Journal refere que “as ferramentas de IA podem servir para muitas aplicações, desde a síntese de documentos até ao controlo de drones autónomos”. Entre esses dois extremos, há uma enorme diferença. Analisar relatórios de informação para preparar uma missão não implica as mesmas responsabilidades que calcular trajetórias de ataque ou identificar alvos em tempo real. A Anthropic recusa detalhar o papel exato do Claude.
Esta opacidade protege a empresa juridicamente: enquanto ninguém souber exatamente o que o Claude fez, ninguém pode provar que uma linha foi ultrapassada.
A Anthropic construiu toda a sua reputação em torno da segurança da IA, da transparência e de limites claros. Dario Amodei publicou vários artigos a defender mais regulação do que os seus concorrentes. A OpenAI e a Google, por exemplo, juntaram-se recentemente a uma plataforma militar usada por três milhões de pessoas. O ChatGPT e o Gemini são ali utilizados para análise de documentos, geração de relatórios e apoio à investigação. Usos declarados, documentados e não letais.

O Departamento de Defesa dos Estados Unidos atribuiu à Anthropic um contrato com um teto de 200 milhões de dólares, inserido num programa mais vasto para integrar IA comercial nas operações militares e de segurança nacional.
A Anthropic vende agora o Claude ao exército norte-americano sem dizer o que faz exatamente. Onde começa o uso letal de uma IA? Quando analisa dados? Quando recomenda um alvo? Quando calcula trajetórias?
O contrato de 200 milhões permite “adaptar as restrições”. Mas “adaptar” não define nada de concreto. A administração Trump chegou a ponderar cancelar o contrato se a Anthropic continuasse a bloquear certos usos, segundo o Wall Street Journal. A empresa mantém que qualquer utilização deve respeitar as suas políticas.
As duas partes comunicam os seus princípios, mas ninguém diz o que realmente aconteceu em Caracas. Esta ambiguidade técnica permite à Anthropic manter um duplo discurso: vender ao exército e, ao mesmo tempo, afirmar que cumpre as suas regras éticas.





















Andam a brincar, com o fogo.
A ser verdade e pelas noticias, a caixa de pandora já foi aberta. Temos, pelo menos, duas IAs que se auto desenvolvem. O que vai pôr em causa, o controlo do ser humano, sobre as mesmas.
Pode ser que eu esteja errado, mas isto não vai correr bem.
Gemini:
“1 – O Papel da Palantir: O “Sistema Operacional”
A Palantir forneceu a infraestrutura (especificamente através de suas plataformas AIP e Gotham), atuou como o cérebro integrador que:
– Fundiu dados brutos: Cruzou imagens de satélite, interceções de sinais (SIGINT) e dados de inteligência humana em tempo real.
– Acesso Seguro: Foi o “túnel” que permitiu ao Pentágono usar o modelo Claude da Anthropic dentro de redes militares ultra-secretas, onde modelos comerciais comuns não podem operar devido à segurança.
2. O Papel do Claude (Anthropic): Processamento e Decisão
Embora a Anthropic se posicione como uma empresa focada em “IA Ética”, o modelo Claude foi utilizado na operação para:
– Análise de Inteligência: Processar rapidamente grandes volumes de documentos e comunicações interceptadas para identificar o paradeiro exato de Maduro em Caracas.
– Planeamento Tático: Auxiliar na simulação de cenários e possivelmente no apoio à navegação de sistemas autónomos (drones) durante a incursão da Delta Force em 3 de janeiro de 2026.”
Para o Claude é como se fossem situações abstratas, põe-se um oficial a carregar no botão e fica resolvido isso da IA Ética.
o problema não era ficar só sem os contratos de defesa, no limite poderiam perder o controlo da tecnologia ao abrigo do Defense Production Act, ganham mais em ir a jogo e tentar gerir a coisa de forma a não ultrapassar linhas éticas que não queiram passar do que boicotar e perder o controlo da tech e vê-la ser usada de forma discricionária e sem ter nada a dizer sobre o assunto e quem se insurgir ainda pode ir preso.
pessoalmente gosto de ver estes jogos embora ache que são falsos moralismos que não têm cabimento no mundo em que vivemos, se é preciso usar a tecnologia em cenarios militares seja de defesa ou de ataque só devem é deixar e deixar-se de ideologias de um mundo que não existe nem nunca irá existir.. demasiado hollywood na vossa cabeça onde o heroi tem sempre a bussola moral muito alinhada e sai sempre por cima e demasiado protecionismo europeu tolda-vos o julgamento..
a realidade é que os snowdens deste mundo ou acabam no fundo do rio ou com a vida arruinada, o snowden foi um dos sortudos e mesmo assim virou um zé ninguém para sempre
Já a europa usa o chat para preparar a nova edição da eurovisão.
Lol
A IA terá sido usada… no ataque, à rede eléctrica. Ao mesmo tempo que os 7 Bell, 3 Apache e 2 Chinook, avançavam, a IA terá desligado, várias estruturas, de forma a que, as forças venezuelanas (e cubanas), não percebessem, o que se estava a passar.
Foi daí que, o Maduro, e a esposa, só tinham 160 guarda-costas, cubanos, na fortificação, onde estavam, a dormir. As forças americanas, bombardearam, os 6 edifícios, onde dormiam, militares, assim como todos os veículos, que pudessem usar. Os 2 Chinook aterraram, largaram 60 soldados, descolaram, saindo do perímetro, ficando 3 Apache, a tratar de qualquer coisa, que aparecesse. Os cubanos, já estavam a cair, ainda nem sabiam, o que se passava. Maduro, e mulher, apanhados, assim como um líder militar (até agora não identificado, apesar de, fontes venezuelanas, referirem que seria o secretário, das finanças, um militar, de 47 anos, sem família, na Venezuela) Chinook aterrou, levou 25 soldados e os prisioneiros. Os Apache, bombardearam a área, mais afastada, dando a pensar que, iria existir, uma invasão, com carros blindados. O 2 Chinook aterrou, recolheu os 35 soldados, saíram, juntando-se, aos 7 Bell, que tinham estado, a bombardear, as 5 bases aéreas.
A IA só serviu para distrair, os venezuelanos.