Anthropic é oficialmente um risco para a segurança dos EUA, declarou o Pentágono
Se ontem parecia que as águas estariam a acalmar, o mundo acordou, hoje, a saber que a Anthropic é oficialmente um risco para a segurança dos Estados Unidos da América (EUA), conforme declarado pelo Pentágono.
Conforme está a ser avançado pela imprensa norte-americana, o Pentágono afirmou ter notificado formalmente a Anthropic PBC de que determinou que a empresa e os seus produtos representam um risco para a cadeia de fornecimento dos EUA, segundo um alto responsável da defesa.
O DOW informou oficialmente a liderança da Anthropic de que a empresa e os seus produtos são considerados um risco para a cadeia de fornecimento, com efeito imediato.
Disse o responsável, na quinta-feira, à Bloomberg News, utilizando o acrónimo do Departamento de Guerra, designação que o secretário da Defesa, Pete Hegseth, passou a preferir para o Departamento de Defesa.
Nos EUA, esta designação é normalmente reservada a empresas ligadas a países adversários, e significa que o Governo do país considera que ela pode representar uma ameaça à segurança nacional ou à fiabilidade de produtos críticos, especialmente se estiver ligada a tecnologias sensíveis ou sistemas militares.
A classificação permite que o Governo dos EUA imponha restrições, supervisione de perto ou mesmo obrigue a empresa a adaptar os seus produtos para fins militares, podendo dificultar contratos futuros ou parcerias estratégicas.
Aplicá‑la a uma empresa tecnológica norte-americana, especialmente uma cujo software está integrado em sistemas militares confidenciais, seria uma ruptura sem precedentes com a abordagem habitual.
Claude estará a ser utilizado na guerra contra o Irão
Embora o responsável da defesa tenha descrito a decisão como tendo "efeito imediato", as ferramentas de Inteligência Artificial (IA) da Anthropic, nomeadamente o Claude, continuam a ser utilizadas ativamente pelos militares dos EUA em operações contra o Irão.
Esta informação foi avançada por uma pessoa familiarizada com o assunto.
No seu aviso à empresa, na sexta-feira passada, Pete Hegseth tinha delineado um período de transição de seis meses para transferir o trabalho de IA para outros fornecedores.
Esta conclusão do Pentágono ameaça perturbar tanto a empresa como os militares, que têm dependido fortemente do software da Anthropic.
Até recentemente, a empresa fornecia o único sistema de IA capaz de operar na cloud confidencial do Pentágono. Aliás, a ferramenta Claude Gov tornou-se uma opção preferida entre o pessoal da defesa devido à facilidade de utilização.
Nas palavras de Lauren Kahn, analista sénior de investigação no Centro para Segurança e Tecnologia Emergente da Georgetown University, "é uma capacidade valiosa" e removê-la "vai ser doloroso para todos os envolvidos".
Anthropic prometeu processar Pentágono
Esta classificação da Anthropic declarada pelo Pentágono representa a primeira vez que uma empresa norte-americana é carimbada como um risco para o país, pois significa que o Governo dos EUA considera que a empresa de IA não é suficientemente segura para que os seus serviços sejam utilizados.
Segundo uma pessoa familiarizada com as discussões, citada pela BBC, dentro da Anthropic a perceção é de que a empresa é mal vista por alguns membros da administração de Donald Trump, já que o seu diretor-executivo não está entre os líderes tecnológicos que doaram grandes quantias ao então eleito Presidente dos EUA ou o elogiaram publicamente.
Entretanto, na noite de ontem, a empresa escreveu que iria avançar para contestar a decisão do Pentágono em tribunal: "Não acreditamos que esta ação tenha base legal e não vemos outra alternativa senão contestá-la em tribunal".
Leia mais sobre o conflito:
Anthropic na mira do Pentágono: empresa de IA pode estar a caminho da lista negra dos EUA
Trump ordena às agências dos EUA que “cessem imediatamente” o uso da IA da Anthropic
Tensão com o Pentágono torna Claude da Anthropic na 2.ª app gratuita mais popular
Utilizadores são quem mais ordena: Claude da Anthropic passa ChatGPT e é a app mais popular
Pentágono recua e volta à mesa de negociações com a Anthropic























Ridiculos estes tipos do Pentágono, usam e abusam do Claude e agora dizem que não é seguro, tudo porque a empresa quer pôr limites ao que pretendem fazer com esta IA. Acho muito bem que a Antrophic os processe.
lenha para puxarem do DPA
os estados unidos queriam que a ia tomasse conta da decisao de disparar contra ameaças e antrophic disse que isso nao estava no contrato e exigiu rever o contrato para tamanha decisao. foi o suficiente para o trump romper o contrato e procurar alternativa na OpenAi. como esta nao ofereceu as mesma garantias que o sistema funcione o governo americano voltou a mesa de negociações.
deveriam permitiir a edição de comentarios, poderia acrescentar ellementos e/ou corrigir erros ortograficos.
ellementos 😀
pplware é como a vida, só tens uma hipótese
Comecei a utiizar o claude devido a esse bando the terroristas da coligacao Epstein
Noutras notícias “A esquerda em peso está a aderir à Anthropic, em detrimento de outas AI”
bem, parece que o Pentagono está a arranjar lenha para queimar o a anthropic alegando o Defense Production Act (DPA) e fazendo takeover da empresa e da sua tecnologia..
mais valia terem jogado o jogo do pentagono, pelo menos assim não perdiam controlo da empresa
Perfeitamente expectavel, a Anthropic disse não ao Trump agora pagam por isso. E se protestam muito o Trump mete ainda mais restrições/sanções.
Os pedidos do Lider são para seguir á risca não há espaco para discusão
Anthropic em reunião queria impor restrições ao uso para guerra novamente. O que os EUA fizeram? Então, esquece o dinheiro do financiamento.
Pegou a grana do governo e depois quis ditar as regras… kkkkk… Aí não Anthropic.
Uau. Foi tão simples assim?
Quem te informou sobre o sucedido? O gajo que andava a servir água na reunião?
Google!
“ferramentas de Inteligência Artificial (IA) da Anthropic, nomeadamente o Claude, continuam a ser utilizadas ativamente pelos militares dos EUA em operações contra o Irão. Esta informação foi avançada por uma pessoa familiarizada com o assunto.”
Uma pessoa? O Wall Street Journal publicou um artigo, citando fontes do Pentágono, de que para atacar dados móveis.
– A IA apresentava o alvo, a probabilidade de acertar e a estimativa dos danos colaterais (mortes de não cobatentes), num interface simplificado
– O operador humano tinha apenas alguns segundo para desviar o olhar de um alvo e validar o próximo.
– Em momentos de pico a decisão de autorizar era tomada em menos de 5 segundos.
O jornal destacou uma frase de um oficial de inteligência que resume o perigo dessa velocidade:
“Se você tem 5 segundos para dizer “não” a uma máquina que processou mil milhões de variáveis que você não viu, você não está a tomar uma decisão, está apenas a testemunhar um algoritmo a trabalhar”.
Além do Congresso que quer discutir se há efetivamente um “humano no controlo”, também na Anthropic isto está em avaliação. Ou seja, se o humano não tem tempo para tomar a decisão, quem efetivamente decide é a IA – ou seja, dos mais de mil mortos no Irão, quanto estavam em autocarros que foram atingidos por disparos em que a IA não os conseguia distinguir de veículos militares – e o “humano no controlo” não avaliou efetivamente os “danos colaterais”?
Isto do notifica e o outro diz qualquer coisa é conversa para encher chouriços. Não vai ser a Anthropic que vai impedir o uso militar da sua IA:
Os 5s é porque em alvos móveis as variáveis estão em constante mudança e a análise passados esses 5s pode ser completamente diferente
A questão é que – segundo os termos contratuais, da Anthropic, da OpenAI, ou da XAI – – a decisão de disparar tem que caber sempre a um “humano no controlo” (a outra questão é sobre a vigilância em massa – a IA ser usada para vigilância de cidadão9 dos EUA, a uma escala sem precedentes, que agora não se põe).
Ou seja, a Anthropic opõe-se ao uso da sua IA em sistemas de armas que possam decidir disparar ou atacar sem intervenção humana (human-in-the-loop, humano no controlo) – quando não tinha tempo para decidir nada.
Há sérias dúvidas que isso tenha acontecido na guerra do Irão. E o próprio Congresso dos EUA quer discutir, se há de facto “humano no controlo” ou é apenas uma figura jurídica.
eu decido coisas bem mais criticas em 5s e sem ajuda da AI.
é conversa de quem não quer ser responsabilidade por dar o ok.. grow a pair
O que decides mais crítico que isto?
Podes elucidar-nos sobre tamanha importância da tua atividade?
Só para podermos entender como alguém que passa o dia a fazer comentários na net, consegue tomar, em simultâneo, decisões tão exigentes.
Zé Fonseca A., o “mata 7” …
Diz a IA: Disparando sobre o alvo A, que é mais provável ser um veículo militar, os danos colaterais (morte de civis) são 3, sobre o alvo B, que é menos provável ser militar, são 7
O José: Mata 7, mata 7! 😉
Eu carrego sempre no botão que originar a maior destruição.
#purga
Um desafio pra ti max e para qualquer comentador e malta do ppware se alguém souber a genealogia da expressão ” mata 7 “- Pista: nenhuma das actuais AI´s vai conseguir responder. Talvez malta muito antiga possam dar uma ajuda.
O “mata 7”, valente soldado português, andou nas guerras napoleónicas. Com um único golpe matou 7.
Vem do conto infantil do alfaiate que matou 7 moscas gigantes e fizerem dele um herói porque pensavam que tinham sido 7 gigantes..
Lembro-me da minha mãezinha contar essa história para dormir
Fui ver a origem do conto que não sabia e não me surpreende, Grimm brothers
ganhou a versão das 7 moscas. E pelo que me parece é uma historia humorística com origem no alto Alentejo, com muitas, muitas décadas, mais de 70
Pensaste que “matar 7 com um golpe” eram militares inimigos?
De facto era isso que o “mata 7” queria fazer crer 🙂
Nem só de AI vive o homem 😀
É melhor fazerem uma lista do que não é um risco para a segurança dos EUA.
Deve ser bem mais curta…
Entrevista do senhor da Anthropic a pedir desculpa porque publica muitas coisas assim de rajada e pode ter levado ao mal entendido. Para tudo poderá sempre haver outros primas: https://x.com/ns123abc/status/2029786601987965175?s=20
Hem? Pede desculpa “porque publica muitas coisas assim de rajada e pode ter levado ao mal entendido”? Não te queres explicar melhor?
é só abrires o vídeo Mestre Max. Está tudo. Eu sei que odeias o Trump, mas esta historia da anthropic e o pentágono tem muito mais contornos do que saiu para publico. Há sempre mais qualquer coisa das historias que nos chega, comuns mortais.
Sim, tenho um profundo repúdio pela personagem e receio do que se segue.
Depois do Irão Cuba, a seguir a Gronelândia … e os Açores.
Mas, no caso, o mail interno do CEO da Anthropic que foi do conhecimentos público e que teve que dar explicações atabalhoadas sobre o que queria dizer não passou disso.
Açores? Lol.. vai fazer takeover da sua bomba de gasolina? 😀
@Zé Fonseca A.
Achas mesmo que Portugal tem alguma palavra a dizer se os EUA podem usar a base das lajes ou não. Se muito os portugueses possuem autorizacao para
Não, e acho bem que na tenham.
Mas também só o burro do tuga acha que eles precisam da base das lajes para alguma coisa, se não tivessem as lajes arranjaram uma alternativa para parar aviões de abastecimento.. as lajes estão reduzidas a uma bomba de gasolina.. longe vai o tempo que a lajes era estratégica, achar que iam comprar os Açores para ficar com a base é só absurdo
¨Segundo uma pessoa familiarizada com as discussões, citada pela BBC, dentro da Anthropic a perceção é de que a empresa é mal vista por alguns membros da administração de Donald Trump, já que o seu diretor-executivo não está entre os líderes tecnológicos que doaram grandes quantias ao então eleito Presidente dos EUA ou o elogiaram publicamente. ¨ Elon Musk foi quem fez queixa já que pobre grok não consegui nenhum contrato com o pentágono
Depois todas as Ia são racistas menos o seu Grok
O pentágono é um risco para a humanidade.