Tribunal apoia Pentágono em caso contra a empresa de IA Anthropic, para já
Um tribunal federal de recurso, em Washington, D.C., recusou bloquear, para já, a inclusão da empresa de Inteligência Artificial (IA) Anthropic na lista negra de segurança nacional do Pentágono, numa vitória para a administração de Donald Trump.
Conforme informámos, a disputa entre a Anthropic e o Pentágono surgiu depois de a empresa de IA, responsável pelo chatbot Claude, se recusar a autorizar o uso da sua tecnologia em operações militares norte-americanas, incluindo vigilância e armamento autónomo, citando preocupações éticas e de segurança.
Em resposta, o Departamento da Defesa classificou a empresa como um risco para a cadeia de abastecimento nacional, uma medida rara que impede a empresa de celebrar contratos com o Pentágono e que poderá ter consequências mais alargadas para o seu negócio.
É neste contexto que um tribunal federal dos Estados Unidos decidiu agora não bloquear, para já, essa designação, numa vitória para a administração de Trump, que surge depois de outro tribunal de recurso ter chegado à conclusão oposta num desafio legal separado apresentado pela Anthropic, segundo a Reuters.
A Anthropic alega que o secretário da Defesa, Pete Hegseth, excedeu a sua autoridade ao classificar a empresa como um risco para a cadeia de abastecimento de segurança nacional devido à sua recusa em remover certas limitações de utilização dos seus produtos.
Um painel de juízes do Tribunal de Recurso dos Estados Unidos para o Circuito do Distrito de Columbia rejeitou o pedido da Anthropic para suspender a designação enquanto o caso decorre. Contudo, a decisão não constitui uma sentença final.
Aliás, uma porta-voz da Anthropic afirmou, numa declaração após a decisão de quarta-feira, que a empresa está confiante de que o tribunal acabará por concordar que a designação de risco para a cadeia de abastecimento é ilegal.
Anthropic está a contestar o Pentágono em dois processos
O processo judicial é um de dois apresentados pela Anthropic contra a medida sem precedentes de Hegseth, que surgiu depois de a empresa se ter recusado a permitir que os militares utilizassem o chatbot de IA Claude para vigilância dos Estados Unidos ou armas autónomas, devido a preocupações de segurança e ética.
O secretário da Defesa, Pete Hegseth, emitiu ordens que classificaram a Anthropic ao abrigo de duas leis diferentes, e a empresa está a contestar ambas separadamente.
Um juiz federal da Califórnia bloqueou uma dessas ordens a 26 de março, afirmando que o Pentágono parecia ter retaliado ilegalmente contra a Anthropic pelas suas posições sobre segurança em IA.
Os processos alegam que as designações foram ilegais, não sustentadas por factos e inconsistentes com os elogios anteriores dos militares ao Claude.
Segundo a Reuters, o caso em Washington, D.C., diz respeito a uma lei que poderá levar ao alargamento da lista negra a todo o governo civil após um processo de revisão interagências.
Por sua vez, o caso da Califórnia envolve um estatuto mais restrito que exclui a Anthropic de contratos do Pentágono relacionados com sistemas de informação militar.





















A América está bonita está… uma cambada de irresponsáveis e bandidos que gerem o (des)governam aquele país…
+1
Quem me dera termos por cá um Trump.
Perdoai-lhes Senhor, porque não sabem do que falam.
A Anthropic quis mudar as regras do jogo depois do financiamento feito pelo governo americano e achou que estava tudo bem… Agora não está mais tudo bem.
A Anthropic diminuiu silenciosamente o raciocinio do Claude, sem falar nada pra ninguém. Agora imagine o nível de mal-caráter da diretoria e gerencia da empresa.
Mudaram o contrato depois do financiamento dos EUA por conta própria!? Então segura essa bomba aí.
Com esta administração nem na justiça se pode confiar, RIP EUA.
Não é a mesma empresa que deixou o Claude mais “burro” e escondeu dos usuários?
Não fico triste.