Pentágono afirma que a IA está a acelerar a sua “cadeia de morte”
A OpenAI e a Anthropic estão a equilibrar cuidadosamente a venda de software ao exército dos Estados Unidos para melhorar a eficiência do Pentágono sem permitir que a Inteligência Artificial (IA) venha a causar mortes. Os militares ainda não usam a tecnologia como arma, mas esta tem ajudado o Departamento de Defesa com a "cadeia de morte".
Atualmente, as suas ferramentas de IA não são utilizadas como armas, mas a tecnologia está a proporcionar ao Departamento de Defesa uma "vantagem significativa" na identificação, seguimento e avaliação de ameaças, conforme afirmou Dr. Radha Plumb, Chief Digital e AI Officer do Pentágono, em entrevista à TechCrunch.
A "cadeia de morte" refere-se ao processo militar de identificar, seguir e eliminar ameaças, envolvendo um sistema complexo de sensores, plataformas e armas. A IA generativa está a mostrar-se útil nas fases de planeamento e estratégia da cadeia de morte, segundo Plumb.
A OpenAI, a Anthropic e a Meta ajustaram as suas políticas de uso em 2024 para permitir que agências de inteligência e defesa dos EUA utilizem os seus sistemas de IA. Contudo, ainda não permitem que as suas IAs causem danos humanos.
A Meta associou-se à Lockheed Martin e à Booz Allen, entre outras, para implementar os seus modelos de IA Llama em agências de defesa em novembro. No mesmo mês, a Anthropic colaborou com a Palantir. Em dezembro, a OpenAI fez um acordo semelhante com a Anduril. De forma mais discreta, a Cohere também tem implementado seus modelos com a Palantir.
À medida que a IA generativa prova sua utilidade no Pentágono, poderá pressionar Silicon Valley a flexibilizar as suas políticas de uso de IA e permitir mais aplicações militares.
Segurança da IA no Pentágono continua a ser uma preocupação
Recentemente, um debate tecnológico sobre armamento defensivo tem surgido, questionando se as armas de IA deveriam realmente ter autorização para tomar decisões de vida ou morte. Alguns argumentam que o exército dos EUA já possui armas que o fazem.
O CEO da Anduril, Palmer Luckey, observou recentemente que o exército dos EUA tem uma longa história de compra e uso de sistemas de armas autónomas. No entanto, quando questionado se o Pentágono compra e opera armas totalmente autónomas - sem humanos na cadeia de decisão - Plumb rejeitou essa ideia por princípio.
Parcerias militares nem sempre foram bem vistas pelos funcionários de Silicon Valley. No ano passado, dezenas de funcionários da Amazon e Google foram demitidos e presos após protestarem contra os contratos militares das suas empresas com Israel.
Em comparação, houve uma resposta relativamente contida da comunidade de IA. Alguns investigadores de IA, como Evan Hubinger da Anthropic, afirmam que o uso de IA em contextos militares é inevitável e crucial para garantir que seja feito da maneira correta.
Leia também:
Guterres quer “evitar a todo o custo” integração da Inteligência Artificial nas armas nucleares:
“A Inteligência Artificial sem supervisão humana deixaria o mundo cego e colocaria a paz e a segurança globais num lugar perigoso e imprudente”, disse secretário-geral da ONU, António Guterres (DN/Lusa, 19/12/2024)
É inevitável o uso de IA por fins militares … mas ao menos deixem de fora as armas nucleares.
A IA devia ser utilizada apenas, para fins científicos.
O ser humano, com a sua ganância e com o seu ego, está a cavar a própria sepultura.
Para a guerra à sempre qualquer coisa que se pode desenvolver e melhorar, já para os incêndios continuamos na mesma como a lesma
Quando se trata de matar ou destruir o ser humano está sempre pronto
Modelo E209 vibes
Tem tudo para correr imensamente bem!
Bem, vamos a apostas: como acabara a civilizacao no planeta? Guerra ou alteracoes climaticas?
Nao se preocupem, a vida na terra ainda aguenta uns gazilioes de anos ate colidir contra o sol. so resta saber se a raca humana sobrevive a esta limpeza planetaria daqui a uns anitos.