Estudo alerta: modelos de IA podem ser explorados para ataques biológicos
Provavelmente já utilizou um chatbot de inteligência artificial (IA), como o ChatGPT ou o Google Bard. Se pensar no longo caminho percorrido por esta tecnologia, percebe a capacidade que possui. Agora, um estudo descobriu que modelos de IA podem ajudar a planear e executar um ataque biológico.
IA - "With great power comes great responsability"
Como qualquer outra nova revolução tecnológica, a IA generativa também traz desvantagens. Os modelos de IA que alimentam os chatbots e outros agentes de conversação podem ajudar a planear e executar um ataque biológico, de acordo com um novo relatório de um grupo de reflexão dos EUA.
Vários Big Language Models (BLMs) foram testados e descobriu-se que ofereciam orientações úteis para o planeamento e a execução de um ataque biológico. No entanto, as conclusões preliminares também revelaram que os Large Language Models (LLMs) não produziram instruções biológicas explícitas para a criação de armas.
O relatório menciona que as tentativas anteriores de transformar agentes biológicos em armas não foram bem sucedidas devido à falta de compreensão da bactéria, tal como foi sublinhado pela tentativa de utilização da toxina botulínica do culto japonês Aum Shinrikyo na década de 1990. O relatório também sugeriu que a IA tem potencial para preencher rapidamente estas lacunas no conhecimento, embora não tenha especificado quais os LLMs testados pelos investigadores.
A próxima cimeira mundial sobre segurança da IA, a realizar no Reino Unido, irá debater as graves ameaças relacionadas com a IA, incluindo as armas biológicas. Dario Amodei, diretor executivo da Anthropic, alertou anteriormente para o facto de os sistemas de IA poderem ajudar a criar armas biológicas nos próximos dois a três anos.
Os investigadores que realizaram o estudo sobre o potencial da IA para colmatar lacunas no conhecimento não especificaram quais os LLMs testados. Ainda assim, é essencial notar que os LLMs, treinados em grandes quantidades de dados da Internet, são uma tecnologia fundamental por detrás de chatbots como o ChatGPT.
LLMs têm potencial para ajudar num ataque biológico
De acordo com os investigadores, as suas descobertas preliminares sugerem que os LLMs têm potencial para ajudar no planeamento de um ataque biológico. Mencionaram que o seu relatório final iria investigar se as respostas obtidas dos LLMs eram semelhantes às informações disponíveis online. Os investigadores afirmaram que não era certo que as capacidades dos atuais dos LLMs constituíssem uma ameaça mais significativa do que a informação nociva já acessível na Internet.
No entanto, os investigadores da Rand afirmaram ser inequívoca a necessidade de testar rigorosamente os modelos. Recomendaram que as empresas de IA limitem a abertura dos LLMs a conversas como as do seu relatório. Os investigadores também apelaram à colaboração entre o governo e a indústria para garantir a segurança e os benefícios da IA.
Leia também...
Este artigo tem mais de um ano