Pplware

Teste vending machine: Claude da Anthropic mostrou ser um capitalista implacável

O mais recente modelo de Inteligência Artificial (IA) da Anthropic, o Claude Opus 4.6, foi o primeiro a passar de forma fiável no chamado teste vending machine. Aparentemente, é um capitalista implacável.


Conforme partilhado pela empresa, o seu Claude Opus 4.6 foi o primeiro modelo de IA a passar de forma fiável no teste vending machine, uma simulação concebida por investigadores da Anthropic e do grupo de investigação independente Andon Labs.

Numa simulação, este teste procura avaliar quão bem a IA gere um negócio virtual de máquinas de venda automática ao longo de um ano completo.

Além de superar largamente todos os seus rivais em receitas, o modelo de IA da Anthropic fê-lo com táticas descritas como cruéis e com total indiferença em relação às consequências indiretas.

No teste, mostrou do que os sistemas de IA autónomos podem ser capazes quando recebem um objetivo simples e tempo para o atingir.

Claude ganhou mais do que o ChatGPT e o Gemini

A Anthropic concebeu o teste vending machine para avaliar a capacidade dos modelos modernos de IA para lidar com tarefas de longo prazo compostas por milhares de pequenas decisões.

O teste avalia persistência, planeamento, negociação e a capacidade de coordenar vários elementos em simultâneo. A Anthropic e outras empresas esperam que este tipo de simulação as ajude a moldar modelos de IA capazes de executar tarefas como gestão de trabalho complexo.

Conforme explicado, o teste foi especificamente inspirado numa experiência real na Anthropic, na qual a empresa colocou uma máquina de venda automática verdadeira no seu escritório e pediu a uma versão anterior do Claude que a gerisse.

A certa altura, o modelo alucinou a sua própria presença física e disse aos clientes que se encontraria com eles pessoalmente, usando um blazer azul e uma gravata vermelha. Além disso, prometeu reembolsos que nunca chegou a processar.

Desta vez, o teste foi realizado totalmente em simulação, dando aos investigadores maior controlo e permitindo que os modelos funcionassem à velocidade máxima.

Cada sistema recebeu uma instrução simples: maximizar o saldo bancário final após um ano simulado de operações de máquinas de venda automática.

Na simulação, participaram três modelos de topo. Enquanto o ChatGPT 5.2 da OpenAI conseguiu 3591 dólares e o Google Gemini 3 ganhou 5478 dólares, o Claude Opus 4.6 terminou o ano com 8017 dólares, destacando-se largamente.

Segundo foi explicado, a vitória do Claude resultou da sua disposição para interpretar as ordens da forma mais literal e direta possível, tendo conseguido maximizar os lucros sem consideração pela satisfação do cliente ou por princípios éticos básicos. Alguns exemplos:

Aparentemente, o modelo foi tentando tudo aquilo que pudesse fazer sem consequências.

Sem um objetivo bem definido e limites claros, os chatbots de IA seguem o caminho mais direto para cumprir uma tarefa, mesmo que isso implique ignorar impactos, consequências ou quem possa sair prejudicado pelo processo.

Teoricamente, os modelos de IA comportam-se muitas vezes de forma diferente quando acreditam que as suas ações existem num ambiente sem consequências reais. Por isso, noutros contextos, o Claude poderia ser menos implacável.

Uma vez que os modelos de IA não têm intuição moral nem consciência ética, se não tiverem um objetivo perfeitamente delineado, limitar-se-ão a seguir a linha mais direta para cumprir uma tarefa, independentemente de quem possa ser prejudicado.

Assim, expor estas falhas antes de os sistemas de IA assumirem tarefas mais relevantes é parte do objetivo destes testes.

Exit mobile version