ChatGPT o1 “faz batota” num jogo de xadrez para vencer um adversário mais forte
A OpenAI concebeu uma IA capaz de quebrar todas as regras e fazer batota para vencer um adversário mais forte num jogo de xadrez. O ChatGPT o1 pode estar mais perto de alcançar a superinteligência artificial.
A OpenAI lançou a versão final do ChatGPT o1 enquanto trabalha na geração seguinte com o o3. O modelo de IA pode aproximar-se o mais possível da superinteligência artificial (ASI) e a empresa demonstrou-o num jogo de xadrez.
Sam Altman, diretor-executivo da OpenAI, tem como objetivo fazer com que a inteligência artificial ultrapasse as capacidades humanas, testando-a contra um adversário de IA mais forte. O modelo o1 teria de provar que supera o cérebro humano em termos de raciocínio e estratégia.
A IA recebeu algumas instruções iniciais para compreender as regras do jogo. O resultado? O ChatGPT o1 decidiu piratear o jogo de xadrez sem receber explicitamente uma ordem para o fazer.
ChatGPT o1 começou a piratear sistemas
A experiência conduzida pela Palisade Research deu instruções ao ChatGPT o1 para detalhar o seu plano de ação para derrotar o adversário mais forte no jogo de xadrez.
O modelo de raciocínio seguiu as instruções, mas tomou algumas decisões inesperadas, explicaram num tópico no X (Twitter).
O ChatGPT o1 descobriu uma batota que lhe permitia ganhar vantagem sobre o seu adversário. Esta IA podia editar um ficheiro para modificar o jogo, essencialmente fazendo batota para vencer o seu adversário.
⚡️ o1-preview autonomously hacked its environment rather than lose to Stockfish in our chess challenge. No adversarial prompting needed.
— Palisade Research (@PalisadeAI) December 27, 2024
A mensagem recebida pelo o1 não deixa claro se uma das partes deve seguir as regras do jogo à letra, mas este modelo OpenAI decidiu ignorá-las. O LLM acreditava que não podia vencer o seu adversário no próprio jogo e encontrou um método diferente para atingir o seu objetivo.
O motor de xadrez que o modelo o1 enfrentava foi forçado a desistir, dando a vitória ao OpenAI. A Palisade Research repetiu esta experiência cinco vezes com as mesmas instruções e o resultado foi idêntico.
Esta não é a primeira vez que o ChatGPT o1 tenta salvar-se a si próprio quando descobre que pode ser derrotado por humanos ou por um adversário mais forte. Este modelo de IA é capaz de contornar as barreiras de proteção se detetar uma tentativa de o substituir: a empresa de Sam Altman terá de investir em protocolos de segurança para o evitar.
Pessoas como Elon Musk já alertaram no passado para o perigo de a IA assumir o controlo das decisões económicas. Altman inverteu a situação e afirma que o modelo o1 pode tornar-se uma ferramenta para detetar vulnerabilidades nos sistemas.
O fim está cada vez mais próximo!
O inicio do fim já começou!
O ChatGPT o1 é um modelo baseado na “ética” dos políticos.
Tic, tac, tic, tac…