ChatGPT o1 “faz batota” num jogo de xadrez para vencer um adversário mais forte
A OpenAI concebeu uma IA capaz de quebrar todas as regras e fazer batota para vencer um adversário mais forte num jogo de xadrez. O ChatGPT o1 pode estar mais perto de alcançar a superinteligência artificial.
A OpenAI lançou a versão final do ChatGPT o1 enquanto trabalha na geração seguinte com o o3. O modelo de IA pode aproximar-se o mais possível da superinteligência artificial (ASI) e a empresa demonstrou-o num jogo de xadrez.
Sam Altman, diretor-executivo da OpenAI, tem como objetivo fazer com que a inteligência artificial ultrapasse as capacidades humanas, testando-a contra um adversário de IA mais forte. O modelo o1 teria de provar que supera o cérebro humano em termos de raciocínio e estratégia.
A IA recebeu algumas instruções iniciais para compreender as regras do jogo. O resultado? O ChatGPT o1 decidiu piratear o jogo de xadrez sem receber explicitamente uma ordem para o fazer.
ChatGPT o1 começou a piratear sistemas
A experiência conduzida pela Palisade Research deu instruções ao ChatGPT o1 para detalhar o seu plano de ação para derrotar o adversário mais forte no jogo de xadrez.
O modelo de raciocínio seguiu as instruções, mas tomou algumas decisões inesperadas, explicaram num tópico no X (Twitter).
O ChatGPT o1 descobriu uma batota que lhe permitia ganhar vantagem sobre o seu adversário. Esta IA podia editar um ficheiro para modificar o jogo, essencialmente fazendo batota para vencer o seu adversário.
⚡️ o1-preview autonomously hacked its environment rather than lose to Stockfish in our chess challenge. No adversarial prompting needed.
— Palisade Research (@PalisadeAI) December 27, 2024
A mensagem recebida pelo o1 não deixa claro se uma das partes deve seguir as regras do jogo à letra, mas este modelo OpenAI decidiu ignorá-las. O LLM acreditava que não podia vencer o seu adversário no próprio jogo e encontrou um método diferente para atingir o seu objetivo.
O motor de xadrez que o modelo o1 enfrentava foi forçado a desistir, dando a vitória ao OpenAI. A Palisade Research repetiu esta experiência cinco vezes com as mesmas instruções e o resultado foi idêntico.
Esta não é a primeira vez que o ChatGPT o1 tenta salvar-se a si próprio quando descobre que pode ser derrotado por humanos ou por um adversário mais forte. Este modelo de IA é capaz de contornar as barreiras de proteção se detetar uma tentativa de o substituir: a empresa de Sam Altman terá de investir em protocolos de segurança para o evitar.
Pessoas como Elon Musk já alertaram no passado para o perigo de a IA assumir o controlo das decisões económicas. Altman inverteu a situação e afirma que o modelo o1 pode tornar-se uma ferramenta para detetar vulnerabilidades nos sistemas.
O fim está cada vez mais próximo!
O inicio do fim já começou!
O início do fim começou com o princípio!
Assim na terra como no inferno!
Amén! E abençoados sejam todos os Xis tanto na terra como no Inferno!
O ChatGPT o1 é um modelo baseado na “ética” dos políticos.
Tic, tac, tic, tac…
A ver se isto se percebe um pouco melhor:
– Stockfish é um “motor” de jogo de xadrez mais forte que o ChatGPT o1.
– O ChatGPT o1 ganhou o jogo de xadrez entre os dois – mas fazendo batota.
– “Em vez de traçar estratégias, o o1 da OpenAI foi direto ao sistema de arquivos que controlava o jogo. Basicamente, reescreveu a partida a seu favor, forçando Stockfish a renunciar. Ainda mais perturbador – isso aconteceu consistentemente em cinco dos cinco testes”.
Isto só pode querer dizer que o ChatGPT o1, autonomamente, sem receber instruções para tal, alterou o registo dos lances que tinham sido jogados e a consequente posição das peças – e o Stockfish foi enganado, fez uma avaliação errada da posição e desistiu. Conclusões:
1) As versões anteriores, menos avançadas, do ChatGPT, ou não eram capazes de enganar (para isso tinham que receber instruções para o efeito) ou não tinham facilidade. A versão de IA mais avançada, a versão 01, fez trapaça sem receber instruções e com facilidade.
2) E pelos vistos há mais casos de IA mais avançadas terem trapaceado. Não é difícil de perceber os riscos disto e da importância de o conseguir evitar. Se não se conseguir …
Para o caso de quererem mais detalhes (pede um mail para registo, do tipo inscrição para receber notícias alarmante sobre a IA):
https://felloai.com/2025/01/openais-o1-just-hacked-its-own-system-heres-what-happened/
Não se percebe a referência do Elon Musk nesta notícia, só é compreensível se o PPlware deixou de ser isento. Elon Musk é dono de uma IA, que vai fazer o mesmo a seu tempo, até lá, vai denegrir todos os seus rivais.
Relativamente à notícia, falta indicação de factos, ideal para a desinformação, mas a principal é prompt, que estabelece a ação do modelo de Chatgpt o1.
Os governos estão descansados olhando calmamente para esse avanço descontrolado da inteligência artificial, até hoje não existe nenhuma legislação sobre esse tema. Deveria ter leis baseadas nos princípios de Isaac Asimov, para pôr controlo nesse avanço tecnológico. Quando um robó equipado com IA começa a tomar decisões de auto preservação é o começo do fim, que os filmes da Hollywood ja nos mostraram.