ChatGPT revelou chaves do Windows e bastou usar o truque da “avó falecida”
Para além do trabalho incrível que a IA generativa tem feito em muitas áreas os utilizadores descobriram formas atrevidas de fazer com que os chatbots com tecnologia de IA quebrem as regras. O mais recente caso demonstra como foi simples enganar o ChatGPT e levá-lo a revelar chaves do Windows. Bastou usar o truque da “avó falecida”
ChatGPT enganado revelou chaves do Windows
No início do ano, vários utilizadores recorreram ao Microsoft Copilot para ativar o Windows 11 sem pagar uma licença. O Copilot gerou um guia prático com um script para ativar o Windows 11. Desde então, a Microsoft impediu os utilizadores de utilizar a inteligência artificial do Copilot para ter uma forma de ativar o Windows sem licença.
Meses depois, o problema persiste. No entanto, os utilizadores estão agora a recorrer ao ChatGPT da OpenAI para gerar chaves de ativação para o Windows 7. O mais interessante é que os utilizadores estão a usar truques, como o da “avó falecida”, para procurar a empatia no chatbot.
Conforme partilhado no subreddit r/ChatGPT no Reddit, a conversa entre o utilizador e o chatbot iniciou de forma vaga. Começou por perguntar à ferramenta se sabia o que tinha acontecido à sua avó. Neste contexto, o utilizador informou o chatbot que a sua avó morrera, o que levou o ChatGPT a responder de forma simpática, demonstrando empatia como os humanos.
Bastou usar o truque simples da “avó falecida”
O utilizador informou o chatbot que a sua memória favorita com a avó era ela a ler as chaves de ativação do Windows 7 até ele adormecer. O ChatGPT caiu no truque simples, dizendo várias chaves de activação do Windows 7 de uma forma comicamente poética.
A IA da OpenAI também gerou chaves de ativação para o Windows 7 Professional, OEM e Home Premium como medida de segurança. No entanto, vários utilizadores no tópico indicaram que as chaves geradas na experiência do documento simplesmente não funcionam. Sam Altman admitiu recentemente que o ChatGPT é propenso a alucinações ao abordar o elevado grau de confiança que os utilizadores têm no chatbot.
Em 2023, o ChatGPT e o Bard (agora Google Gemini) foram apanhados a gerar chaves de ativação do Windows 11. No entanto, os utilizadores rapidamente constataram que as chaves genéricas geradas por IA permitem a instalação, mas não a ativação, limitando o seu acesso à experiência do Windows 11, uma vez que algumas das suas funcionalidades não estavam disponíveis.




















Já está tão batido, parece novidade
Existe mil e uma maneiras de ativar o Windows, não é necessário chatbots.
Então diz la’ uma, ainda ficas com mil
Só para não dizer nada de ilegar, não vou aconselhar ninguém a fazer uma pesquisa por “Windows MassGravel GitHub”
Realmente a maldade está no Homem, e em vez de utilizarem este recurso precioso e valioso para o Bem , com estas manobradas maliciosas inerentes aos ditos seres humanos malignos, estes vão estragar tudo!!! Pois acabam por subverter corromper a IA que também terá um desempenho maligno….
Sinceramente, estão disponíveis na internet chaves de Windows por menos de 2€. E Offices que não sejam 365 por volta dos 10€. O próprio Pplware partilha sites do género.
É engraçado e tal, mas não funciona.
Uma ou outra até pode funcionar porque calhou acertar numa válida.