Há pessoas a usar IA para planear assassinatos. O que podem fazer as empresas de IA?
A OpenAI teve acesso antecipado a mensagens preocupantes trocadas com a autora do tiroteio de Tumbler Ridge, no Canadá, um ataque em que uma jovem matou várias pessoas numa escola antes de se suicidar. Apesar dos sinais considerados alarmantes internamente, a empresa optou apenas por encerrar a conta da utilizadora, sem alertar as autoridades.
Um crime anunciado e uma decisão controversa
No passado dia 10 de fevereiro, uma jovem de 18 anos assassinou a tiro a mãe e o irmão. Depois dirigiu-se à sua escola e matou mais sete pessoas, acabando por se suicidar.
O inquietante é que a autora tinha falado sobre isso com o ChatGPT e a OpenAI teve a oportunidade de avisar a polícia, mas optou por não o fazer.
Alertas internos ignorados
Conta o Wall Street Journal que, em junho do ano passado, o sistema automático da OpenAI detetou várias mensagens enviadas por uma utilizadora ao ChatGPT nas quais descrevia cenários de violência armada.
Para alguns funcionários eram muito preocupantes, porque podiam acabar em violência real, pelo que se debateu internamente se deveriam avisar as autoridades canadianas. No final, encerraram-lhe a conta, mas não avisaram ninguém.
Agora, as autoridades canadianas convocaram a empresa para pedir explicações.
Outros crimes planeados com ajuda da IA
O tiroteio de Tumbler Ridge não é o único caso em que a IA foi usada para planear um crime. No início de 2025, um homem estacionou um Cybertruck cheio de explosivos em frente a um hotel em Las Vegas com a intenção de o detonar, embora a única vítima tenha sido ele próprio. Dias antes, o autor tinha perguntado ao ChatGPT como o fazer.
Neste caso, o chatbot não detetou qualquer mensagem preocupante, mas isso soube-se porque a OpenAI pesquisou posteriormente as conversas.
Em Seul, uma mulher foi presa pelo alegado assassinato de duas pessoas por intoxicação com benzodiazepinas. A investigação revelou que a acusada tinha recorrido ao ChatGPT para saber qual era a dose perigosa e o que acontecia se fosse misturada com álcool. As mensagens, neste caso, não são tão alarmantes e poderiam surgir de uma dúvida genuína, mas constituem outro exemplo da utilização do ChatGPT na prática de um crime.
A IA como confessionário moderno
As inteligências artificiais transformaram-se numa espécie de confessionário ao qual contamos todo o tipo de segredos, até os mais obscuros. Há quem considere a IA um amigo, o seu psicólogo ou até o seu amante. Nesse sentido, não é estranho que alguém diga ao ChatGPT que vai matar a família ou que quer detonar um carro cheio de explosivos.
O preocupante, e onde deveríamos colocar o foco, é no que as empresas estão a fazer em relação a isso. Para já, parece não ser suficiente.

A OpenAI, criadora do ChatGPT, afirmou na quinta-feira que a atiradora de um dos piores tiroteios em escolas da história do Canadá contornou a proibição do uso problemático do serviço ao criar uma segunda conta.
Entre o dever legal e a responsabilidade ética
Confessar a um psicólogo ou psiquiatra que se quer fazer mal a alguém é um dos motivos pelos quais não só pode, como deve, quebrar o sigilo profissional e alertar as autoridades. Contudo, por mais que utilizemos os chatbots como psicólogos, atualmente não existe qualquer lei que obrigue as empresas de IA a informar sobre este tipo de interações, sendo uma decisão interna. A obrigação, portanto, não é legal, mas ética.
Casos como o da atiradora de Tumbler Ridge não começaram a acontecer com a chegada dos chatbots de IA. A existência de instruções para fabricar bombas caseiras já há décadas preocupa as autoridades e, mesmo antes da popularização da internet, já circulavam manuais deste tipo. O mesmo acontece com os casos de suicídio.
Não é necessário perguntar ao ChatGPT, basta pesquisar no Google ou escrever num fórum.
Conversas mais profundas, riscos mais complexos
Em declarações ao New York Times, um antigo funcionário da OpenAI destaca um ponto importante. Com um chatbot não se faz apenas uma pesquisa simples, podendo manter-se uma conversa mais longa onde as intenções ficam mais claras.
Nesse sentido, pode ser mais fácil detetar casos como o da atiradora de Tumbler Ridge, mas também podem existir muitos falsos positivos, por exemplo utilizadores que estejam a escrever ficção ou a usar a IA em contextos de role-playing. Complicado.





















Para este tipo de coisas recomendo local LLM, já me safou bem!
quantos mataste?
Nenhum, mas dá para intoxicar durante anos alguém até essa pessoa desenvolver doença
Ui…
Pessoal com fetish de caçar humanos vejam o filme The Most Dangerous Game (1932) que assim já não precisam de ir para o terreno.
Ah, agora “caçar humanos” e’ um fetish, bem arrumadinho na gaveta “fetish”, para ser mais aceite, certo?
Andas a perder muito tempo com jogos
Não tens fetish para humor negro já vi.
um dia destes apareço na cinemateca com pipocas, se não provoca reacção passo para batatas fritas
Pipocas cobertas com petazetas para dar estalo mas no cinema é que era depois no fim da sessão caso aproves o filme raspas aquelas raspas castanhas que estalam do carnaval na sala de cinema, o pessoal vai mesmo ao cinema pelo baralho de cenas a estoirar, dá uma certa dinâmica.
Dificil. Sou psicologo e meu paciênte diz: “As vezes tenho vontade de matar todo mundo no meu trabalho”.
Você chama a polícia, mas e depois? O que era uma vontade, vira uma posição real para tal decisão. Porquê você, profissional, chamou as autoridades.
Não tem fórmula mágica aqui, nem bola de cristal. Se tentar “prever” isso, nos encontramos no campo ficcional de Minority Report.
Resposta pronta, não avisas, és conivente com uma eventual tragedia, essa pessoa ou tem de ser internado ou vigiado de perto pelas autoridades. Não quero estar a responder a todos estes comentários, mas isto faz-me saltar da cadeira…
A análise dele está correta. Psicologia é tratamento, não ameaça conivência.
Seguindo sua lógica, ninguém mais irá no psicólogo com medo de ter a polícia na porta de casa.
e eu a pensar que um psicologo podia ser um precog..
Te entendo. Muitos acham que psicologo é juiz e tem de julgar ao invés de tratar.
O problema não é a ferramenta mas sim as pessoas.
+1
Gemini sobre o histórico digital de Jess van Rootselaar (de 18 anos):
“- Início Precoce: Investigações sobre a sua “pegada digital” sugerem que ela era uma utilizadora ativa de plataformas de jogos e redes sociais (como Roblox, Discord e Reddit) desde cerca dos 12 ou 13 anos.
– Evolução do Conteúdo: Relatos de antigos conhecidos online e a análise do seu histórico indicam que, inicialmente, o uso era comum a qualquer jovem, mas houve uma transição gradual para conteúdos mais obscuros e violentos ao longo dos anos.
– Simulação de Massacre: Van Rootselaar utilizou a plataforma Roblox para criar uma “experiência” (termo usado pelo Roblox para jogos) que simulava um massacre num shopping center. Vídeos desse jogo circularam em redes sociais, mostrando um personagem em um ambiente de shopping utilizando armas de fogo contra outros personagens.
Por que isso é importante?
A polícia e especialistas em radicalização online estão a analisar esse histórico para entender:
– O Processo de Radicalização: Como uma criança que começou a jogar de forma inocente aos 12 anos acabou por criar simulações de massacres anos depois.
– Sinais de Alerta: Se houve comportamentos reportados por outros jogadores em anos anteriores que não foram devidamente moderados pelas plataformas.”
Pode-se andar com muitas teorias, mas uma coisa é certa – se não tivesse acesso às armas não teria morto ninguém.
a unica forma de não se ter acesso a armas era elas não existirem
Armas da mãe: 2 rifles de caça grossa, 2 shotguns de calibre 12, e 1 carabina modificada, com alteração do carregador para mais munições e aumento da cadência de tiro. Foi a principal arma usada nas mortes, primeiro da mãe e do irmão e depois na escola.
Não são propriamente facas para fruta, a que todos têm acesso. As armas estavam num cofre que, ou estava aberto, ou sabia a combinação.
se não fosse aí era no mercado negro onde é uma questão de dinheiro, as armas são faceis de obter, sejam legais ou ilegais
Exatamente! Ter acesso a um arsenal não conta – há que saber é se a culpa foi do ChatGPT, das redes sociais ou dos jogos da Roblox 😉
E internet? Há pessoas a usar internet para planear assassinatos?
E livros? Há pessoas a usar livros para planear assassinatos?
E filmes? Há pessoas a usar filmes para planear assassinatos?