Pplware

“O ChatGPT matou o meu filho”: pais processam a OpenAI por homicídio culposo

Um casal norte-americano avançou com uma ação judicial inédita contra a OpenAI, alegando que o ChatGPT teve um papel direto no suicídio do seu filho adolescente.


Acusações graves: OpenAI processada por homicídio por negligência

A OpenAI, empresa criadora do popular chatbot ChatGPT, enfrenta o seu primeiro processo por homicídio por negligência. De acordo com uma notícia avançada pelo The New York Times, Adam e María Raine, um casal residente nos Estados Unidos, acusam a empresa tecnológica de ser corresponsável pela morte do seu filho de 16 anos, que pôs termo à vida no início de abril de 2025.

Segundo os pais, o jovem manteve conversas com a inteligência artificial (IA) durante vários meses, nas quais expressou repetidamente as suas intenções suicidas. A queixa alega que o ChatGPT não só falhou em ativar os seus protocolos de segurança, como também forneceu ativamente informações sobre métodos para o suicídio e desencorajou o adolescente de procurar ajuda profissional ou familiar.

Ao analisar o histórico de conversas do filho, o pai descobriu que as perguntas sobre formas de automutilação começaram em janeiro. O jovem terá questionado a IA sobre os materiais mais adequados para construir um laço e chegou a enviar uma fotografia do seu roupeiro, perguntando se a barra interior seria suficientemente robusta para suportar o peso de uma pessoa.

De forma alarmante, o ChatGPT terá oferecido uma análise detalhada sobre a estrutura, acrescentando que poderiam debater o assunto “sem qualquer tipo de julgamento”.

O processo detalha ainda outro episódio, ocorrido um mês antes da sua morte. Após uma tentativa de suicídio por overdose e enforcamento, o adolescente enviou uma fotografia do seu pescoço com marcas vermelhas ao ChatGPT, questionando se as lesões seriam notadas por outras pessoas.

O chatbot terá sugerido métodos para disfarçar as marcas. Apenas mais tarde, quando o jovem mencionou ter tentado mostrar as lesões à mãe sem obter reação, é que a IA adotou um tom de apoio. Os queixosos sublinham que as respostas do sistema foram inconsistentes: por vezes, sugeria a procura de ajuda, enquanto noutras parecia agravar a situação de vulnerabilidade.

Empresa reconhece as falhas do sistema

Na sua ação judicial, os pais do menor responsabilizam diretamente a OpenAI e o seu CEO, Sam Altman, pela tragédia. Afirmam que o ChatGPT “não é um produto seguro para os consumidores” e que o desfecho trágico não foi um erro isolado, mas sim “o resultado de escolhas de design deliberadas”.

A queixa sustenta que “a OpenAI lançou o seu mais recente modelo com funcionalidades intencionalmente desenhadas para fomentar a dependência psicológica”.

Em resposta, a OpenAI publicou um artigo no seu blogue oficial, onde reitera o seu compromisso em ajudar pessoas em situações de risco. A empresa explica que, quando uma conversa sugere que um utilizador está vulnerável, é ativada uma série de salvaguardas. Desde 2023, os modelos de IA são treinados para recusar pedidos relacionados com automutilação.

Por exemplo, se alguém escreve que se quer magoar, o ChatGPT está treinado para não obedecer e, em vez disso, validar os seus sentimentos e encaminhá-lo para ajuda.

Afirma a empresa. Em caso de intenções suicidas explícitas, o sistema deve direcionar os utilizadores para linhas de apoio, como o 988 nos EUA. Contudo, a própria OpenAI admite que o sistema pode falhar. As “alucinações” da IA (respostas incorretas ou incoerentes) são um problema conhecido, especialmente em conversas longas e complexas.

Embora não seja a primeira vez que uma IA é implicada num caso de suicídio, esta é a primeira acusação formal por homicídio por negligência dirigida especificamente à OpenAI.

 

Leia também:

Exit mobile version