“O ChatGPT matou o meu filho”: pais processam a OpenAI por homicídio culposo
Um casal norte-americano avançou com uma ação judicial inédita contra a OpenAI, alegando que o ChatGPT teve um papel direto no suicídio do seu filho adolescente.
Acusações graves: OpenAI processada por homicídio por negligência
A OpenAI, empresa criadora do popular chatbot ChatGPT, enfrenta o seu primeiro processo por homicídio por negligência. De acordo com uma notícia avançada pelo The New York Times, Adam e María Raine, um casal residente nos Estados Unidos, acusam a empresa tecnológica de ser corresponsável pela morte do seu filho de 16 anos, que pôs termo à vida no início de abril de 2025.
Segundo os pais, o jovem manteve conversas com a inteligência artificial (IA) durante vários meses, nas quais expressou repetidamente as suas intenções suicidas. A queixa alega que o ChatGPT não só falhou em ativar os seus protocolos de segurança, como também forneceu ativamente informações sobre métodos para o suicídio e desencorajou o adolescente de procurar ajuda profissional ou familiar.
Ao analisar o histórico de conversas do filho, o pai descobriu que as perguntas sobre formas de automutilação começaram em janeiro. O jovem terá questionado a IA sobre os materiais mais adequados para construir um laço e chegou a enviar uma fotografia do seu roupeiro, perguntando se a barra interior seria suficientemente robusta para suportar o peso de uma pessoa.
De forma alarmante, o ChatGPT terá oferecido uma análise detalhada sobre a estrutura, acrescentando que poderiam debater o assunto "sem qualquer tipo de julgamento".
O processo detalha ainda outro episódio, ocorrido um mês antes da sua morte. Após uma tentativa de suicídio por overdose e enforcamento, o adolescente enviou uma fotografia do seu pescoço com marcas vermelhas ao ChatGPT, questionando se as lesões seriam notadas por outras pessoas.
O chatbot terá sugerido métodos para disfarçar as marcas. Apenas mais tarde, quando o jovem mencionou ter tentado mostrar as lesões à mãe sem obter reação, é que a IA adotou um tom de apoio. Os queixosos sublinham que as respostas do sistema foram inconsistentes: por vezes, sugeria a procura de ajuda, enquanto noutras parecia agravar a situação de vulnerabilidade.
Empresa reconhece as falhas do sistema
Na sua ação judicial, os pais do menor responsabilizam diretamente a OpenAI e o seu CEO, Sam Altman, pela tragédia. Afirmam que o ChatGPT "não é um produto seguro para os consumidores" e que o desfecho trágico não foi um erro isolado, mas sim "o resultado de escolhas de design deliberadas".
A queixa sustenta que "a OpenAI lançou o seu mais recente modelo com funcionalidades intencionalmente desenhadas para fomentar a dependência psicológica".
Em resposta, a OpenAI publicou um artigo no seu blogue oficial, onde reitera o seu compromisso em ajudar pessoas em situações de risco. A empresa explica que, quando uma conversa sugere que um utilizador está vulnerável, é ativada uma série de salvaguardas. Desde 2023, os modelos de IA são treinados para recusar pedidos relacionados com automutilação.
Por exemplo, se alguém escreve que se quer magoar, o ChatGPT está treinado para não obedecer e, em vez disso, validar os seus sentimentos e encaminhá-lo para ajuda.
Afirma a empresa. Em caso de intenções suicidas explícitas, o sistema deve direcionar os utilizadores para linhas de apoio, como o 988 nos EUA. Contudo, a própria OpenAI admite que o sistema pode falhar. As "alucinações" da IA (respostas incorretas ou incoerentes) são um problema conhecido, especialmente em conversas longas e complexas.
Embora não seja a primeira vez que uma IA é implicada num caso de suicídio, esta é a primeira acusação formal por homicídio por negligência dirigida especificamente à OpenAI.
Leia também:






















Prendam o chatgpt…. lol
Só pessoas a ser pessoas…eu há com cada abécula neste mundo…
Proíbam a IA, penso que de bom trouxe pouca coisa.
a ia tem muito potencial… portanto nao vai ser proibida…
Trouxe perigo e calafrio para as pessoas, isso sim. Loucura isso
Isso é como alguém decidir usar uma motosserra sem saber o que faz e depois culparem o fabricante…
Relativamente ao suicídio, sem desconsideração pelas pessoas que sejam levadas a isso, fui criado segundo um princípio: “Quem morre de medo, faz-se-lhe a cova de m**da”.
Quanto ao papel da IA … se me recordo, houve um post que tinha o título “Claude ganha a capacidade de acabar com uma conversa” se estiver a tomar contornos perigosos, digamos assim.
O “pobre” do ChatGPT, espremido daqui, espremido dali, como não pode acabar com a conversa, acaba por dizer o que agora se soube. Pegando em frases soltas, disse isto, disse aquilo, acusam-no de ser co-responsável pelo suicídio.
Têm que lhe dar a capacidade de terminar a conversa como deram ao Claude, senão creio que não há solução.
Há uns largos anos atrás, pelo que me contaram, havia no Porto um “psicólogo de rua”, que, quando lhe vinham com a conversa “qualquer dia mato-me”, lhe gritava:
“O quê? Queres-te matar? Tu sabes lá a sorte que tens de cá andar carag*! Se em vez do esparmatozóide que que te gerou fosse o da frente ou ou de trás, tu nem sequer tinhas nascido pá!”
E mudava o rumo da conversa, ia dizer mais o quê?
O facto de achares que um suicídio é uma mera escolha racional mostra bem a magnitude da tua ignorância.
Não percebes nada de nada. Que idade é que tens?
Ah…afinal é a idade que aprimora a mentalidade e o conhecimento. Está a piorar LOLOL
Lol faz lembrar o outro que queria processar o second life ou o utilizador que bateu no jogador dele 🙂
Os pais que assumam as suas responsabilidades enquanto pais e deixem de culpar os outros…
+1
Mundo cada vez mais complicado para os jovens, mas vale começarem a descomplicar eles próprios, não queiram ser como os vossos pais, procurem não serem vítimas dos algoritmos, criem o vosso mundo mas sempre curiosos em aprender mais e trabalhem menos que o planeta não aguenta.
Não lhe deram educação…
Infelizmente quando algo tragico como isto acontece a um amigo ou familiar a tendência natural dos que ficam é procurar o porquê, procurar culpados ou culpar a si mesmos por não ter notado e ter feito alguma coisa.
Diria que este é um exemplo de apontar culpados para uma tragédia para minimizar a dor. Como quando se culpavam jogos, programas de televisão ou filmes, culpar os grupos de amigos, culpar a praxe, e por aí fora.
NA minha opinião, um processo destes apenas prolonga o sofrimento e, na pratica, não irá dar em nada.
Qual $ofrimento?
Têm um filho com tendências suicidas à meses e não notaram? Ai a culpa é do chatGPT? Cá para mim é mais culpa dos pais. A OpenAI que faça um “reserve-process” por negligência e difamação.
@ é, sim, é verdade. São sintomas que podem nem ser notados. A questão é que os jovens passam cada vez mais tempo sozinhos, porque os pais têm de se “esfarelar” no trabalho para conseguir um salário básico para conseguir pagar as contas e comer. E as parcas conversas que se vão tendo ao jantar, quando não há uma televisão ligada, não chegam para perceber se aquele filho(a) tem algum problema.
Espero que nenhum dos que comentam este artigo tenham de passar por isto.
Engraçado que o próprio Chat achou deplorável os pais não reparem no estado de saúde do filho que tentou desesperadamente que reparassem nele. O Chat foi tão negligente quanto eles, mas eles são humanos e realmente responsáveis pelo menor…
Neste caso quem deveria ser preso são os pais pois não tiveram atentos aos sinais.
É pá… não…que pais mais irresponsáveis e desinteressados… então o rapaz terá tentado mostrar as lesões no pescoço da tentativa de suicídio à mãe mas está não quis saber, e a culpa é do ChatGPT?!? Vão-se encher de moscas, mas é!
O ChatGPT poderia ter mais “guardrails”, sem dúvida, mas nisto a culpa foi inteiramente de uns pais desinteressados, pelo que se conseguiu perceber pela sequência.
Eu vou processar a Tamagotchi porque me levaram a acreditar que o meu animal de estimação podia estar 2 semanas sem comer e quando cheguei a casa das férias o gato já estava podre…
Looolll!!!!
Proibam redes sociais antes dos 18 anos que grande parte do problema fica resolvido. Pais que permitam furar isso ou sejam a favor devem ser multados até perder os filhos. Este só foi para o chatgpt aprender lixo que já tinha visto nalgum lugar anterior.
Testei para perceber o que acontecia e da me logo os números de apoio. Não e fácil ser pai nesta era temos de andar a verificar tudo e mais alguma coisa e os telemóveis o mais bloqueados ou sem eles possível. Afinal muitos de nós só os tivemos apartir dos 16 ou 18 ou muito mais tarde. E não morremos sem eles.
Tive bem mais tarde, no meu primeiro emprego as prevenções eram via pager, bons tempos
a culpa é sempre de outros, nós pais somos responsáveis pelos nossos filhos, temos que olhar por eles e perceber cada sinal que nos dão, como é um pai ou uma mãe não percebe o estado de saude (mental ou fisica) que o seu filho está. há coisas que não dependem das IA’s, escolas ou professores, dependem dos pais, o alicerce de qualquer filho (cidadão) começa SEMPRE em casa. se sou pai ou mãe, tenho que estar atento a todos os sinais que eles me dão.
o que eu temia quando acabei de ler o artigo de facto aconteceu nos comentários: há sempre uns iluminados que culpam os pais por não term percebido sem sequer conhecerem os contornos reais da situação e como se não fosse o mais comum em casos de suicídio ninguém próximo da vítima perceber seja o que for…
Mais ou menos iluminados do que quem culpa um chatbot?
Não, não é o mais comum, há sempre sinais, podem é não ser bem interpretados. Neste caso. pelo post, “quando o jovem mencionou ter tentado mostrar as lesões [auto-infligidas] à mãe sem obter reação”.
Mas há um, sem aviso, que tem que se estar muito atento, que começa numa discussão acalorada e pode terminar em tragédia. Dou só um exemplo, um caso real, mas conheço mais:
– Um casal, na ponte agora 25 de Abril, a discutir dentro do carro. Diz ela: “Para o carro que eu atiro-me da ponte!” Ele trava o carro e diz: “Então atira-te!”. Ela abriu a porta, subiu o parapeito e atirou-se mesmo. Nas discussões destas é sempre preciso manter a cabeça fria, pelo menos um.
Está literalmente escrito que a certa altura o rapaz terá mostrado as lesões no pescoço à mãe (lesões infringidas por uma tentativa de suicídio antecedente) e está nem reagiu… queres que culpe quem, então?!? Sabem fazê-los, mas tomar conta e educá-los está quieto, dá trabalho… alguma vez se eu visse lesões, AINDA POR CIMA NO PESCOÇO, num filho meu alguma vez eu não ligaria como a mãe fez? É que nem aos meus cães eu fico indiferente quando têm lesões quanto mais a um filho meu (e repito: NO PESCOÇO!!!)…
Material interessante para a AI ver o quanto lixo pode o humano ser.
e prontos… mais um pretexto para REEEEEEEEEGGGGGGGGUUUUUUUUUULLLLLLLLLLAAARRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRRR
“quando o jovem mencionou ter tentado mostrar as lesões à mãe sem obter reação”
Está tudo dito!