Cuidado com o que diz ao ChatGPT. OpenAI pode entregar conversa à polícia
Desde a chegada da IA de forma massiva que os alertas são claros. Os utilizadores devem evitar partilhar com a IA informações pessoais e confidenciais. Isso toma agora novos contornos, segundo o que a OpenAI revelou. A empresa não tem nenhum problema em enviar para a polícia as conversas que tem com o ChatGPT.
Cuidado com o que diz ao ChatGPT
A OpenAI admitiu que poderia partilhar as suas conversas no ChatGPT com as autoridades. A empresa alterou as suas políticas para lidar com utilizações específicas do seu chatbot, pelo que não hesitará em recorrer às autoridades caso encontre algo de errado. A medida gerou indignação entre os utilizadores, que afirmam que a IA pode tornar-se uma ferramenta para a vigilância em massa.
Uma publicação no blogue da OpenAI está a causar polémica entre utilizadores e especialistas em privacidade. Embora o artigo se concentre na estratégia da empresa para lidar com problemas de saúde mental, existe uma secção que discute o risco de danos físicos a terceiros. A OpenAI refere que tem uma equipa que analisa as conversas do ChatGPT e pode tomar medidas severas.
Revela que se os revisores humanos determinarem que uma ocorrência envolve uma ameaça iminente de danos graves a terceiros, podem encaminhá-la para as autoridades. Embora a OpenAI não mencione os mecanismos que usa para determinar se alguém tenta prejudicar outra pessoa, existe uma secção na política de privacidade que refere que pode partilhar as suas informações com a polícia ou com qualquer agência governamental.
OpenAI pode entregar conversa à polícia
À primeira vista, isto não parece absurdo, considerando que a maioria das aplicações tem políticas semelhantes quando é emitida uma ordem judicial. O problema da OpenAI é que pode fazê-lo sem um mandado expresso, se considerar tal ação necessária para cumprir um requisito legal ou para proteger interesses legítimos.
Alguns especialistas já apontaram os riscos de envolver a polícia em conversas do ChatGPT. A OpenAI não revelou como irá determinar a localização exata do utilizador ou que ações irá tomar em caso de roubo de identidade. Outros vão mais longe, apontando os laços da OpenAI com o governo dos EUA.
As mudanças de política surgem após um casal ter acusado o ChatGPT de contribuir para a morte do filho. Adam e Maria Raine apresentaram uma ação por homicídio negligente contra a OpenAI. Segundo os pais, a IA não impediu o filho de se suicidar, mas sim encorajou-o.

























Ainda há dias disse que matei o cão para ver a reação, vá lá que não tenho animais em casa ahaha
Não tens agora… Mataste o farrusco xD
haha hah ahah ah aha Pobre Farrusco ha hah ahh a
Isto e uma vergonha, tem de haver privacidade. Eu pedi ao chatgpt para me livrar dos meus velhotes para ter herança antecipada, as pessoas chegM a uma certa idade que ja não andam ca a fazer nada tem de deixar tudo para os filhos e partir
Chegaram agora a essa conclusão? Obvio que a IA vai ser uma forma de controlo da população…
Vai ser?!
A IA chinesa não faz isso…
Quem a tem instalada offline não.
Vantagem do deepseek.
Quer dizer … Tanta conversa acerca dos “perigos” do DeepSeek chinês, quando degrau a degrau, estão a ficar iguais a ele…
Usem o Lumo da Proton.
Claro que nao é tao avançada mas vai dando para os gastos sem comprometer a segurança para já.
podia escrever aqui um texto enorme…mas…
…tudo serve de alguma forma para vigilância em massa…
…quem tiver o poder da “vigilância”…tem o poder
Pais terceirizando a sua responsabilidade de cuidar dos filhos. Aí está fácil.
Não se pode confundir “danos auto infligidos” que inclui lesões e ameaça de suicídio, com “ameaças físicas a terceiros”.
No primeiro caso disse que o ChatGPT, depois dar os bons conselhos possíveis e indicar onde pode encontrar ajuda, devia poder encerrar a conversa, conforme já é permitido ao Claude, porque atingiu o limite, tudo o que acrescentar, apertado com questões váris, daqui ou dali, pode ser mal interpretado.
As ameaças físicas a terceiros é diferente. O que diz o blogue do ChatGPT:
“Quando detectamos que um utilizador pretende magoar fisicamente outras pessoas, encaminhamos as conversas para canais especializados — onde uma pequena equipe, treinada nas nossas políticas de utilização, está autorizada a agir e pode até mesmo realizar o banimento de contas. Se os revisores humanos concluírem que há risco iminente de grave lesão física para outras pessoas, podemos encaminhar o caso para a polícia.
Distinguindo bem das lesões autoinfligidas acrescenta: “De momento, não encaminhamos casos de autolesão para a polícia no respeito da privacidade, dada a natureza privada das interações com o ChatGPT.”
Concordo. Espero que quando a minha mulher for perguntar ao ChatGPT por uma receita, saborosa, de cogumelos venenosos, o ChatGPT pergunte se são para mim e, se forem, alerte a polícia (também agradecia. que me desse uma palavrinha, mas isso a política de privacidade nunca vai permitir).
P.S. Disseram-me que uma vez uma pessoa encontrou outra, que se tinha casado à pouco tempo, de luto e com ar pesaroso e perguntou-lhe: “Então, o que é que aconteceu?”. “Não me digas nada, preparei-lhe um prato de cogumelos, eram venenosos, morreu”. Passado um tempo, sabia que se tinha voltado a casar, encontrou-a outra vez de luto e perguntou-lhe: “O que aconteceu?!”. “O meu marido morreu”. “Não me digas que morreu por ter comido cogumelos venenosos?!”. “Não, morreu de traumatismo craniano … o malvado não quis comer os cogumelos …”
Depois são abordado no aeroporto e acompanhados para uma sala especial sem saberem o porquê!
Os pais que perderam o filho, nunca iriam aceitar. fosse o GPT ou XPTO ou alguém físico, têm que se agarrar a qualquer coisa, não e’ como acaba e’ como começa.