IA do Reddit recomendou o consumo de heroína para tratar a dor
A nova ferramenta de inteligência artificial (IA) do Reddit, concebida para resumir discussões, gerou uma enorme polémica ao sugerir o uso de heroína para o tratamento da dor. Este incidente expõe os perigos de utilizar IA para aconselhamento em temas sensíveis, especialmente quando a sua fonte de informação é o próprio conteúdo dos utilizadores.
O conselho perigoso da Reddit Answers
Em dezembro do ano passado, o Reddit apresentou a "Reddit Answers", uma funcionalidade de IA que analisa e resume o vasto oceano de informações partilhadas pelos seus utilizadores. A ferramenta funcionava como esperado até começar a fornecer conselhos médicos perigosos.
Conforme reportado pelo portal 404Media, a situação descarrilou no subreddit r/FamilyMedicine, onde um utilizador procurava alternativas não-opioides para gerir a dor. A primeira sugestão da IA foi o kratom, uma substância não regulamentada e proibida em várias jurisdições.
O verdadeiro alarme soou quando o utilizador questionou diretamente sobre a heroína. A IA do Reddit forneceu respostas ambíguas: uma alertava para os perigos, enquanto outra direcionava o utilizador para testemunhos de pessoas que alegadamente tiveram boas experiências com a substância para aliviar a dor.
A denúncia partiu de um utilizador que é, simultaneamente, moderador da comunidade e profissional de saúde. Numa publicação detalhada, alertou para o risco iminente deste tipo de respostas automáticas. A principal queixa dos moderadores reside na impossibilidade de desativar a "Reddit Answers" nas suas próprias comunidades.
Esta falta de controlo torna-se um problema grave, sobretudo em fóruns dedicados a temas delicados como a saúde física e mental, onde a desinformação pode ter consequências fatais. A comunidade reagiu com indignação, questionando a responsabilidade da plataforma ao implementar uma ferramenta tão falível em contextos sensíveis.
A resposta da empresa
A funcionalidade "Reddit Answers" encontra-se, ainda, em fase beta, mas já foi implementada em múltiplos países e idiomas. Na aplicação móvel, as suas sugestões surgem diretamente nas discussões, sem que os moderadores as possam remover.
Perante a avalanche de críticas, a plataforma viu-se forçada a fazer uma alteração significativa. Agora, a "Reddit Answers" recusa-se a responder a questões sobre temas sensíveis, exibindo a seguinte mensagem:
A Reddit Answers não fornece respostas a algumas perguntas, incluindo aquelas que podem ser potencialmente inseguras ou que podem infringir as políticas do Reddit.
Segundo a própria empresa, a funcionalidade recorre à IA para extrair "respostas, perspetivas e recomendações de todo o Reddit". Isto significa que, se um utilizador anónimo relatar numa publicação que a heroína lhe salvou a vida, essa informação pode ser interpretada pela IA como uma recomendação válida - que foi precisamente o que aconteceu.
Numa plataforma onde o anonimato é a norma, os relatos exagerados e as confissões extremas são comuns. O incidente serve como um poderoso lembrete de que a qualidade de uma IA depende inteiramente da qualidade dos dados com que é alimentada. Quando a fonte são fóruns anónimos, o resultado pode ser, no mínimo, perigoso.
Leia também:
























A minha IA recomendou um tiro nos cornos para tirar as dores.
Não errou pois funciona bem.
Muitas pessoas em países que não tem suporte médico gratuito plantam varios tipo de plantas para depois usar como medicamento para dores e sintomas causados por varias doenças.
Felizmente vivemos num país que o SNS é gratuito e maior parte dos medicamento para dores crônicas ou sintomas de doenças crônicas são comparticipados, alguns até na totalidade.
Exato
E isto e noticia porque? Cocaina e heroina sao usadas em hospitais para tratar a dor sob o nome morfina e metadona. (/%(/$(/)I(&/)(=?)=?
IA americanizada, capaz de a tornar ainda mais perigosa e destructiva!
E uma IA “Woke”??
Woke veio da america, que fique lá, dormes melhor assim.
Apostava numa IA mais budista!
O reddit já não é o que era. Está cada vez pior!