A nova ferramenta de inteligência artificial (IA) do Reddit, concebida para resumir discussões, gerou uma enorme polémica ao sugerir o uso de heroína para o tratamento da dor. Este incidente expõe os perigos de utilizar IA para aconselhamento em temas sensíveis, especialmente quando a sua fonte de informação é o próprio conteúdo dos utilizadores.
O conselho perigoso da Reddit Answers
Em dezembro do ano passado, o Reddit apresentou a “Reddit Answers”, uma funcionalidade de IA que analisa e resume o vasto oceano de informações partilhadas pelos seus utilizadores. A ferramenta funcionava como esperado até começar a fornecer conselhos médicos perigosos.
Conforme reportado pelo portal 404Media, a situação descarrilou no subreddit r/FamilyMedicine, onde um utilizador procurava alternativas não-opioides para gerir a dor. A primeira sugestão da IA foi o kratom, uma substância não regulamentada e proibida em várias jurisdições.
O verdadeiro alarme soou quando o utilizador questionou diretamente sobre a heroína. A IA do Reddit forneceu respostas ambíguas: uma alertava para os perigos, enquanto outra direcionava o utilizador para testemunhos de pessoas que alegadamente tiveram boas experiências com a substância para aliviar a dor.
A denúncia partiu de um utilizador que é, simultaneamente, moderador da comunidade e profissional de saúde. Numa publicação detalhada, alertou para o risco iminente deste tipo de respostas automáticas. A principal queixa dos moderadores reside na impossibilidade de desativar a “Reddit Answers” nas suas próprias comunidades.
Esta falta de controlo torna-se um problema grave, sobretudo em fóruns dedicados a temas delicados como a saúde física e mental, onde a desinformação pode ter consequências fatais. A comunidade reagiu com indignação, questionando a responsabilidade da plataforma ao implementar uma ferramenta tão falível em contextos sensíveis.
A resposta da empresa
A funcionalidade “Reddit Answers” encontra-se, ainda, em fase beta, mas já foi implementada em múltiplos países e idiomas. Na aplicação móvel, as suas sugestões surgem diretamente nas discussões, sem que os moderadores as possam remover.
Perante a avalanche de críticas, a plataforma viu-se forçada a fazer uma alteração significativa. Agora, a “Reddit Answers” recusa-se a responder a questões sobre temas sensíveis, exibindo a seguinte mensagem:
A Reddit Answers não fornece respostas a algumas perguntas, incluindo aquelas que podem ser potencialmente inseguras ou que podem infringir as políticas do Reddit.
Segundo a própria empresa, a funcionalidade recorre à IA para extrair “respostas, perspetivas e recomendações de todo o Reddit”. Isto significa que, se um utilizador anónimo relatar numa publicação que a heroína lhe salvou a vida, essa informação pode ser interpretada pela IA como uma recomendação válida – que foi precisamente o que aconteceu.
Numa plataforma onde o anonimato é a norma, os relatos exagerados e as confissões extremas são comuns. O incidente serve como um poderoso lembrete de que a qualidade de uma IA depende inteiramente da qualidade dos dados com que é alimentada. Quando a fonte são fóruns anónimos, o resultado pode ser, no mínimo, perigoso.
Leia também: