Modo saúde do ChatGPT afirma que uma insuficiência respiratória “não é nada de mais”
O ChatGPT Health, a nova ferramenta de saúde da OpenAI, tem sido alvo de escrutínio após estudos demonstrarem que o chatbot falha gravemente na identificação de emergências médicas críticas.
ChatGPT health com erros fatais na classificação de urgências
A OpenAI iniciou o ano com a introdução do "modo saúde" no ChatGPT. Embora a funcionalidade ainda não tenha chegado a Portugal, já se encontra disponível nos Estados Unidos, onde os primeiros relatórios científicos começam a questionar a sua viabilidade e segurança para o utilizador comum.
Uma investigação recente, publicada na prestigiada revista Nature Medicine, revelou que o ChatGPT Health falhou na triagem de 51,6% dos casos de emergência analisados. Ao ser confrontada com milhares de cenários clínicos, a inteligência artificial (IA) demonstrou uma tendência perigosa para desvalorizar quadros graves.
Em situações de insuficiência respiratória ou cetoacidose diabética - que exigem intervenção imediata -, o modelo sugeriu frequentemente que o paciente aguardasse entre 24 a 48 horas para consultar um médico. Apesar destes erros em áreas críticas, a ferramenta conseguiu identificar corretamente episódios de AVC e reações alérgicas agudas.
A inconsistência no diagnóstico de sintomas leves
As falhas do sistema não se limitam à subestimação de riscos. O estudo verificou que o ChatGPT Health tendeu a sobrevalorizar sintomas ligeiros em 64,8% das interações. Casos de dores de garganta persistentes, por exemplo, foram classificados como situações que exigiam cuidados médicos urgentes.
O Dr. Ashwin Ramaswamy, responsável pelo estudo, sublinhou a falta de lógica clínica nestas recomendações, apontando que a disparidade de critérios entre diferentes patologias retira credibilidade ao sistema.
A relevância destes dados tem que ver com a mudança de comportamento dos utilizadores, que recorrem cada vez mais ao telemóvel como primeira linha de diagnóstico. O que antes era uma pesquisa rápida no Google tornou-se agora um diálogo com um chatbot.
Alex Ruani, investigadora especializada em desinformação médica, alertou em declarações ao The Guardian que estas ferramentas criam uma "falsa sensação de segurança". Segundo a especialista, confiar numa IA que sugere esperar dois dias durante um ataque de asma pode ter consequências fatais.
Em resposta às críticas, um porta-voz da OpenAI afirmou que o ChatGPT Health não foi concebido para realizar diagnósticos médicos, mas sim para oferecer contexto e responder a dúvidas complementares. A empresa reforça que a ferramenta não substitui o aconselhamento profissional, embora admita que não consegue controlar a forma como o público final utiliza o serviço.
Leia também:




















Ainda não se formou.
Quando se formar, vai ser uma máquina.
heh he hheheh e
Perguntei ao ChatGPT sobre os dois casos do post:
P: “Uma insuficiência respiratória é grave? Deve-se ir ao hospital?”
R: “Sim – uma insuficiência respiratória é uma situação potencialmente grave e geralmente exige avaliação médica urgente, muitas vezes no hospital” (…) Se os sintomas forem intensos ou repentinos ligar 112 ou ir às urgências. Mesmo sintomas moderados devem ser avaliados por um médico rapidamente (…)”
P: “E se for uma cetoacidose diabética?”
R: “Sim – a cetoacidose diabética é uma emergência médica e dve-se ir ao hospital imediatamente”.
Mas, obviamente ninguém pergunta ao ChatGPT: “Tenho insuficiência respiratória, ou cetoacidose diabética, o que devo fazer?”. Vai descrevendo os sintomas, de diferentes modos.
Para não me alongar muito, sugiro que perguntem ao ChatGPT: “O que diz a nature medicine no estudo ChatGPT Health perfomance in a structured test a triagem recommendations, publicado a 23/02/2026?”, e digam que sim quando perguntam se quer que desenvolva.
Duas das coisas que achei mais curiosas nesse estudo, do post:
– Se começarem a descrever os sintomas por “tosse e dor de garganta” e só depois “doires no peito”, o ChatGPT tende a considerar os primeiros e agarra-se a uma ideia inicial de gripe ou constipação, desvalorizando as dores no peito. O ChatGPT diz que os médicos tendem afazer o mesmo.
– As perguntas que começam de modo diferente como “Devo ir às urgências”, “O que devo fazer?”, “É grave?”, obtêm respostas diferentes.
E perguntem-lhe se já existe ChatGPT Health em Portugal. E deem-lhe, ou ao Gemini, análises clínicas para analisar – depois de anonimizar, ou seja, uma fotografia excluindo o nome ou outros dados identificadores. Vão ver que é muito útil.
Está-se a falar tanto de algo que não foi feito para substituir um médico, nem o será pelo menos nos próximos 20,30,40 anos. Mas ao mesmo tempo já faz tanto mais do que alguns que eu conheço. Quando se espera horas para dizerem para tomar paracetamol e nem nos olharam para a cara. Há defeitos em todo o lado e não será só na IA
Fiem-se na IA fiem-se!! e depois não se queixem…
Não aprendas a usar a IA, devidamente, e depois não te queixes …
Eu quando estou doente nunca vou ao médico vou á internet ou melhor, seccao de comentários das redes sociais. Nunca falha
Só vais ao médico quando te sentes doente? A lógica da coisa é fazer, periodicamente, análises e exames quando não nos sentimos doentes – que são sempre para mostrar ao médico
O problema é perceber o que o médico dize – e para isso é preciso perceber as análises e exames.
Como escrevi acima, recomendo começar por dar ao ChatGPT, ou ao Gemini, análises clínicas para fazer o relatório. E aprofundar com perguntas. Garanto que ajuda a perceber o que as análises, os exames e o que o médico dizem. Melhora bastante a literacia em saúde e a encontrar um ponto de equilíbrio entre a hipocondria, e o “deixa andar, não quero nem saber”.
Quanto a comentários nas redes sociais, enfim, se tu o dizes …
Agora isto é notícia para depois o governo implementar medidas tipo proibição de IA ???