OMS alerta que estamos a usar IA nos cuidados de saúde sem proteger os pacientes
Embora os países europeus estejam a implementar Inteligência Artificial (IA) para melhorar os cuidados de saúde, a Organização Mundial da Saúde (OMS) alertou para o facto de os pacientes não estarem suficientemente protegidos.
Em rápido desenvolvimento, a IA está a transformar o setor europeu de saúde, prometendo melhores cuidados aos pacientes e redução da pressão sobre a força de trabalho, por permitir agilizar tarefas.
Segundo a OMS, contudo, a tecnologia está a ser implementada sem salvaguardas adequadas para pacientes ou profissionais de saúde.
Um novo relatório conduzido pela organização e citado pela Euronews, dá conta de que a adoção, regulamentação e financiamento da IA na área da saúde variam consideravelmente entre 50 países da Europa e Ásia Central.
Países da Europa adotam IA nos cuidados de saúde
Segundo a análise da OMS, metade dos países analisados introduziu chatbots de IA para pacientes, e 32 estão a usar ferramentas de diagnóstico baseadas na tecnologia, particularmente para imagens e deteção.
Além disso, os países estão a explorar a IA para triagem de pacientes, patologia, saúde mental, análise de dados, tarefas administrativas e planeamento da força de trabalho.
O relatório especificou, por exemplo, Espanha, que está a testar ferramentas de IA para impulsionar a deteção precoce de doenças, a Finlândia, que está a utilizar a IA para formar profissionais de saúde, e a Estónia, que está a usar a tecnologia para análise de dados.
Neste cenário, 26 países definiram as suas prioridades para a IA na área da saúde, mas apenas 14 alocaram financiamento para esses esforços e, ainda menos, só quatro têm uma estratégia nacional específica para a IA na saúde: Andorra, Finlândia, Eslováquia e Suécia.
A IA está prestes a revolucionar os cuidados de saúde, mas a sua promessa só será concretizada se as pessoas e os pacientes permanecerem no centro de todas as decisões.
Alertou Hans Kluge, chefe do escritório da OMS na Europa, deixando claro que, sem "estratégias claras, privacidade de dados, proteções legais e investimento em alfabetização em IA", as ferramentas podem agravar as disparidades na saúde.
Pacientes devem saber como a IA é usada nos seus cuidados de saúde
Um dos desafios citados é o potencial de a IA para cometer erros. Afinal, as ferramentas baseiam-se em largos conjuntos de dados que podem estar incorretos ou incompletos, e ser tendenciosos.
Ou seja, as decisões tomadas pela IA, nas várias vertentes em que está a ser aplicada, podem refletir essas falhas e levar a erros médicos, como diagnósticos errados ou tratamentos incorretos.
Assim sendo, o relatório da OMS afirma que os países devem esclarecer quem é responsável por esses erros causados pela IA, recomendando que os países da Europa mantenham a transparência com o público sobre como a IA é usada nos seus cuidados de saúde.
Além disso, o bloco deve garantir que as suas estratégias de IA estão alinhadas com os objetivos de saúde pública, tem de preparar os profissionais de saúde para usar a IA de forma eficaz, e precisa de fortalecer as leis e diretrizes éticas em torno da IA.
Segundo a OMS, os países europeus devem "garantir que os sistemas de IA sejam testados quanto à segurança, equidade e eficácia no mundo real antes de chegarem aos pacientes".






















