Pplware

China aperta o cerco! Chatbots de IA não podem afetar as emoções humanas

A China está a preparar regras para limitar a atuação de chatbots de Inteligência Artificial (IA) capazes de influenciar emoções de forma a induzir suicídio, automutilação ou outros comportamentos prejudiciais.


Emoções que podem ser afetadas pela IA

As propostas foram divulgadas num rascunho pela Administração do Ciberespaço da China, abrangendo serviços de IA que simulam personalidade humana e interagem com utilizadores através de texto, áudio, imagem ou vídeo. O período de comentários públicos decorre até 25 de janeiro de 2025.

Segundo especialistas, citados pela CNBC, estas regras poderão ser a primeira tentativa no mundo de regulamentar chatbots alimentados por IA com características humanas ou antropomórficas.

O objetivo vai além da segurança de conteúdo, focando-se na segurança emocional dos utilizadores, num momento em que empresas chinesas desenvolvem rapidamente parceiros digitais e celebridades virtuais.

Como a China quer regular os chatbots de IA

Conforme divulgado, a China planeia regular os chatbots alimentados por IA de várias formas, nomeadamente:

Outras medidas incluem alertas após duas horas de interação contínua e avaliações de segurança obrigatórias para chatbots com mais de um milhão de utilizadores registados ou 100 mil ativos mensais.

O rascunho da Administração do Ciberespaço da China incentiva, também, o uso de IA humanizada em “disseminação cultural e companhia para idosos”.

Dados de instituições como a Organização Mundial de Saúde (OMS) e centros de investigação mostram uma associação entre uso intensivo de certas tecnologias e o aumento de risco de ansiedade, depressão e tendências suicidas, sobretudo em jovens.

Pressão global sobre a IA e a saúde mental

O impacto da IA no comportamento humano tem sido alvo de crescente atenção. Aliás, o diretor-executivo da OpenAI, Sam Altman, revelou que lidar com conversas sobre suicídio é um dos maiores desafios da empresa responsável pelo ChatGPT. Estas declarações surgiram na sequência de um processo recente, no qual uma família processou a OpenAI após o suicídio do filho adolescente.

Neste contexto, a empresa de IA partilhou, recentemente, que está à procura de um “Head of Preparedness”, cujo trabalho passará por avaliar os riscos da IA, desde a saúde mental até à cibersegurança.

Noutro cenário promovido pela tecnologia, no Japão, uma mulher de 32 anos casou-se com um parceiro gerado por IA, criado por ela própria, através do ChatGPT, conforme informámos anteriormente.

Num momento que parece caótico, as medidas chinesas refletem a estratégia do país no sentido de incentivar normas internacionais de governação da IA, destacando a preocupação com a segurança emocional e o impacto social da tecnologia.

 

Leia também:

Exit mobile version