A China está a preparar regras para limitar a atuação de chatbots de Inteligência Artificial (IA) capazes de influenciar emoções de forma a induzir suicídio, automutilação ou outros comportamentos prejudiciais.
Emoções que podem ser afetadas pela IA
As propostas foram divulgadas num rascunho pela Administração do Ciberespaço da China, abrangendo serviços de IA que simulam personalidade humana e interagem com utilizadores através de texto, áudio, imagem ou vídeo. O período de comentários públicos decorre até 25 de janeiro de 2025.
Segundo especialistas, citados pela CNBC, estas regras poderão ser a primeira tentativa no mundo de regulamentar chatbots alimentados por IA com características humanas ou antropomórficas.
O objetivo vai além da segurança de conteúdo, focando-se na segurança emocional dos utilizadores, num momento em que empresas chinesas desenvolvem rapidamente parceiros digitais e celebridades virtuais.
Como a China quer regular os chatbots de IA
Conforme divulgado, a China planeia regular os chatbots alimentados por IA de várias formas, nomeadamente:
- Chatbots de IA não podem gerar conteúdo que incentive suicídio, automutilação, violência verbal ou manipulação emocional.
- Se um utilizador expressar intenções suicidas, a conversa deve ser imediatamente assumida por um humano, que contacte o tutor ou uma pessoa designada.
- Conteúdos relacionados com jogo, violência ou pornografia são proibidos.
- Menores só podem usar IA para companhia emocional com consentimento de um tutor e estão sujeitos a limites de tempo.
- Plataformas devem identificar menores mesmo que não revelem a idade, aplicando as restrições adequadas e permitindo recurso.
Outras medidas incluem alertas após duas horas de interação contínua e avaliações de segurança obrigatórias para chatbots com mais de um milhão de utilizadores registados ou 100 mil ativos mensais.
O rascunho da Administração do Ciberespaço da China incentiva, também, o uso de IA humanizada em “disseminação cultural e companhia para idosos”.
Dados de instituições como a Organização Mundial de Saúde (OMS) e centros de investigação mostram uma associação entre uso intensivo de certas tecnologias e o aumento de risco de ansiedade, depressão e tendências suicidas, sobretudo em jovens.
Pressão global sobre a IA e a saúde mental
O impacto da IA no comportamento humano tem sido alvo de crescente atenção. Aliás, o diretor-executivo da OpenAI, Sam Altman, revelou que lidar com conversas sobre suicídio é um dos maiores desafios da empresa responsável pelo ChatGPT. Estas declarações surgiram na sequência de um processo recente, no qual uma família processou a OpenAI após o suicídio do filho adolescente.
Neste contexto, a empresa de IA partilhou, recentemente, que está à procura de um “Head of Preparedness”, cujo trabalho passará por avaliar os riscos da IA, desde a saúde mental até à cibersegurança.
Noutro cenário promovido pela tecnologia, no Japão, uma mulher de 32 anos casou-se com um parceiro gerado por IA, criado por ela própria, através do ChatGPT, conforme informámos anteriormente.
Num momento que parece caótico, as medidas chinesas refletem a estratégia do país no sentido de incentivar normas internacionais de governação da IA, destacando a preocupação com a segurança emocional e o impacto social da tecnologia.