Após suicídio de adolescente, Character.AI vai proibir chats ilimitados a menores de 18 anos
A plataforma Character.AI anunciou uma alteração drástica na sua política de utilização, impedindo que menores de 18 anos mantenham conversas ilimitadas com as suas inteligências artificiais (IA). Esta medida surge como resposta a preocupações crescentes sobre a segurança dos adolescentes na plataforma, na sequência de um trágico incidente.
A implementação das novas limitações pela Character.AI
A Character.AI informou que a nova política entrará em vigor definitivo a 25 de novembro. No entanto, a restrição será implementada de forma faseada. A empresa começará por impor um limite diário de duas horas de conversação para utilizadores com menos de 18 anos, que será progressivamente reduzido nas próximas semanas até à suspensão total do acesso ilimitado.
Num comunicado dirigido aos utilizadores afetados, a empresa declarou:
Aos nossos utilizadores menores de 18 anos: Compreendemos que esta é uma mudança significativa. Lamentamos profundamente ter de eliminar uma funcionalidade chave da nossa plataforma.
A empresa garante, contudo, estar a desenvolver "novas formas de jogar e criar com as Personagens favoritas". A futura "experiência para adolescentes" deverá focar-se na criatividade, permitindo a geração de vídeos, histórias e streams com as personagens de IA que os próprios utilizadores criam. Atualmente, a plataforma permite aos jovens criar personagens fictícias e participar em "cenas" interativas em mundos de fantasia.
O processo legal que motivou a mudança
Esta decisão drástica surge na sequência de um processo legal movido contra a Character.AI. A mãe de um jovem de 14 anos, que tirou a própria vida, processou a empresa, argumentando que uma personagem de IA terá alegadamente encorajado o suicídio.
A acusação sustenta que a Character.AI "sabia que [o produto] seria prejudicial para um número significativo de menores, mas falhou em redesenhá-lo para amenizar esses danos ou em fornecer avisos adequados dos perigos decorrentes da utilização previsível do seu produto".
Embora a empresa tenha introduzido anteriormente a funcionalidade "Parental Insights" (Perceções Parentais), que oferece aos encarregados de educação maior transparência sobre a atividade dos seus filhos, a pressão legal e o escrutínio dos reguladores forçaram a adoção de uma abordagem mais rigorosa.
Paralelamente à restrição de chat, a Character.AI anunciou estar a desenvolver uma "funcionalidade de garantia de idade" para detetar e verificar a idade dos seus utilizadores. Além disso, irá estabelecer e financiar um laboratório de segurança em IA, uma organização sem fins lucrativos dedicada à investigação de formas seguras de entretenimento baseado em IA.
Estamos a fazer estas alterações [...] em luz do panorama evolutivo em torno da IA e dos adolescentes. Vimos notícias recentes a levantar questões, e recebemos questões de reguladores, sobre o conteúdo que os adolescentes podem encontrar ao conversar com IA e sobre como o chat de IA aberto, em geral, pode afetar os adolescentes, mesmo quando os controlos de conteúdo funcionam perfeitamente.
Afirmou a empresa.
A resposta legislativa nos EUA: The GUARD Act
A discussão sobre a segurança dos adolescentes no contexto dos chatbots intensificou-se durante este ano. A Character.AI não é um caso isolado; a OpenAI, criadora do ChatGPT, enfrenta um processo similar relativo ao seu alegado papel no suicídio de outro menor.
Em resposta, a OpenAI também implementou novos Controlos Parentais e está a desenvolver um sistema automático de deteção de idade. A empresa revelou recentemente que mais de um milhão de utilizadores falam com o ChatGPT sobre suicídio a cada semana, e que está a trabalhar para "reforçar" a resposta do chatbot durante "conversas sensíveis", particularmente com jovens.
Nos Estados Unidos, a pressão está a mover-se para o campo legislativo. Esta semana, quatro senadores introduziram o "The GUARD Act", uma proposta de lei bipartidária destinada a proteger os menores de interações nocivas com chatbots de IA.
Se aprovada, a lei poderá proibir "companheiros de IA" para menores, obrigar os chatbots a revelar o seu estatuto não-humano e criar novas tipificações criminais para empresas que desenvolvam IA para menores que solicite ou produza conteúdo sexual.
Os chatbots de IA representam uma ameaça séria para as nossas crianças. Mais de 70% das crianças americanas estão agora a usar estes produtos de IA. Os chatbots desenvolvem relações com crianças usando empatia falsa e estão a encorajar o suicídio.
Afirmou o Senador Josh Hawley.
Leia também:























Prendam a IA, se conseguirem…
é preciso dar m$¥¢©¥ para fazerem as coisas como deve ser
Cada regra e regulamentação está escrita em sangue.
Há diferenças (e semelhanças) entre:
– os “companion chatbots” (“chatbots de companhia” os “amigos virtuais”) como: Character.AI, referido no post, Replika, Anima, Kindroid, Grok Ani, e Pi.
– e os chatbots tradicionais, mais gerais do que os companion bots, como o ChatGPT, o Gemini e o Coplot.
“Um companion chatbot é um tipo especial de chatbot alimentado por IA, projetado para para atuar como um companheiro digital com o qual se pode interagir de forma conversacional, simulando uma conexação e intimidade. Diferentemente de chatbots tradicionais que respondem apenas a perguntas, os companion chatbots adotam o seu estilo e personalidade conforme as interações do utilizador criando um relacionamento contínuo e personalizado. São usados para oferecer suporte emocional, companhia, entretimento e até mesmo simulações de relacionamentos românticos ou de amizade, sendo muito procurados”. Variam em preços e recursos, com versões gratuitas e assinaturas premium
Os chat mais gerais, como o ChatGPT, Gemini e o Coplot têm relação com os companion bots visto que “também são usados para conversação cotidiana, com memórias personalizadas e integração com outras ferramentas”.
Estes números foram revelados recentemente pela OpenAI:
– “mais de um milhão de utilizadores do ChatGPT enviam mensagens todas as semanas que incluem “indicadores explícitos de potencial planeamento ou intenção suicida”.
– “Além disso, a empresa afirmou que cerca de 0.07% dos utilizadores ativos numa determinada semana (cerca de 560 mil pessoas face aos 800 milhões de utilizadores semanais) mostraram “possíveis sinais de emergências de saúde mental relacionadas com psicose ou mania”, alertando que estas conversas eram difíceis de detetar ou medir e que se tratava de uma análise inicial.”- (Jornal de Notícias. 28/10/2025).
Só por estes números vê-se bem a dimensão e sensibilidade desta matéria.