Num claro reflexo da era tecnológica em que vivemos, uma nova lei exigirá que os chatbots baseados em Inteligência Artificial (IA) confirmem que não são humanos.
A capacidade dos chatbots de IA têm avançado a um ritmo excessivamente rápido, à medida que os modelos que os executam melhoram e, a par disso, dificultam a distinção entre a IA e os seres humanos.
Nos últimos meses, de facto, temos acompanhado uma tendência, na qual as pessoas parecem recorrer-lhes para tudo e mais alguma coisa (quase literalmente).
Indo da amizade ao romance, passando até por conselhos relacionados com suicídio e homicídio, os utilizadores têm ido além do razoável com os chatbots, levantando questões relativamente à sua proteção.
Califórnia quer tomar medidas sobre os chatbots
De forma “pioneira no país”, o governador da Califórnia, Gavin Newsom, assinou uma nova lei que exigirá que os chatbots informem explicitamente aos utilizadores que são “gerados artificialmente e não humanos”.
Desta forma, é esperado que o novo projeto de lei, a Lei do Senado 243, ajude a reduzir a frequência com que as pessoas ficam confusas sobre a realidade da “companhia” dos chatbots de IA com os quais interagem.
Em vigor a partir do dia 1 de julho de 2027, o projeto de lei afirma que “se uma pessoa sensata que interage com um chatbot de companhia for induzida a acreditar que está a interagir com um humano”, a empresa responsável pelo desenvolvimento do chatbot deve fornecer uma notificação clara de que o chatbot não é humano.
De ressalvar, no entanto, que não está prevista a aplicação da lei a chatbots de atendimento ao cliente ou assistentes de voz, nos quais a IA não mantém uma relação clara e consistente com o utilizador.
Os principais alvos são, portanto, chatbots de IA como o ChatGPT, Gemini e Claude, de utilização mais frequente e contínua.