X: novos termos de serviços “autorizam” utilização de conteúdos para treinar IA
A partir de 15 de novembro, os novos termos de serviço da plataforma X passam a incluir uma “autorização” explícita para a utilização dos conteúdos publicados ou partilhados para o treino das ferramentas de inteligência artificial. Haverá hipótese de recusar? E como vai funcionar na União Europeia?
A plataforma X (antigo Twitter) revelou os seus novos termos de serviço que entrarão em vigor a 15 de novembro e os utilizadores rapidamente notaram uma mudança importante.
Quando submete, publica ou exibe conteúdo nos ou através dos serviços, concedes-nos licença não-exclusiva, livre de royalties, para disponibilizar o seu conteúdo ao resto do mundo, incluindo ainda o direito de analisar qualquer um desses conteúdos para utilização e treino dos nossos modelos de aprendizagem automática e inteligência artificial, sejam generativos ou de outro tipo.
Conforme podemos ler nos ToS do X.
Dito de outra forma, a principal mudança relaciona-se com a concessão de permissão para o X usar os seus dados no treino de IA, ou seja, está efetivamente a dar permissão para que isso aconteça no futuro.
A principal alteração está na secção "Direitos e Concessão de Direitos sobre o Conteúdo" do documento, que agora inclui uma redação mais específica sobre o seu acordo em deixar o X usar as suas publicações para treinar os seus modelos de IA.
E na União Europeia?
Se é utilizador fora da união Europeia (UE), dizer que não quer que os seus conteúdos sejam utilizados não é uma opção. Pode apenas optar por não incluir as suas conversas com o chatbot Grok do X no conjunto de treino. Mas isso aplica-se apenas às interações com o Grok, e não à sua atividade geral no X.
Mas aqui, no Velho Continente, a conversa é outra. É que de momento, o X não está a usar dados de utilizadores da UE para treino de IA, devido às leis europeias mais rigorosas (designadamente o Digital Services Act) em matéria de permissões de dados. Isto vai obrigar a plataforma a criar uma configuração específica para utilizadores da UE.
Além disso, o X atualizou também a sua Política de Privacidade com uma nota relativa ao uso de dados por terceiros:
Dependendo das suas definições, ou se decidir partilhar os seus dados, podemos partilhar ou divulgar as suas informações a terceiros. Se não optar por não partilhar, em alguns casos, os destinatários da informação podem usá-la para os seus próprios fins, além daqueles indicados na Política de Privacidade do X, incluindo, por exemplo, para treinar os seus próprios modelos de inteligência artificial, sejam eles generativos ou de outro tipo.
Isto permite ao X vender a terceiros os seus dados a empresas que desenvolvem ferramentas de IA, o que poderia fornecer uma nova fonte de receita. Aliás, o X aumentou o preço de acesso à sua API no ano passado para impedir que empresas de IA (como a OpenAI) "roubassem" os seus dados.
Acesso aos dados
Ainda não está claro como os utilizadores poderão optar por não participar, conforme mencionado na política, mas acredita-se que essa opção poderá ser ativada quando a política for aplicada no próximo mês.
O X também expandiu o período durante o qual pode aceder aos seus dados, com a política atual a afirmar que manterá dados pessoais identificáveis por um máximo de 18 meses. A nova política indica que existem limites de tempo variáveis para os dados que utiliza, que podem estender-se por toda a duração da sua conta em alguns casos.
Isto vai de encontro com a pretensão do X que vê como fator diferenciador das suas ferramentas de IA o facto de serem treinadas com dados em tempo real. Portanto, já está a usar as suas publicações no X como dados de entrada para o Grok e outros projetos de IA.
Polémica recorrente
O uso de conteúdo para treinar IA tornou-se uma questão importante com o crescimento da tecnologia. Muitos artistas e outros profissionais criativos estão preocupados com a possibilidade de o seu trabalho ser usado para treinar computadores que, um dia, poderão substituir os criadores humanos por completo.
Os utilizadores do X dizem estar preocupados com a utilização de informações pessoais nos seus tweets dessa forma. Alguns afirmaram na plataforma que já começaram a apagar fotografias das contas.
Mas a verdade é que o Grok, o chatbot de IA do X, já esteve envolvido em várias controvérsias, desde a divulgação de informações falsas sobre as eleições de 2024 até à geração de imagens falsas, violentas e gráficas de políticos famosos. E não se trata de um exclusivo do X.
Empresas como a Google e a Microsoft também enfrentaram críticas pelos seus próprios modelos de IA. A polémica parece estar para durar.
União Europeia aplicando multa em 3…2…1
Para quando AI treinar o Elon para ver se ele deixa de ter certas loucuras?