Emojis estão a dificultar a deteção de discurso de ódio online
Os emojis surgiram com o digital e são presença assídua nas redes sociais. Afinal, são uma forma de aproximar as pessoas enquanto comunicam, transmitindo, por exemplo, estados de espírito e reações. Aparentemente, estes pequenos ícones estão a tornar mais difícil a deteção de discurso de ódio online.
As publicações abusivas são menos suscetíveis de serem identificadas se incluírem emojis.
As gigantes da tecnologia e das redes sociais têm percorrido um longo caminho no controlo dos seus utilizadores. Ou seja, além da mitigação da desinformação, também têm trabalhado no sentido de eliminar o discurso de ódio que, apesar dos esforços, prevalece.
Agora, o Oxford Internet Institute concluiu, através de uma investigação, que alguns algoritmos não são tão eficazes quanto o esperado quando as publicações incluem emojis. Ou seja, as publicações online abusivas podem passar despercebidas, caso contenham esses ícones. Além disso, outras mais aceitáveis são erradamente consideradas odiosas.
Após a final do Euro 2020, da qual Inglaterra saiu derrotada, Marcus Rashford, Bukayo Saka e Jadon Sancho foram inundados de comentários racistas e ofensivos, sendo uma generosa parte deles ilustrados com emojis. Aliás, recorde-se que o próprio Instagram reconheceu o erro de moderação desses comentários.
Essa moderação insuficiente aconteceu, conforme descobriu o Oxford Internet Institute, pela presença dos ditos emojis. Isto, porque a maioria dos sistemas utilizados, atualmente, para preparar os algoritmos recorre a grandes bases de dados de texto, que raramente incluem emojis. Portanto, ‘na hora H’, o algoritmo não deteta os conteúdos como errados.
Base de dados de Oxford treinada para detetar os emojis
Para ajudar a resolver o problema, os investigadores do Oxford Internet Institute criaram uma base de dados com cerca de 4.000 frases, incluindo emojis em contexto ofensivo. Esta foi utilizada para treinar um modelo de Inteligência Artificial (IA) a compreender as mensagens abusivas, bem como aquelas que não o eram. Além disso, treinaram o modelo para entender o contexto das publicações. Ou seja, mesmo que o emoji não seja em si ofensivo, perceber se, com o texto que o segue, pode ser entendido como tal.
Os investigadores testaram o modelo em relação à raça, género, identidade de género, sexualidade, religião e deficiência.
Os falsos positivos arriscam-se a silenciar as vozes dos grupos minoritários.
Disse Hannah Rose Kirk, autora principal da investigação de Oxford.
Apesar do sucesso da investigação e da base de dados desenvolvida pelos investigadores de Oxford – que está a ser partilhada, para que outras empresas a utilizem para melhorar os seus algoritmos – a tecnologia não é totalmente eficaz. Além da evolução da linguagem, que torna os insultos imprevisíveis, o contexto nem sempre é claro para um sistema de IA.
Este artigo tem mais de um ano
Hoje são os emojis, amanha os algarismos, depois são as expressões faciais… depois as piscadelas…… vamos desligar o mundo e voltar a ligar.
Tinham de ter alguma coisa de bom 😛
Lembram-se de cada coisa só para silenciar quem não vai atrás de agendas, politiquices ou “politicamente correcto”… Quem apregoava a liberdade por causa das vacinas que se lembre que “liberdade” não existe há muito. A de expressão já foi pelo cano há muito tempo. Só se criam florzinhas que ficam ofendidos com tudo e mais alguma coisa. Até um “olá” hoje em dia pode dar processo em tribunal por assédio.
Quem é que define o que é discurso de ódio? Censura da era digital
Hum isto está mal contado… um modelo ML bem treinado, podem dar frases com emojis que não importa, o resto do texto se for compatível com o ‘modelo de discurso de odio’ mesmo assim dá os tais 80/90% de ‘match’.
Isto tendo em conta a minha experiência com o LUIS da MS.