Pplware

OpenAI quer que o GPT-4 substitua os moderadores de conteúdo na internet

Numa publicação recente no site da OpenAI, a empresa refere que o GPT-4 está a ser usado para o desenvolvimento de política de conteúdo e decisões de moderação de conteúdo, permitindo uma avaliação mais consistente, um ciclo de feedback mais rápido para aprimorar a política e menos envolvimento de moderadores humanos. Mas será que isto vai melhorar a internet?


Foi em maio deste ano que demos a conhecer o relato perturbador de um ex-funcionário da Meta que tinha o trabalho de ver os vídeos publicados no Facebook para moderar se podiam ou não ser publicados da rede.

As mortes, os crimes que viu, tiraram-lhe a humanidade, tornaram-no doente fruto do que foi obrigado a assistir.

A Inteligência Artificial generativa poderá ser a solução? Aparentemente sim. Além de tornar o processo de análise mais célere, poderá minimizar a exposição a este tipo de conteúdos aos moderadores humanos.

Atualmente, a moderação de conteúdo desempenha um papel crucial na manutenção da integridade das plataformas digitais. Um sistema de moderação de conteúdo com recurso ao GPT-4 resulta numa iteração muito mais rápida nas mudanças de política, reduzindo o ciclo de meses para horas.

O GPT-4 também é capaz de interpretar regras e nuances em documentação de política de conteúdo longa e de se adaptar instantaneamente a atualizações de política, resultando numa avaliação mais consistente.

Implementar o GPT-4 em qualquer serviço que necessite de moderação

A OpenAI diz acreditar que o GPT-4 com este objetivo de moderação, oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego online, de acordo com a política específica da plataforma e aliviar a carga mental de um grande número de moderadores humanos.

Qualquer pessoa com acesso à API da OpenAI pode implementar esta abordagem para criar o seu próprio sistema de moderação assistido por IA.

Mas será que isto vai melhorar a internet?

A moderação de conteúdo exige esforço meticuloso, sensibilidade, compreensão profunda do contexto, bem como adaptação rápida a novos casos de uso, tornando-a demorada e desafiadora.

Tradicionalmente, o ónus dessa tarefa recai sobre os moderadores humanos que examinam grandes quantidades de conteúdo para filtrar material tóxico e nocivo, apoiados por modelos menores de machine learning específicos.

Além de lento, tal como já referimos, poderá ser traumatizante para quem desempenha essa tarefa.

Contudo, este tipo de avaliação que envolve um certo julgamento e estes modelos são vulneráveis ​​a preconceitos indesejados que podem ter sido introduzidos no modelo durante a aprendizagem. Como em qualquer aplicação de IA, os resultados e a saída precisarão de ser cuidadosamente monitorizados, validados e refinados, mantendo os humanos informados.

Ao reduzir o envolvimento humano nalgumas partes do processo de moderação que podem ser tratadas por modelos de linguagem, os recursos humanos podem concentrar-se mais na abordagem dos casos extremos complexos.

Exit mobile version