A OpenAI disse que o GPT-4 permite rotulagem mais consistente, um ciclo de feedback mais rápido para refinamento de políticas e menos envolvimento de moderadores humanos.
“Um sistema de moderação de conteúdo usando GPT-4 resulta em uma iteração muito mais rápida nas mudanças de política, reduzindo o ciclo de meses para horas”, disse, acrescentando que o LLM, que também alimenta o ChatGPT, pode “interpretar regras e nuances em políticas de conteúdo longas documentação e adapte-se instantaneamente às atualizações de políticas, resultando em rotulagem mais consistente.”
Por que é importante
A moderação de conteúdo é um processo tedioso que exige esforço meticuloso, sensibilidade, compreensão profunda do contexto, bem como adaptação rápida a novos casos de uso.
Tradicionalmente, essa tarefa é realizada por moderadores humanos, o que torna o processo inerentemente lento e pode levar ao estresse mental. Portanto, amarrar modelos de IA certamente proporcionará algum descanso aos revisores humanos.
“Acreditamos que isso oferece uma visão mais positiva do futuro das plataformas digitais, onde a IA pode ajudar a moderar o tráfego online de acordo com a política específica da plataforma e aliviar o fardo mental de um grande número de moderadores humanos”, disse a empresa.
“Qualquer pessoa com acesso à API OpenAI pode implementar essa abordagem para criar seu próprio sistema de moderação assistido por IA”, acrescentou.
Limitações de moderadores com IA
Como os modelos atuais de IA ainda estão em seus estágios iniciais, seus julgamentos são vulneráveis a vieses indesejados que podem ter sido introduzidos no modelo durante o treinamento.
Portanto, torna-se necessário monitorar, validar e refinar cuidadosamente os resultados e a produção por humanos. Além disso, o envolvimento humano pode ser reduzido em algumas partes do processo, mas casos complexos devem ter intervenção humana.
fim do artigo