O TikTok está tentando tornar mais fácil para os criadores navegar em suas regras e entender o que está acontecendo com suas contas.
A empresa apresentou um “sistema de execução de contas” reformulado, uma série de mudanças que inclui um novo sistema de avisos, bem como recursos que permitem aos criadores verificar se seu conteúdo foi bloqueado nas recomendações do aplicativo.
O novo sistema tem a intenção de eliminar infratores reincidentes no aplicativo, em vez de tomar medidas em cada caso individual.
O que, de acordo com o TikTok, é um problema comum:
Os infratores reincidentes tendem a seguir um padrão – nossa análise descobriu que quase 90% violam usando o mesmo recurso de forma consistente e mais de 75% violam a mesma categoria de política repetidamente.
O novo “sistema de avisos” do TikTok
A plataforma diz que:
Sob o novo sistema, se alguém postar conteúdo que viole uma de nossas diretrizes da comunidade, o conteúdo será removido e sua conta receberá um aviso. Se uma conta atingir o limite de avisos em um recurso do produto (ou seja, comentários, AO VIVO) ou política (ou seja, bullying e assédio), ela será banida permanentemente.
A empresa acrescentou que os usuários também podem ser banidos após apenas um ataque se a violação for considerada “severa”.
Mais parecido com os seus concorrentes
A mudança torna a política do TikTok mais alinhada com a de seus concorrentes.
O YouTube e a Meta também usam um sistema de avisos contra contas que violam suas regras, embora cada plataforma tenha seus próprios critérios para determinar os avisos e as penalidades associadas a eles.
Nesse sentido, o TikTok diz que também fornecerá aos criadores novas ferramentas para ver se sua conta acumulou algum golpe nos últimos 90 dias.
O recurso estará em uma nova seção de “status da conta” da Central de segurança do aplicativo. A empresa também está adicionando uma seção de “relatórios”, onde os usuários podem acompanhar qualquer conteúdo ou contas que denunciaram.
As mudanças ocorrem em meio a um cenário mais amplo do TikTok para aumentar a transparência sobre como ele lida com moderação de conteúdo e recomendações algorítmicas, ambos sujeitos aos intensos olhares de legisladores e reguladores.
Fonte: Engadget