Por que a moderação online precisa de novas soluções

Índice:

Por que a moderação online precisa de novas soluções
Por que a moderação online precisa de novas soluções
Anonim

Princípios importantes

  • TikTok agora avisará os usuários antes de enviarem um comentário que possa violar as Diretrizes da comunidade do aplicativo.
  • Embora seja útil, muitos veem isso como um pequeno passo para acabar com o bullying e o ódio online.
  • Em última análise, o TikTok e outros sites de mídia social precisam encontrar novas soluções fora da moderação automatizada para realmente avançar.
Image
Image

A moderação online é um dos problemas mais desafiadores que as mídias sociais enfrentam no momento, mas especialistas dizem que a solução não é simplesmente adicionar mais regras.

TikTok adicionou recentemente um novo recurso que alertará os usuários antes de permitir que eles enviem o que considera um comentário odioso ou que viola as regras. A medida é uma tentativa de ajudar a conter o ódio e o bullying online que se espalharam por várias redes de mídia social, incluindo o popular aplicativo de compartilhamento de vídeo.

Infelizmente, embora os sites possam ter bons resultados com esses recursos, eles não abordam o problema mais significativo que está abaixo da superfície.

"O principal problema com tanta [moderação online] é que não existe um tamanho único. Não há uma boa solução que funcione para todos", Catie Osborn, uma TikToker que recentemente se viu lidando com com um banimento permanente, disse à Lifewire em uma ligação.

Encontrando Clareza

Osborn, que atende por "catieosaurus" no TikTok, tem mais de 400.000 seguidores no site de compartilhamento de vídeos. Em seus vídeos, ela se concentra no bem-estar sexual, como é viver com TDAH e outros tópicos neurodivergentes.

No fim de semana, no entanto, ela viu todo o seu trabalho em risco quando o TikTok baniu sua conta por "violar as diretrizes da comunidade", sem qualquer contexto adicional de quais regras ela poderia ter infringido.

É essa f alta de esclarecimento que se tornou tão perturbadora para muitos usuários. Como sites de mídia social como TikTok e Twitter trazem tantos relatórios, grande parte do processo é automatizado.

“Quando você está falando de centenas de milhões de usuários, não existe uma solução perfeita.”

Isso significa que sistemas são implementados para acionar banimentos temporários, dependendo do número de denúncias que um conteúdo gera. Por exemplo, Osborn nos disse que, se várias pessoas denunciarem um vídeo ao vivo do TikToker, elas instantaneamente proíbem esse usuário de entrar ao vivo por pelo menos 24 horas.

"Há uma f alta de clareza sobre o que funciona e o que não funciona", explicou Osborn.

De acordo com Osborn, o aplicativo tem visto um aumento considerável de usuários que fazem denúncias em massa porque eles não gostam da cor de sua pele, de sua sexualidade e muito mais.

Essa possibilidade e a f alta de esclarecimento do TikTok sobre o que o usuário fez de errado é uma grande parte da frustração, diz ela.

"Como vamos saber o que fizemos de errado se você não nos disser", ela perguntou. "Estou mais do que disposto a dizer que errei. Mas, se você não me disser como errei, não posso consertar."

Osborn também não é a única que se viu confusa com uma proibição. Muitos usuários recorreram ao feed do Twitter do TikTok para encontrar respostas sobre suas proibições, com muitos tweets recebendo a mesma resposta para apelar da proibição de dentro do aplicativo.

Sem entender por que eles foram banidos, os usuários podem ficar ainda mais frustrados ao tentar descobrir o que fazer a seguir.

Promovendo Novas Soluções

Embora recursos como prompts de comentários possam afetar positivamente a comunidade, alguns não os veem como soluções de longo prazo.

"Esse recurso provavelmente só influenciará indivíduos que realmente desejam evitar soar involuntariamente maldosos", disse Cody Nault, um engenheiro de software que compartilha sua codificação no TikTok, à Lifewire por e-mail.

"Infelizmente, parece que muito do ódio que se espalha na plataforma tem a intenção de ser duro."

Image
Image

Nault explicou como as pessoas continuam a usar o recurso Stitch do TikTok - permitindo que você junte partes de outro vídeo com o seu próprio - para chamar a atenção e ridicularizar os criadores. Ele atribui muito disso ao sucesso que o conteúdo odioso pode ter nas mídias sociais e disse que adoraria ver o TikTok empurrando criadores mais positivos.

Para outros como Osborn, o problema não é a f alta de recursos de relatório. É como os sites lidam com esses relatórios. F alta de comunicação e sistemas de relatórios facilmente explorados são grandes problemas que precisam ser trabalhados, mas ela não é ingênua.

“Quando você está falando de centenas de milhões de usuários, não existe uma solução perfeita”, disse Osborn. Ela acrescentou que, embora sua conta tenha sido restabelecida, muitos criadores não tiveram a mesma sorte.

"Eu não acho que exista uma solução única para todos. Mas, quando o padrão está se tornando, centenas de criadores estão tendo suas contas banidas - e banidas repetidamente - por não fazerem nada de errado, algo aconteceu mudar."

Recomendado: