Por que as mídias sociais nem sempre podem nos proteger de conteúdo ofensivo

Índice:

Por que as mídias sociais nem sempre podem nos proteger de conteúdo ofensivo
Por que as mídias sociais nem sempre podem nos proteger de conteúdo ofensivo
Anonim

Princípios importantes

  • O Instagram acaba de lançar um recurso de Controle de Conteúdo Sensível para permitir que os usuários decidam o que preferem ver na plataforma.
  • Todas as plataformas de mídia social têm alguns controles e políticas de conteúdo para limitar o conteúdo que consideram prejudicial e ofensivo.
  • Os especialistas dizem que cada usuário tem um nível de tolerância diferente para o que é considerado ofensivo e que controlar seu conteúdo é tão simples quanto utilizar o algoritmo.
Image
Image

O Instagram introduziu um recurso de Controle de Conteúdo Sensível no início desta semana, mas políticas de controle de conteúdo como esta tendem a falhar nas redes de mídia social.

O novo recurso da plataforma permite que você escolha “permitir”, “limitar” ou apertar ainda mais os controles para que você veja ainda menos conteúdo “nocivo ou sensível” em seu feed. Todos os sites de mídia social têm alguma política de conteúdo em vigor, mas especialistas dizem que essas políticas não protegem todos de tudo e não deveriam.

“No que diz respeito aos próprios sites de mídia social, quão 'bem' eles policiam esse conteúdo marginal se resume a seus próprios objetivos de negócios e quais métricas eles veem - em outras palavras, quem compõe a maior parte dos membros de sua comunidade”, Mary Brown, diretora de marketing e mídia social da Merchant Maverick, disse à Lifewire por e-mail.

Definindo Conteúdo Nocivo

Controles de conteúdo nocivo não são novidade para as mídias sociais - quase todas as plataformas têm uma política para limitar certos tipos de conteúdo sensível ou nocivo. A política do Twitter remove automaticamente os tweets que contêm conteúdo abusivo com o objetivo de assediar ou intimidar alguém. A plataforma também atualizou suas regras contra conteúdo de ódio em 2019 para incluir qualquer tweet que desumanizasse pessoas com base na religião.

O Facebook também possui práticas de moderação de conteúdo. Por exemplo, a rede social não permite imagens de automutilação ou conteúdo que glorifique os transtornos alimentares. A plataforma também reprimiu a permissão de alegações de saúde sensacionais nos feeds das pessoas, como alegações de saúde exageradas ou enganosas sobre vacinas.

Image
Image

Mas especialistas dizem que essas políticas deixam os usuários com mais perguntas do que respostas, já que “conteúdo nocivo” pode diferir do que cada plataforma define como.

“Quem determina o que é ofensivo? Os usuários terão que selecionar em uma lista de tópicos que consideram ofensivos? O Facebook e o Instagram decidirão o que é ofensivo? Como a ofensiva será definida?” Andrew Selepak, professor de mídia social da Universidade da Flórida, disse à Lifewire em um e-mail.

O Instagram define conteúdo sensível como "postagens que não necessariamente violam nossas regras, mas podem ser potencialmente perturbadoras para algumas pessoas, como postagens que podem ser sexualmente sugestivas ou violentas".

Brown acrescentou que as plataformas não poderiam proteger com sucesso a todos desse tipo de conteúdo, pois todos são diferentes em sua tolerância e preferência por conteúdo.

“Cada pessoa tem um nível de tolerância diferente, atitudes diferentes, gostos diferentes”, disse ela. “Todo indivíduo que baixa ou usa um site de mídia social tem inerentemente aceito que ele ou ela pode se deparar com conteúdo que esteja à margem das diretrizes de conteúdo aceitáveis desse aplicativo ou dos padrões da comunidade.”

Muitos usuários de mídia social também criticaram o novo recurso do Instagram, dizendo que isso limitaria o conteúdo de ativistas e artistas (sobre tópicos controversos ou postagem de arte que contém nudez) de atingir um público.

Controle de conteúdo

Brown observa que é uma oportunidade perdida que o novo recurso do Instagram seja difícil de encontrar dentro do aplicativo, tornando muito mais difícil para as pessoas controlarem o conteúdo com o qual se sentem confortáveis - se querem ver menos ou mais conteúdo “sensível”.

“Se fosse um recurso que o Instagram quisesse destacar melhor, a opção poderia ser incorporada na mesma interface em postagens ou bobinas onde você pode clicar em 'Denunciar'. Essa seria uma maneira mais eficaz de introduzir essa sensibilidade específica controle para pessoas que provavelmente já estão usando essa função”, disse ela.

Recursos extras são ótimos, mas no final, o algoritmo analisa com o que estamos nos envolvendo para determinar o que recomendar em seguida.

O recurso do Instagram teoricamente coloca você no controle do que você vê em vez de implementar uma política geral de conteúdo como muitas outras plataformas. Mas, em última análise, os usuários de mídia social podem considerar o que desejam ver em seus feeds sem essas políticas criadas pela plataforma.

"Recursos extras são ótimos, mas no final, o algoritmo está analisando com o que estamos nos envolvendo para determinar o que recomendar a seguir", escreveu Eric Chow, consultor-chefe da Mashman Ventures, à Lifewire em um e-mail.

Chow acrescentou que fazer algo tão simples quanto deixar a plataforma saber que você não quer ver um tipo de conteúdo (um recurso que muitas plataformas têm) é a maneira mais eficaz de assumir o controle em nossas próprias mãos.

“Os usuários precisam assumir a responsabilidade e estar cientes de como eles se envolvem com seu conteúdo.” ele disse.

Recomendado: